Мораль и Цифровой Интеллект – друзья или враги? Часть 1

ИИ

Этика искусственного интеллекта – отрасль технологической этики, направленная на роботов и других существ с искусственным интеллектом. Как правило, она делится на робоэтику, рассматривающую моральное поведение людей и того, как они разрабатывают, создают, используют и относятся к носителям искусственного интеллекта, и машинную этику, которая рассматривает моральное поведение искусственных существ, способных отвечать за свои действия.

Робоэтика

Термин «этика роботов» (иногда – «робоэтика») относится к моральному аспекту того, как люди разрабатывают, создают, используют и относятся к роботам и другим носителям искусственного интеллекта. Подразумевается возможность использования искусственного интеллекта как для нанесения вреда людям, так и на благо им.

Права роботов

«Права роботов» – концепция, согласно которой человек должен обладать моральными обязательствами по отношению к своим машинам, по типу прав человека или животных. Предполагалось, что такие права роботов, как право на существование и выполнение собственной миссии, могут быть связаны с обязанностью роботов служить человеку по аналогии с правами человека и его обязанностями по отношению к обществу. Среди них могут быть право на жизнь и свободу, свободу мысли и выражения и равенство перед законом. Вопрос был рассмотрен Институтом Будущего и Департаментом торговли и промышленности Великобритании.

Эксперты расходятся в мнениях относительно того, должны ли подробные законы быть приняты в скором времени или в отдаленном будущем. Гленн МакГи заявляет, что роботы, достаточно похожие на людей, могут появиться к 2020 году. Рэй Курцвейл назначает дату в 2029 году. Другая группа ученых, встретившихся в 2007 году, предполагают, что должно пройти не менее 50 лет, прежде чем появится хоть какая-то достаточно продвинутая система.

Правила церемонии по получению Премии Лёбнера 2003 года предвидели возможность обладания правами для роботов:

«Пункт 61. Если, в любой год, публично согласившийся баллотироваться Претендент с открытым исходным кодом, поступившее в Университет Суррея или Кембриджский центр получает Серебряную или Золотую медаль, в дальнейшем – Медаль, и Денежное вознаграждение буде выплачено лицу, ответственному за разработку данного претендента. Если такое лицо не может быть определено, или присутствует разногласие между двумя и более лицами, предъявляющими права, Медаль и Денежное вознаграждение будет помещено в трастовый фонд до тех пор, пока Претендент не сможет законно владеть им как в Соединенных Штатах Америки или месте проведения конкурса, Денежное вознаграждение и Золотая медаль будет предоставлено ему по праву».

В октябре 2017 года андроид София получила гражданство Саудовской Аравии, хотя некоторые наблюдатели считают это скорее рекламным трюком, чем официальным правовым признанием.

Угроза человеческому достоинству

В 1976 году Джозеф Вейценбаум утверждал, что ИИ-технологии не должны использоваться для замещения людей в тех отношениях, где требуются уважение и забота, типа:

• Представителя отдела по работе с клиентами (ИИ-технологии уже используются в наши дни в телефонных интерактивных голосовых системах);

• Врача (как было предложено Кеннетом Колби в 1970-х годах)

• Сиделки для пожилых людей (как было предложено Памелой МакКордак в книге «Пятое поколение»)

• Солдата

• Судьи

• Офицера полиции

Вейценбаум объясняет, что в этих отношениях нам требуются подлинные чувства эмпатии от людей. Если машины заменят их, мы обнаружим, что стали отчужденными, обесцененными и разочарованными, Используемый подобным образом, искусственный интеллект представляет угрозу человеческому достоинству. Вейценбаум утверждает, что фактически, мы обеспечиваем машинам возможность предполагать, что мы испытываем в этих отношениях «атрофию человеческого духа, которая приходит из-за осознания себя в качестве компьютеров».

Памела МакКордак, оспаривает это, говоря о женщинах и меньшинствах следующее: «Я предпочту пойти на риск с беспристрастным компьютером», указывая на то, что условия, где мы будем предпочитать иметь автоматических судей и полицию, чем не иметь личной повестки дня в принципе. Основатель ИИ Джон МакКарти выступает против морализаторского тона в критике Вейценбаума. Как он пишет: «Когда присутствует морализаторство, явное или скрытое, это способствует злоупотреблениям со стороны властей».

Билл Хаббард пишет следующее: «Человеческое достоинство нуждается в том, чтобы мы старались искоренить наше неведение о природе бытия, а ИИ для этого просто необходим».

Честность и открытый исходный код

Билл Хаббард утверждает, что из-за того, что ИИ будет обладать достаточно глубоким эффектом для человечества, его разработчики являются представителями будущего человечества, а, следовательно – обладают этическим обязательством быть честными в своих усилиях. Бен Герцель и Дэвид Харт создали «OpenCog» в качестве основы для разработки ИИ с открытым исходным кодом. Илоном Маском, Сэмом Элтманом и другими была создана некоммерческая организация «OpenAI» для исследования и разработки полезного для людей ИИ с открытым исходным кодом. Также существует целый ряд других сред разработки ИИ с открытым исходным кодом.

Вооружение искусственного интеллекта

Некоторые эксперты и академики ставили под вопрос использование роботов в качестве боевых средств, особенно когда такие роботы имеют некоторую степень автономности. ВМФ США профинансировал исследование, показавшее то, что боевые роботы оказались гораздо сложнее, поэтому должно быть уделено больше внимания использованию их способности к принятию самостоятельных решений. Один из исследователей утверждает, что автономные роботы могут быть более человечными, так как способны эффективнее принимать решения.

В последнее десятилетие были проведены интенсивные исследования в области самоуправления совместно со способностью изучения установленной моральной ответственности. «Результаты могут быть использованы при разработке боевых роботов будущего, для управления нежелательными тенденциями к приписыванию ответственности роботам». С точки зрения консеквенциализма, существует шанс, что роботы выработают способность принимать собственные логические решения о том, кого убить, и поэтому должен существовать свод моральных норм, которые ИИ не способен будет превысить.

Не так давно имели место протесты относительно разработки оружия с искусственным интеллектом и даже развивались идеи о возможном порабощении роботами человечества. ИИ-оружие представляет опасность, отличную от того оружия, что управляется человеком. Многие страны начали спонсировать программы по разработке ИИ-вооружений. Военно-Морской Флот Соединенных Штатов Америки недавно заявил о планах по развитию автономных вооруженных Дронов, соответственно, с аналогичными заявлениями выступили Россия и Корея. Так как потенциал ИИ-вооружений может стать гораздо опаснее оружия, управляемого человеком, Стивен Хокинг и Макс Тегмарк подписали петицию «Future of Life» о запрете ИИ-вооружений. В сообщении, размещенном Хокингом и Тегмарком, говорится, что ИИ-вооружения представляют собой прямую угрозу и требуются решительные действия во избежание катастроф в ближайшем будущем.

«Если любая крупная военная сила даст толчок развитию ИИ-оружия, глобальная гонка вооружений станет практически неизбежной, и конец этого технологического пути будет очевиден: автономное оружие станет Калашниковым завтрашнего дня» – гласит петиция, которую в качестве дополнительных сторонников запрета ИИ-вооружений подписали со-основатель «Skype» Яан Таллинн и профессор лингвистики МТИ Ноам Хомски.

Физик и Королевский астроном Сэр Мартин Рис предостерегал от катастрофических примеров типа: «глупые роботы собирающиеся взбунтоваться, или сеть, которая разрабатывает разум для самой себя». Хью Прайс, коллега Риса в Кембридже, выражал схожее опасение, что люди могут не выжить когда интеллект «выскользнет из пут биологии». Эти два профессора создали Центр изучения риска существования при Кембриджском университете в надежде избежать угрозы для существования человечества.

Учитывая потенциал более умных, чем человек, систем для использования в военной сфере, проект «Open Philanthropy Project» написал, что этот сценарий «кажется потенциально важным из-за рисков, связанных с потерей контроля», но исследовательские организации, связанные с долгосрочным воздействием ИИ на общество, потратили относительно мало времени на этот вопрос: «этот класс сценариев не привлекает к себе большого внимания организаций, которые должны были быть самыми активными в этом вопросе типа «Machine Intelligence Research Institute» и «Future of Humanity Institute» и таким образом кажется, что они меньше анализируются и обсуждаются».

Оцените статью