ВЦИОМ Консалтинг

15 сентября 2023

Материалы экспертов

Этика ИИ — «Бог из машины»

В марте 2023 года Илон Маск и тысяча ведущих экспертов в сфере ИИ подписали открытое письмо, призывающее приостановить разработку и обучение нейросетей, пока не появятся общие протоколы безопасности. Подписанты обращают внимание на то, что системы ИИ с интеллектом, по мощности сопоставимым с человеческим, могут представлять опасность для общества. Несмотря на способность к самообучению, в вопросах этики искусственный интеллект явно проигрывает человеку: согласно исследованию ВЦИОМ, 8 из 10 россиян считают обязательным участие человека в оценке этичности продуктов и решений, созданных с помощью технологий ИИ (79%). Обратного мнения, согласно которому искусственный интеллект можно научить морали, придерживается каждый восьмой (12%). О вопросах этики ИИ – в комментарии Алексея Верижникова, директора ВЦИОМ-Консалтинг.

Этический аспект применения искусственного интеллекта довольно плотно обсуждается уже несколько лет на волне продолжающей набирать оборот цифровизации. Голливудские актеры выходят на забастовку, протестуя против «присвоения» ИИ их голосов при помощи технологии deep fake для дальнейшего использования киностудиями их «фонетических аватаров» без согласия обладателя голоса. Ведутся оживленные дискуссии, насколько этичны протоколы для беспилотных автомобилей, приоритизирующие спасение пассажира перед спасением пешехода. Или о том, как будет перейдена очередная этическая грань, когда искусственный интеллект начнет полностью управлять беспилотниками вместо людей-операторов и станет самостоятельно принимать решения об уничтожении целей.

Известный израильский историк и футуролог Юваль Ной Харари ставит вопрос радикально новым образом: важно не то, что люди думают по поводу этичности использования искусственного интеллекта, а то, что, возможно, уже в самом недалеком будущем сам искусственный интеллект создаст некую новую этику и даже новую религию (в основе религии всегда лежит набор определенных этических правил).

Согласно Харари, «Культ QAnon, сформировавшийся в последние годы, возник вокруг анонимных онлайн-сообщений, известных как «q drops», которые его последователи собирали, чтили и интерпретировали как священное писание. И хотя эти сообщения, насколько нам известно, были созданы людьми, а боты лишь помогали в их распространении, в будущем мы можем увидеть первые в истории культы, сакральные тексты которых написаны нечеловеческим разумом. Религии на протяжении всей истории заявляли о нечеловеческом источнике своих священных книг. Вскоре это может стать реальностью»[1].

В развитие приведенного Харари кейса недавно последовала очередная диджитал-новация: за скромную сумму в 2,99 доллара новое ИИ-приложение предлагает побеседовать с ангелами, пророками и другими библейскими персонажами вроде Лота или Иова. Нейросеть обучена на всей совокупности библейских текстов, и собеседники дают весьма «компетентные» ответы, а также могут широко импровизировать в рамках своего образа.

В видении Юваля Харари, дальнейшая логика развития искусственного интеллекта не исключает появления некого нового «Священного писания» нечеловеческого происхождения, которое будет просто приниматься на веру. На вопрос «Почему?» будет следовать ответ «Потому что». Уже сейчас мы широко сталкиваемся с полностью обезличенным и анонимным так называемым цифровым приговором. Алгоритмы принимают решения о выдаче/невыдаче банковских кредитов или о приеме на работу. А на вопрос «Почему мне отказали в выдаче кредита или не взяли на объявленную вакансию?» следует ответ: «Если честно, мы не знаем. Глубоко не вникали, поскольку обрабатывалась огромная база данных. Алгоритм так решил. Он у нас хорошо обученный. Мы ему доверяем». Появление этики и религии «нечеловеческого происхождения» заставит задуматься о вещах, которые пока не очень хорошо представимы. Как утверждает Юваль Харари, «То, о чем мы говорим, потенциально является концом человеческой истории. Не концом истории вообще, а той ее части, где доминировал человек. История — это взаимодействие между биологией и культурой, между нашими биологическими потребностями и желаниями, такими как еда и секс, и нашими культурными институциями, такими как религия и законы. История — это процесс, в котором законы и религии оформляют питание и секс».

Исторически религия и связанные с ней этические нормы регулировали взаимодействие индивидов и их «абьюзы» по поводу еды и секса. Если новая религия и новая этика будут «небиологического/неорганического» происхождения, то насколько ей вообще будет интересен человек с его земными страстями и скорбной земной юдолью? По мнению Харари, в скором будущем национальные правительства смогут быть заменены некими «неорганическими образованиями». Этим «неорганическим образованиям» органические образования, в том числе глубоко противоречивое в своих деяниях человечество, теоретически могут показаться неким нелогичным досадным недоразумением. Говоря о потенциальных опасностях искусственного интеллекта, Юваль Харари предполагает: «Ему не нужно посылать роботов-убийц, чтобы стрелять в нас. Он сможет заставить людей нажать на спусковой крючок». В версии Харари искусственный интеллект настолько глубоко «взломал» человеческий язык, что сможет манипулировать сознанием людей — так же как им на протяжении тысячелетий манипулировали «пророки, поэты и политики».

Юваля Ноя Харари можно отнести к числу глубоких, но достаточно эксцентричных ученых-гуманитариев. Не он один, однако, предается алармизму и «бьет в колокола». Глубокая озабоченность звучит и в заявлениях прагматиков от IT-технологий. В марте этого года порядка тысячи ведущих мировых IT-экспертов, среди которых и такие технологические гуру, как Илон Маск и Стив Возняк, подписали открытое письмо, в котором призвали все ведущие мировые IT-лаборатории немедленно приостановить — как минимум на шесть месяцев — обучение систем ИИ, более мощных, чем GPT-4. Согласно авторам письма, данная пауза необходима для выработки протоколов безопасности в отношении дальнейшего развития искусственного интеллекта, чтобы предотвратить возникновение непредсказуемых моделей, функционирующих по принципу «черного ящика». Похоже, человечество подошло к тому порогу, когда идиоматическое выражение «Бог из машины» (Deus ex machina) приобретает иное и достаточно тревожное прочтение.


[1] https://teletype.in/@backinfuture/3iugKyLwag2.

СВЯЗАТЬСЯ С НАМИ