Почему общество одновременно доверяет и боится нейросетей, как предотвратить манипуляции с помощью дипфейков и почему ИИ – это не интеллект, а сложная программа, обсудили эксперты на круглом столе в Москве
Мир охватила гонка за лидерство в области искусственного интеллекта, в которой участвуют почти все страны. Уже более 60 государств утвердили собственные стратегии развития ИИ, и Россия входит в топ-10 по вычислительным мощностям в этой сфере. Интерес западных компаний к технологии дошёл до того, что одна из них планирует построить термоядерную электростанцию для питания центров обработки данных. В России развитие ИИ является национальной целью и приоритетным направлением экономики. Его уже применяют в медицине, социологии и для автоматизации процессов, отметил политолог, первый заместитель председателя комиссии Общественной палаты РФ по общественной экспертизе законопроектов Александр Асафов.
Своё заявление Асафов сделал в качестве модератора круглого стола «Искусственный интеллект: общественное благо или вред?», организованного Экспертным институтом социальных исследований. Мероприятие собрало специалистов из разных областей для обсуждения влияния AI на современное общество.
Как и любое значимое явление, искусственный интеллект вызывает как энтузиазм, так и скептицизм. Участники дискуссии обсудили позитивные и негативные стороны внедрения нейросетей в повседневную жизнь, подняв важные вопросы об их влиянии на общество и будущее.
Александр Асафов напомнил о заявлении Владимира Путина о необходимости технологического суверенитета в этой сфере и наличия собственных технологий. По его мнению, подход к регулированию ИИ должен быть сбалансированным, чтобы учитывать и развитие технологий, и защиту прав граждан, и безопасность, особенно на фоне использования ИИ злоумышленниками.
Директор Департамента политических исследований ВЦИОМ Михаил Мамонов привёл свежую статистику: в России 94% населения знают об искусственном интеллекте. Наиболее популярными инструментами стали голосовые помощники, поиск текстовых материалов и чат-боты. 52% респондентов скорее доверяют ИИ, в то время как 38% испытывают сомнения. Доверие основано на снижении опасности для человека, эффективности и объективности. Недоверие же связано с опасениями ошибок, потери контроля, корыстного использования, утечки данных и деградации населения.
«При этом надо отметить, что и практики использования достаточно разноплановые, и что самый главный уровень тоже цифр высокий. 63% россиян заявляют о том, что они применяли технологии искусственного интеллекта в своей повседневной жизни в течение последнего года. При этом среди самых молодых эта цифра носит почти абсолютный характер. То есть порядка 90% заявляют о том, что они это уже используют, применяют», — заявил директор Департамента политических исследований ВЦИОМ.
Он поделился, что использование ИИ допустимо во многих сферах, кроме госуправления, где предпочтение отдаётся участию человека. Положительные эффекты видят в уменьшении рутины, повышении производительности и комфорта. Риски связывают с корыстным использованием, утечкой данных, ошибками и отсутствием ответственных лиц. 40% опасаются потери работы. ИИ воспринимается в основном как помощник (54%). 77% опрошенных считают, что человек должен оценивать этичность решений ИИ. Использование ИИ в социологии находится на начальном этапе, хотя на Западе распространены «синтетические респонденты».
Политолог Глеб Кузнецов отметил, что в обществе существуют разные точки зрения: от техно-оптимизма до техно-пессимизма: «Есть две крайних позиции. Первая — это о том, что не сегодня-завтра искусственный интеллект получит под контроль ядерное оружие, и мы все погибнем, придет к власти, и так далее — это опасно. И вторая позиция, что это позиция техно-оптимистов, самым ярким техно-оптимистом в нашей стране является безусловно Герман Оскарович Греф, о том, что мы не будем ничего делать, а будем делегировать все искусственному интеллекту, и будем все счастливы, денег станет, как говорит Илон Маск, столько, что никто их потратить не сможет».
Он привёл аналогию с русскими сказками «Вовка в Тридесятом царстве» и «Конёк-Горбунок», иллюстрируя разные подходы к использованию ИИ. В первой сказке представлены два героя, двое из ларца, которые делают всё буквально, не задумываясь об эффективности своих действий. Они олицетворяют идеального пользователя искусственного интеллекта, позволяя управлять собой без критической оценки ситуации.
Конёк-Горбунок, в свою очередь, выступает в роли мудрого помощника героя, который советует, предупреждает о рисках и помогает их минимизировать. Однако, к сожалению, эти два подхода — идеальный пользователь и заботливый советник — пока не выглядят гармонично сочетаемыми.
Кузнецов также добавил, что важным шагом является создание штаба по управлению разработкой и внедрением ИИ на национальном уровне, с участием как правительства, так и администрации президента. Это позволит избежать безудержного оптимизма и учитывать риски, связанные с подрывом общественно-политической стабильности. Необходимо также учитывать международный опыт, особенно в странах БРИКС, в регулировании ИИ. Технологические революции всегда несут риски, и зрелость общества заключается в способности минимизировать негативные последствия и использовать преимущества.
Участники конференции выразили озабоченность по поводу манипуляций общественным мнением с использованием новых технологий. Первый заместитель руководителя фракции «Справедливая Россия» в Госдуме Дмитрий Гусев акцентировал внимание на необходимости регулирования ИИ, подчеркивая значимость роли Госдумы в разработке соответствующих нормативных документов.
«То, что мы называем искусственным интеллектом, конечно, интеллектом не является. Почему? Да потому, что у интеллекта есть мораль, то есть понимание добра и зла, есть совесть. То, о чём мы говорим, называется компьютерная программа /…/. Чем больше мы очеловечиваем эту самую компьютерную программу, тем больше рисков мы несём для нас самих во взаимодействии с этой программой. Почему? Да потому что, когда мы называем программу интеллектом, хоть и искусственным, мы априори ей доверяем, мы очеловечиваем. Мы относимся к ней как к собеседнику, а это не так», — поделился он.
Особое внимание спикеры уделили вопросам последствий использования ИИ в политических процессах, включая увеличение персонализации политической коммуникации и потенциальные риски дезинформации. Участники подчеркивали необходимость развития отечественного ИИ и маркировки контента, созданного с его помощью, а также выражали тревогу по поводу проблем, связанных с дипфейками и использованием ИИ в государственных пабликах.
Варвара Горскова
Изображение сгенерировано с помощью ИИ «Шедеврум»
