Исследователи предупреждают о растущей опасности, связанной с использованием современных генеративных моделей искусственного интеллекта (ИИ), таких как ChatGPT, DALL-E, Midjourney и другие.
Кто говорит?
Внимание общественности на данную проблему попытались обратить специалисты в области искусственного интеллекта из «Европейской лаборатории обучения и интеллектуальных систем» (ELLIS), за плечами которых насчитывается больше десяти лет исследований в данной области.
Данное мнение разделяет и другая группа ученых — специалисты из Школы компьютерных наук и статистики Тринити, которые провели собственное исследования и пришли к выводу, что использование современного ИИ формирует предубеждения и негативные стереотипы у тех, кто им пользуется.
В третью группу можно отнести Селесту Кидд и Абеба Бирхане, исследователей из AAAS, которые также ставили перед своей командой схожие задачи. Под их руководством исследователи пытались определить с помощью человеческой психологии причины, по которым генеративный искусственный интеллект обладает высокой способностью искажать убеждения людей.
Что говорят?
Как отмечают исследователи, вместо того чтобы служить полезным инструментом, перечисленные выше модели ИИ могут искажать убеждения людей, распространяя ложную информацию и стереотипные предубеждения.
Исследования показывают, что общественное восприятие способностей генеративных моделей ИИ преувеличено, что приводит к ошибочному мнению о превосходстве последних над человеческими способностями.
Одна из основных проблем заключается в том, что нейронные сети могут генерировать и распространять ложную и искаженную информацию, которая может укорениться в убеждениях людей. Люди имеют тенденцию быстро и безусловно принимать информацию, представленную генеративными моделями ИИ, и доверять им.
Какими могут быть последствия?
Это создает серьезные проблемы, особенно для маргинализированных групп, таких как женщины, дети, беженцы, коренные народы, люди с ограниченными возможностями и другие. Использование генеративных моделей ИИ усиливает предубеждения и стереотипы, которые могут привести к дискриминации и ущемлению прав этих групп.
Кроме того, генеративные модели ИИ представляют собой надежных и уверенных субъектов, которым люди готовы доверять. Это может привести к искажению восприятия информации, генерируемой ИИ, и принятию ее за факт. Проблема «недопонимания» возникает из-за того, что модели ИИ становятся антропоморфными, кажутся разумными и доверительными.
Ведущие ученые и технологи также поднимают вопросы о потенциальных экзистенциальных рисках, связанных с развитием и использованием современных систем ИИ. Внедрение систем принятия решений на основе ИИ вызывает социальные риски и проблемы.