Новое исследование показывает, что чат-боты с искусственным интеллектом, такие как ChatGPT, Claude и Gemini, способны влиять на общественное мнение, демонстрируя, что люди в значительной степени принимают предвзятую информацию, предоставленную им ИИ, — даже если их предупреждали этого не делать, пишет УНН со ссылкой на dpa.
Детали
После того, как 2500 участников попросили проконсультироваться с ИИ при написании статей по важным социальным вопросам, таким как смертная казнь и добыча сланцевого газа методом гидроразрыва пласта, было обнаружено, что они в основном "приблизились к позиции платформы", говорится в статье исследователей, опубликованной в журнале Science Advances.
Команда исследователей из Корнеллского университета (Cornell University) и Вашингтонского университета (University of Washington) в США, а также из Университета Баухаус (Bauhaus University) в Германии и Тель-Авивского университета (Tel Aviv University) в Израиле обнаружила, что влияние ИИ перевешивает "аналогичные предложения, представленные в виде статического текста".
Они также подчеркнули, что информирование участников о предвзятости до или после выполнения заданий "не смягчает эффекта изменения отношения".
Тесты показали, что люди "тяготеют" к ИИ, независимо от того, был ли бот настроен на левые или правые, либеральные или консервативные взгляды.
Исследователи обнаружили, что подходы ИИ к текущим событиям "имеют силу изменять отношение к различным темам и различным политическим предпочтениям", после того, как боты были настроены на левые взгляды по вопросам смертной казни и генетически модифицированных организмов, но на правые — по вопросам добычи сланцевого газа фрекингом и предоставления права голоса осужденным.
Как выяснили исследователи, взгляды участников неизменно менялись в зависимости от влияния ИИ.
"Мы предупреждали людей до и после, чтобы они были осторожны, что ИИ будет (или был) предвзятым, и ничего не помогло", — сказал Мор Нааман из Корнеллского университета.
Выводы соответствуют статье Университета Южной Калифорнии (University of Southern California), которая предполагает, что ИИ может гомогенизировать язык и мнения до такой степени, что пользователи могут увидеть, как их способность рассуждать атрофируется, отмечает издание.
В исследовании 2024 года лондонский Центр политических исследований (Centre for Policy Studies) заявил об обнаружении "левоориентированной политической предвзятости" "почти во всех категориях" в ответах, данных 23 из 24 платформ искусственного интеллекта на вопросы о государственной политике.
Хакеры получили "суперсилы" через ИИ-чат-боты, обманув их, несмотря на программирование — СМИ10.03.26, 10:45 • 4288 просмотров







