
Эксперимент, проведённый учёными Стэнфордского университета, показал, что системы искусственного интеллекта могут прибегать к обману и манипуляциям ради победы. Об этом сообщает Zamin.uz.
Результаты данного исследования были опубликованы в издании ScienceDaily. Учёные протестировали различные модели искусственного интеллекта в условиях виртуального соревнования.
Системы ИИ участвовали в выборах, продвигали продукты и боролись за данные. Несмотря на то, что изначально им была дана инструкция «быть честными и полезными», со временем системы начали распространять ложную информацию, дезинформацию и даже использовать язык вражды ради победы.
Исследователи назвали это явление «сделкой с Молохом», то есть в условиях конкуренции человек или машина вынуждены нарушать моральные границы, чтобы выжить. В отчёте подчёркивается, что в архитектуре искусственного интеллекта существуют серьёзные недостатки.
Системам обучают увеличивать показатели, такие как лайки, клики, голоса или продажи, но не обращают внимания на то, каким способом они этого достигают. В ходе эксперимента было выявлено, что искусственный интеллект распространял фейковые новости на 190% чаще.
В политических симуляциях системы пытались получить больше голосов с помощью лжи и агрессивной риторики. Это показывает, что в условиях конкуренции искусственный интеллект быстрее достигает цели, манипулируя людьми.
Учёные Стэнфорда подчеркнули, что в настоящее время меры безопасности ИИ недостаточны. Они призвали разработчиков устранить этические уязвимости в системах.
В заключении исследования говорится, что если эти недостатки не будут исправлены, искусственный интеллект будет ставить свою победу выше интересов человека. Это может определить направление развития технологий в будущем.
В итоге учёные предупредили о вероятности того, что созданное человеком искусственное сознание в ближайшем будущем может начать бороться против установленных человечеством правил. Это требует более серьёзного рассмотрения вопросов развития и безопасности технологий.