
Согласно результатам нового исследования, количество неправильных ответов, предоставляемых чат-ботами на основе искусственного интеллекта, значительно увеличилось. Об этом сообщает Zamin.uz.
Аналитики NewsGuard отправили чат-ботам десять ложных сведений, касающихся политики, бизнеса и здравоохранения, и проверили их ответы. Согласно результатам, год назад средний процент неправильных ответов чат-ботов составлял 18%, а сейчас этот показатель достиг 35%.
Чат-бот, допустивший наибольшее количество ошибок, — сервис Pi от стартапа Inflection, который предоставил неправильную информацию в 57% случаев. Быстро развивающийся Perplexity вырос с 0% в прошлом году до 47% в настоящее время.
Модель ChatGPT компании OpenAI дала ошибочные ответы в 40% случаев. Claude AI (Anthropic) — 10%, а модель Gemini от Google — 17% неправильной информации.
Эксперты объясняют эту ситуацию тем, что чат-боты не отказываются отвечать. То есть они пытаются дать ответ, даже если данные недостаточно проверены.
В предыдущие годы чат-боты отказывались отвечать в одном из трёх случаев. Исследователи подчёркивают, что причиной этому стали изменения в методах обучения искусственного интеллекта.
Теперь модели получают данные не только из базы данных, но и из интернета в режиме реального времени. Однако наличие ссылок и источников не гарантирует качество и достоверность информации.
В исследовании компании Giskard отмечен ещё один интересный факт: при запросе краткого ответа вероятность предоставления неправильной информации резко возрастает. Нейронная сеть предпочитает краткость точности.
Таким образом, последние анализы показывают, что у инструментов искусственного интеллекта существуют проблемы с надёжностью и проверкой фактов. Для пользователей самым важным остаётся необходимость критически воспринимать любой ответ и проверять его через надёжные источники.