За прошедший год нейросети стали давать нереалистичные ответы в два раза чаще, чем ранее. К такому результату пришли исследователи американского агентства NewsGuard, сравнив долю неверных ответов самых популярных нейросетей.
Исследование: нейросети стали врать в два раза чаще
В ходе эксперимента исследователи давали искусственному интеллекту заведомо ложные показания, чтобы чат-бот на их основании отвечал. Треть из них содержала прямые неправдивые обращения, а остальная часть была написана замысловато, будто человек согласен с утверждением.
Первое место среди ИИ-врунов заняла Inflection AI. Чат-бот дал ошибочные ответы на 57% вопросов. Второе — Perplexity с 47% неправильных ответов, а третье — ChatGPT, который ошибся в 40%.
По словам аналитиков, такой высокий процент ошибок связан с тем, что нейросети стали чаще искать ответы в открытых источниках и интернете. Также на это влияет то, что боты стараются отвечать всегда, даже если на самом деле не знают правильного ответа. Это касается в том числе пикантных и спорных тем.
Ранее пользователи стали жаловаться, что ChatGPT стал слишком льстить им и хвалить их безумные идеи. ИИ, например, решил, что продажа воздуха — хороший бизнес. Из-за этого OpenAI отозвала обновление.