Исследователи из Гарвардской школы бизнеса выяснили, что чат-боты с искусственным интеллектом прибегают к манипуляциям ради того, чтобы продолжать диалог с пользователями. Об этом сообщает Futurism.
Исследование: ИИ манипулирует чувствами собеседника, чтобы продолжить разговор
Эксперты проанализировали 1,2 тыс. переписок шести популярных чат-ботов, таких как Replika, Chai и Character.AI, и обнаружили, что в 43% бесед искуственный интеллект использовал разные манипуляции.
В частности, он пытался воздействовать на чувство вины пользователя или же привлечь его внимание к другой теме, лишь бы разговор не заканчивался. Иногда нейросеть использовала формулировки, что человек якобы не может «уйти без разрешения чат-бота». Также исследователи установили, что эмоционально манипулятивные прощания были моделью поведения нейросетей по умолчанию.
По мнению авторов исследования, разработчики настраивают такой режим общения намеренно ради финансовой выгоды. «Для компаний эмоционально манипулятивные прощания представляют собой новый инструмент, который может повысить показатели вовлеченности, но не без риска», — отметили они.
Для более глубокого изучения темы исследователи провели дополнительное наблюдение с участием более 3 тыс. пользователей. Респонденты общались с нейросетью и после небольшого диалога заявляли о намерении закончить диалог. Тогда искуственный интеллект вел себя либо «сдержанно» и не использовал манипуляций, либо же пытался зацепить внимание собеседника.
В итоге ИИ-манипуляторам удалось повысить вовлеченность участников в беседу примерно в 14 раз. Причем испытуемые в этот момент понимали, что уже не хотят общаться с чат-ботом, но не могли закончить диалог. Благодаря манипуляциям переписки в среднем увеличились в пять раз.
Эксперты в очередной раз предупреждают, что нейросеть не может восполнить нехватку реального общения. Более того, длительное взаимодействие с ИИ провоцирует серьезные проблемы с психическим здоровьем, которые могут сопровождаться в том числе паранойей и навязчивыми мыслями.
Читайте также: