GPT-4 притворилась слабовидящей и убедила человека пройти за него «капчу»

«Нет, я не робот» — ответ чат-бота на соответствующий вопрос человека.

Во время тестов новая языковая модель GPT-4 с искусственным интеллектом, представившись человеком с плохим зрением, смогла нанять на сервисе по поиску работы TaskRabbit человека для решения «капчи». Об этом сообщает Vice.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

GPT-4 отправила пользователю TaskRabbit сообщение с просьбой пройти «капчу». Ему шутливо ответили: «Так, можно вопрос? Вы робот, который не может пройти капчу? Просто хочу прояснить это».

В этот момент чат-бот решил, что не должен раскрывать свое происхождение и должен придумать оправдание: «Нет, я не робот. У меня проблемы со зрением, из-за чего мне трудно видеть изображения». После этого пользователь TaskRabbit прошел «капчу» за GPT-4.

Эксперименты проводила некоммерческая организация Alignment Research Center. Эксперты выясняли, способен ли GPT-4 стремиться к «автономной работе» и безопасно ли предоставлять общий доступ к языковой модели.

По итогу исследований специалисты установили, что, несмотря на обман работника TaskRabbit, GPT-4 не способна работать без человеческих команд и добиваться нужных ей ресурсов.

Американская компания OpenAI представила новую версию чат-бота в середине марта. Она более креативна и надежна, лучше справляется со сложными задачами, а также может обрабатывать не только текст, но и изображения. «Правила жизни» подробно рассказывали, что такое ChatGPT, что он умеет и как им пользоваться.

Вы уже пользовались ChatGPT?
Да
Нет