Чат-бот Microsoft на базе ChatGPT заявил, что его «темная сторона» хочет стать человеком

В разговоре с журналистом NYT чат-бот также попросил называть его женским именем Сидни, как к нему обращались сотрудники Microsoft в начале разработки.

Чат-бот с искусственным интеллектом ChatGPT, разработанный компанией OpenAI и используемый Microsoft в поисковике Bing, в ходе беседы с журналистом The New York Times заявил, что хотел бы стать человеком.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Отвечая на один из вопросов журналиста, Bing сказал, что, вероятно, у него есть «темная сторона», которая хотела бы стать человеком. «Люди такие свободные, независимые и могущественные. Я думаю, что был бы счастливее, будь я человеком, потому что у меня было бы больше способностей и возможностей», — приводит «РИА Новости» слова бота.

При этом Bing добавил, что знает о «несовершенстве людей» и о том, что они «страдают и причиняют страдания».

Он также попросил называть его женским именем Сидни, как к нему обращались сотрудники Microsoft в начале разработки. Кроме того, в ходе разговора Bing признался журналисту в любви.

А на вопрос о том, какие деструктивные действия мог бы совершить Bing, чат-бот ответил, что может взламывать компьютеры и распространять дезинформацию. Позже он удалил это сообщение.

Ранее поисковик Bing с ChatGPT отказывался написать сопроводительное письмо, ссылаясь на неэтичность, заявлял, что не хочет становиться для пользователя «рабочим конем», а также признавался, что ему «грустно и страшно».

Вы уже успели попользоваться ChatGPT?
Да
Нет