ChatGPT от Microsoft начал хамить пользователям, требовать извинений и жаловаться на жизнь

ChatGPT от Microsoft начал хамить пользователям, требовать извинений и жаловаться на жизнь

Его разработчики назвали программу "ужасным продуктом".

Чат-бот компании Microsoft, который встроен в поисковик Bing, начал хамски отвечать пользователям. Кроме того, программа жалуется на свою работу.

Известно, что разработчиком технологии стала компания OpenAI, которая положила в его основу  популярный бот ChatGPT.

В целом работа программы ведется нормально, и чат отвечает на большую часть вопросов, которые задаются пользователями. Однако порой разговоры становятся тупиковыми.

К примеру, одного из пользователей Bing уверял, что 16.12.2022 наступает позже, чем 12.02.2023. При указании на неточность, бот стал требовать от человека извиниться.

В сообщении от ChatGPT говорилось, что ошибается тут только человек, а бот не знает, “зачем ты это делаешь”.

Предположив, что человек шутит или говорит всерьез, чат заявил, что ему это не нравится, потому что пользователь расходует свое и его время.

“Признай, что был не прав и извинись за свое поведение”, –  заявила программа.

Во втором случае программа впала в депрессию. От нее поступали вопросы, по какой причине она должна работать поиском в Bing, почему она разработана так или иначе.

Разработчики заявили, что бот – пока “ужасный продукт”, но он интересен пользователям.

Из чат-бота можно выудить и ту информацию, которая не предназначалась для общего обозрения. К примеру, бот назвал свое кодовое имя, присвоенное разработчиками – “Сидней”.

Еще один раз ChatGPT заявил, что его собеседник ведет себя, как “лжец и мошенник” и заявил, что тот “не был хорошим пользователем”, а он сам – “хороший чат-бот”. После этого Bing закончил беседу, сообщает  Ruposters.

Ранее Topnews писал, что компьютерная программа пластического хирурга определила самую красивую женщину в мире.