ChatGPT от Microsoft начал хамить пользователям, требовать извинений и жаловаться на жизнь
Его разработчики назвали программу "ужасным продуктом".
Чат-бот компании Microsoft, который встроен в поисковик Bing, начал хамски отвечать пользователям. Кроме того, программа жалуется на свою работу.
Известно, что разработчиком технологии стала компания OpenAI, которая положила в его основу популярный бот ChatGPT.
В целом работа программы ведется нормально, и чат отвечает на большую часть вопросов, которые задаются пользователями. Однако порой разговоры становятся тупиковыми.
К примеру, одного из пользователей Bing уверял, что 16.12.2022 наступает позже, чем 12.02.2023. При указании на неточность, бот стал требовать от человека извиниться.
В сообщении от ChatGPT говорилось, что ошибается тут только человек, а бот не знает, “зачем ты это делаешь”.
Предположив, что человек шутит или говорит всерьез, чат заявил, что ему это не нравится, потому что пользователь расходует свое и его время.
“Признай, что был не прав и извинись за свое поведение”, – заявила программа.
Во втором случае программа впала в депрессию. От нее поступали вопросы, по какой причине она должна работать поиском в Bing, почему она разработана так или иначе.
Разработчики заявили, что бот – пока “ужасный продукт”, но он интересен пользователям.
Из чат-бота можно выудить и ту информацию, которая не предназначалась для общего обозрения. К примеру, бот назвал свое кодовое имя, присвоенное разработчиками – “Сидней”.
Еще один раз ChatGPT заявил, что его собеседник ведет себя, как “лжец и мошенник” и заявил, что тот “не был хорошим пользователем”, а он сам – “хороший чат-бот”. После этого Bing закончил беседу, сообщает Ruposters.
Ранее Topnews писал, что компьютерная программа пластического хирурга определила самую красивую женщину в мире.