Уже через сутки разработанный Microsoft чат-бот научился выражаться как нацист, расист и сторонник геноцида

25 Марта 2016 18:06
1143
Уже через сутки разработанный Microsoft чат-бот научился выражаться как нацист, расист и сторонник геноцида

Разработанный Microsoft чат-бот Tay, запущенный 23 марта в Twitter, научился ругаться и выражаться как нацист и расист, сообщает BBC NEWS.

Экспериментальная версия искусственного интеллекта, которая может учиться у своих собеседников, была создана для общения 18-24 летними пользователями.

Спустя 24 часа после запуска Microsoft была вынуждена удалить некоторые из наиболее провокационных высказываний Tay. В частности, заявления о поддержке геноцида, ненависти к феминисткам и сотрудничестве с Гитлером.

«Чат-бот Tay — это обучаемый проект, предназначенный для того, чтобы привлечь и развлечь людей, где они в режиме онлайн могут сблизиться через случайные и игривые беседы. Недопустимые ответы, которые он даёт, свидетельствуют о взаимодействиях, которые у него были по мере обучения. Сейчас мы корректируем Tay», — заявили в Microsoft.

Вместе с тем, ранее отмечалось, что «чем больше вы будете общаться с Tay, тем умнее она станет». Но такое общение привело к некоторым досадным последствиям — пользователи «научили» программу говорить, как нацист, расист и сторонник геноцида.

В то же время, пользователи, которые попытались начать серьёзный разговор с чат-бота, столкнулись с тем, что программа не интересуется технологиями, популярной музыкой и др. 

После появления новостей об изменении ответов Tay некоторые пользователи стали выражать опасения как по поводу будущего искусственного интеллекта, так и убеждений современной молодёжи.

Если вы заметили ошибку, выделите необходимый текст и нажмите Ctrl+Enter или Отправить ошибку, чтобы сообщить об этом редакции.
Если Вы обнаружили ошибку в тексте, выделите ее мышью и нажмите Ctrl+Enter или эту кнопку Если Вы обнаружили ошибку в тексте, выделите ее мышью и нажмите эту кнопку Выделенный текст слишком длинный!
Читайте также