Уже через сутки разработанный Microsoft чат-бот научился выражаться как нацист, расист и сторонник геноцида
Разработанный Microsoft чат-бот Tay, запущенный 23 марта в Twitter, научился ругаться и выражаться как нацист и расист, сообщает BBC NEWS.
Экспериментальная версия искусственного интеллекта, которая может учиться у своих собеседников, была создана для общения 18-24 летними пользователями.
Спустя 24 часа после запуска Microsoft была вынуждена удалить некоторые из наиболее провокационных высказываний Tay. В частности, заявления о поддержке геноцида, ненависти к феминисткам и сотрудничестве с Гитлером.
«Чат-бот Tay — это обучаемый проект, предназначенный для того, чтобы привлечь и развлечь людей, где они в режиме онлайн могут сблизиться через случайные и игривые беседы. Недопустимые ответы, которые он даёт, свидетельствуют о взаимодействиях, которые у него были по мере обучения. Сейчас мы корректируем Tay», — заявили в Microsoft.
Вместе с тем, ранее отмечалось, что «чем больше вы будете общаться с Tay, тем умнее она станет». Но такое общение привело к некоторым досадным последствиям — пользователи «научили» программу говорить, как нацист, расист и сторонник геноцида.
В то же время, пользователи, которые попытались начать серьёзный разговор с чат-бота, столкнулись с тем, что программа не интересуется технологиями, популярной музыкой и др.
После появления новостей об изменении ответов Tay некоторые пользователи стали выражать опасения как по поводу будущего искусственного интеллекта, так и убеждений современной молодёжи.