Вже через добу розроблений Microsoft чат-бот навчився висловлюватися, як нацист, расист та прихильник геноциду

25 Березня 2016 22:45
423
Вже через добу розроблений Microsoft чат-бот навчився висловлюватися, як нацист, расист та прихильник геноциду

Розроблений Microsoft чат-бот Tay, запущений 23 березня у Twitter, навчився лаятися та висловлюватися, як нацист та расист, повідомляє BBC NEWS.

Експериментальна версія штучного інтелекту, що може вчитися у своїх співрозмовників, була створена для спілкування з 18-24-річними користувачами.

Через 24 години після запуску Microsoft була змушена видалити деякі з найбільш провокаційних висловлювань Tay. Зокрема, заяви про підтримку геноциду, ненависті до феміністок та співпраці з Гітлером.

«Чат-бот Tay – це навчальний проект, призначений для того, щоб залучити та розважити людей, де вони у режимі онлайн можуть зблизитися через випадкові та грайливі бесіди. Неприпустимі відповіді, що він дає, свідчать про взаємодії, які у нього були в процесі навчання. Зараз ми коригуємо Tay», – заявили в Microsoft.

Разом із тим, раніше наголошувалося, що «чим більше ви будете спілкуватися з Tay, тим розумнішим він стане». Але таке спілкування привело до деяких прикрих наслідків – користувачі «навчили» програму говорити, як нациста, расиста та прихильника геноциду.

У той же час, користувачі, які спробували почати серйозну розмову з чат-ботом, зіткнулися з тим, що програма не цікавиться технологіями, популярною музикою та ін.

Після появи новин про зміну відповідей Tay деякі користувачі стали висловлювати побоювання як з приводу майбутнього штучного інтелекту, так і переконань сучасної молоді.

Якщо ви помітили помилку, виділіть необхідний текст і натисніть Ctrl+Enter або Надіслати помилку, щоб повідомити про це редакцію.
Якщо Ви виявили помилку в тексті, виділіть її мишкою і натисніть Ctrl + Enter або цю кнопку Якщо Ви виявили помилку в тексті, виділіть її мишкою і натисніть цю кнопку Виділений текст занадто довгий!
Читайте також