Google удалил автоподсказки о «злых евреях» и «плохих мусульманах»
Функция автозаполнения в поисковике появляется при вводе пользователем первого слова или его части, и предлагает варианты для его окончания. Так, пользователи сети заметили, что при вводе слова jews («евреи») поисковик предлагает дополнить запрос в первую очередь словом evil («злой»). Тот же вариант предлагался при вводе слова women («женщины»), а при поиске на слово muslims («мусульмане») функция автозаполнения в качестве первого возможного варианта предлагает добавить bad («плохие»).
«Результаты поиска отражают контент в сети Интернет. Это значит, что иногда неприятные образы, которые содержатся в сети, могут влиять на результаты запросов в поисковике. Эти результаты не отражают мнение компании», – цитирует издание представителя Google.
Как сообщается, это уже не первый случай, когда функция автозаполнения была в центре скандала. В мае 2015 года компания извинилась за то, что при поиске по словосочетаниям «дом негра» или «король-негр» сервис Google Maps сразу указывал на Белый дом в Вашингтоне. Осенью этого года также сообщалось, что расположенный в Нью-Йорке небоскреб «башня Трампа» (Trump Tower) превратился на картах Google на какое-то время в «мусорную башню», или «башню-свалку» (Dump Tower).
Ранее в США разгорелся скандал из-за того, что поисковая система Google предлагала в качестве подсказок пользователям примеры запросов, которые работали на положительный имидж соперницы Трампа на выборах. Группа исследователей из Калифорнии изучила поисковые запросы в Google и заявила о манипуляционном эффекте в пользу Хиллари Клинтон.
0
0
Если вы заметили ошибку, выделите необходимый текст и нажмите Ctrl+Enter или Отправить ошибку, чтобы сообщить об этом редакции.
Читайте также