Автозаполнение Google

imageGoogle только недавно удалил автозаполнения предложения из своей поисковой системы, которое предлагало слово «зло» после фраз «в начале евреи …» и «действительно ли женщины …».
Это произошло после того, как вышла статья с обзором наблюдателя, который отметил, что Google предлагал предлагал антисемитские, сексистские и расистские записи в автозаполнениях. В обоих случаях, когда пользователь нажал на предложение, которое выскочило от автозаполнения, выбило ряд сайтов, которые «доказывали», что и евреи, и женщины злы. Некоторые результаты по запросу «евреи зло» включали страницы, которые утверждали, что евреи являются демоническими духами из другого мира и был перечень основных причин, почему люди ненавидят евреев. Аналогичный поиск по автозаполнению “женщины зло” также показал смехотворные результаты, например, что каждая женщина имеет в себе немного зла и немного распущенности. Еще один сайт утверждал и объяснял, как именно все женщины являются злом. В тот же день, Google говорит, что они приняли меры по претензиям наблюдателя. Вскоре после этого, автозаполнения и поиски по “евреям” и “женщинам” не повторяли такие же результаты. Поиски дали разные результаты в целом. Представитель Google сказал, что варианты автозаполнения генерируются с помощью алгоритма на основе поисковой деятельности и интересов пользователей. Он сказал, что термины, которые иногда завершают фразы, которые появляются в автозаполнение могут показаться неприятным или неожиданным, потому что, в любой день, есть около 15% новых поисков. Эти исследования охватывают широкий спектр материалов. Он добавил, что в компании, они сильно ценят разнообразие идей, перспектив и культур, и что результаты не отражают мнения или убеждения Google. Тем не менее, он признал, что они признают, что функция автозаполнения не является точной наукой, и они делают все возможное, чтобы предотвратить появление таких некорректных моментов, они работают над усовершенствованием своих алгоритмов. Это не первый раз, когда алгоритмы поиска и автозаполнения вызвали претензии от пользователей. Насколько предложений и ответов Google, которые не были предварительно запрограммированы, но создаются с помощью алгоритмов, и предназначены, они просто иногда оказываются полезными, но в тоже время, они часто вызывают неприятные последствия. В июне от Google поиск изображений для «трех темнокожих подростков» автоматически выбивают фотографии преступников. Аналогичные проблемы столкнулись с Google Maps. Google пришлось удалить прошлые варианты автозаполнения. На этот раз, «торрент» было предложено каждый раз, когда кто-то гуглил имя популярного художника. Постановление суда требует это изменить. В соответствии с его политикой, Google удаляет предложения автозаполнений, которые включают в себя сексуально откровенные темы, разжигание ненависти или оскорбительных выражений или нарушение закона. Сайт компании Google обрабатывает около 63000 запросов в секунду и зарабатывает 5,5 миллиардов долларов в день. Его миссия состоит в том, чтобы организовать и сделать мировую информацию полезной и универсально доступной.

Запись опубликована в рубрике Корпорации и компании. Добавьте в закладки постоянную ссылку.