КиберпанкДеталиИнтернет

«Динозавров никогда не было», а «Обама планировал переворот». Как поисковик Google обманывал пользователей и почему его обвиняли в антисемитизме, расизме и сексизме

Компания Google представила ряд новшеств в своем поисковике. В частности, он перестанет выдавать ответы-подсказки на глупые вопросы пользователей.

Информацию для ответов поисковик ищет в собственной базе данных и интернете, куда часто попадают недостоверные сведения. Из-за их использования корпорацию неоднократно обвиняли во лжи.

Что произошло 

Компания Google объявила, что перестанет выдавать в поисковой выдаче ответы-подсказки на абсурдные вопросы пользователей.

История вопроса

Компанию неоднократно обвиняли в распространении фейков через подсказки. К примеру, в 2017 году на запрос «Планирует ли Обама переворот?» поисковик ответил: «Обама на самом деле может планировать государственный переворот в конце своего срока в 2016 году».

Контекст

В 2016 году компания убрала из функции автозаполнения поисковика подсказку про «злых евреев» и «злых женщин», а в 2021-м — про то, что вакцинация — это «геноцид», «зло» и «печать Антихриста». 

Что еще посмотреть

Пользователи спрашивают у Google и «Яндекс», как жениться и остаться холостым, что происходит вообще и как стать стервой. 

Что произошло

Компания Google представила ряд новшеств в своем поисковике. Одним из них стало улучшение сниппетов — фрагментов текста, которые выводятся над поисковой выдачей. Они нужны, чтобы пользователям не приходилось кликать по ссылкам для получения ответа. 

  • Таким образом, как пишет The Guardian, корпорация решила не выдавать быстрые ответы на глупые вопросы. 
  • Ранее поисковик мог учитывать одну часть вопроса, игнорируя другую. В результате пользователь получал ответ на любой абсурдный вопрос. Например, при вводе «Когда Снупи убил Авраама Линкольна?» поисковик выдавал дату смерти президента США, словно соглашаясь с тем, что его убила вымышленная собака из комиксов. 
  • Для улучшения поисковика компания использовала искусственный интеллект. Корпорация обучила свою модель, чтобы та могла «понять», когда выбранный ею фрагмент текста не полностью соответствует вопросу пользователя. Благодаря этому выдача улучшилась на 40%, заявили в корпорации.
  • Также поисковик будет предупреждать о том, что не уверен в качестве предложенных ответов.

История вопроса

Поисковик Google начал давать ответы прямо в выдаче в 2014 году. Информацию он берет из двух типов источников: «графа знаний» и непосредственно интернета. В Сеть часто попадают непроверенные данные, из-за их использования корпорацию неоднократно обвиняли в распространении фейков. 

  • Впервые это произошло в 2015 году. Пользователи ввели в запрос «Что случилось с динозаврами» и получили ответ, что их никогда не было, — поисковик показал выжимку материала с христианского сайта. 
  • В 2017 году компанию обвинили в распространении фейков после того, как на запрос пользователя «Планирует ли Обама переворот?» поисковик ответил: «Обама на самом деле может планировать государственный переворот в конце своего срока в 2016 году». Как оказалось, соответствующая информация была найдена на конспирологическом сайте.
  • На вопрос о безопасности глутамата натрия поисковик выдавал сведения с сайта, который выступал против вакцинации, — там утверждалось, что это вещество вызывает повреждение мозга. 

Контекст 

Обвиняли в некорректной работе поисковик Google и по другим поводам. 

  • В 2012 году Окружной суд в Токио одобрил петицию, в которой требовалось запретить корпорации использовать функцию автозаполнения запросов в поисковике. Прошение подал человек, который захотел остаться анонимным. По словам его адвоката, введя свое имя в поисковик, истец обнаружил, что запрос предлагается дополнить списком преступлений, которые он на самом деле не совершал. По словам истца, этим можно объяснить его внезапное увольнение, которое произошло несколько лет назад, и трудности в поисках новой работы. 
  • В 2016 году компания убрала из функции автозаполнения поисковика подсказку про «злых евреев» и «злых женщин» после того, как корпорацию обвинили в антисемитизме, сексизме и расизме. Пользователи обнаружили, что при вводе слова jews (евреи) поисковик предлагал дополнить запрос в первую очередь словом evil (злой), такую же подсказку он давал при вводе слова women (женщины). А при вводе muslims (мусульмане) первым вариантом дополнения было слово bad (плохие).
  • В 2021 году из поисковика удалили некорректные варианты подсказок на запрос «вакцинация это». В качестве ответов он выдавал «геноцид», «зло», «чип» и «печать Антихриста». После исправления поисковик начал предлагать подсказки «эксперимент», «хорошо или плохо», «медицинское вмешательство», «обязательно» и «важно». 

Что еще посмотреть 

В Сети можно найти множество подборок самых смешных и нелепых запросов в поисковик Google. Вот примеры некоторых из них:

  • почему я идиот;
  • почему я не могу похудеть;
  • сколько нужно хомячков для собачьей упряжки;
  • где можно погулять в военкомате;
  • как жениться и остаться холостым;
  • зачем я вчера напился;
  • как стать принцессой/феей/стервой.

Список абсурдных поисковых запросов периодически публикует и «Яндекс»

  • В 2018 году в него вошли «зачем человеку кот» и «как вести Инстаграм* кота». Многие запросы были связаны с футболом, к примеру, в поисковик вводили текст «нога Акинфеева на обои». Также пользователи спрашивали «почему мои проклятия не действуют» и «как нарисовать мимолетное виденье».
  • В 2020 году компания открыла специальный раздел на своем сайте, где можно получить необычное новогоднее предсказание в виде случайного поискового запроса, заданного каким-то пользователем. В подборку попали «что происходит вообще», «где полежать в Москве днем», «сделать дротики из рулона туалетной бумаги», «какой вопрос можно задать, чтобы ответ был автобус», «песни Елены Ваенга наоборот» и другие. 

*Продукт компании Meta, признанной экстремистской в России.

Копировать ссылкуСкопировано