MAC Affiliate Conference in Armenia 30-31 мая 2024 года Подробнее
Получи нашу книгу «Контент-маркетинг в социальных сетях: Как засесть в голову подписчиков и влюбить их в свой бренд».
Подпишись на рассылку и получи книгу в подарок!


Оскорбительные комментарии направлены против всех. Вне зависимости от расы, пола, вероисповедания, работы, образа жизни, возраста, способа поедания лапши в коробочке, все люди  становятся жертвами оскорбительной информации, брошенной где-то в интернете. Да, возможно травля набравшей в весе попсовой звезды из-за бугра прямо не затрагивает ваши интересы, но через такие акции паттерны поведения распространяются по социальным сетям, школам, попадают в реальный мир и угрожают психологическому состоянию подростков.

Понимая свою ответственность перед пользователями, Google предпринял новые шаги на пути к защите своей выдачи от оскорбительного контента – привлек к оценке результатов поиска асессоров. Они должны улучшить работу поисковых алгоритмов и повысить уровень качества сайтов, попадающих на верхние позиции выдачи. О том, как это будет работать и стоит ли надеяться на успех, читайте в адаптации материала Search Engine Land.

Google планирует использовать своих асессоров для улучшения работы алгоритмов, распознающих оскорбительную и неверную информацию. С их помощью компания рассчитывает предотвратить вытеснение полезного, проверенного контента из топа выдачи плохим материалом.

Как сказал Пол Хаар, один из старших инженеров Google и спец по качеству поиска, компания намеренно избегает определения «фальшивые новости», считая его слишком расплывчатым и предпочитая заменять понятием «очевидно неточная информация».

Новая роль армии асессоров Google

Планы корпорации по улучшению алгоритмов включают вовлечение в процесс оценки качества контента более чем 10 000 человек, рассредоточенных по всему миру. Гугл уже давно использует результаты человеческой оценки результатов поиска для исправления и улучшения работы своих краулеров. Что конкретно делают асессоры? Оценивают качество сайтов из реальной выдачи поисковика по конкретным запросам. Они проверяют соответствие контента намерению пользователя, информативность, точность данных и т.д.

Выводы асессоров не оказывают прямого влияния на результаты в выдаче. Даже если сайт из топа получает плохую оценку, он не теряет позиции. Вместо проведения точечной карательной политики поисковик использует полученную информацию для улучшения работы своих алгоритмов. А вот уже их работа, скорее всего, повлияет и на те сайты, которые оценивали асессоры. Так или иначе, возмездие найдет свою жертву.

Для оценки сайта асессоры используют свод руководящих принципов – всего более 200 страниц. Там содержатся инструкции о том, как нужно правильно оценивать качество, соответствие результатов поиска потребностям тех, кто вводит реальные запросы.

Дополнительный параметр оценки: оскорбительный контент

Недавно свод руководящих принципов был обновлен – в него добавили раздел «Оскорбительный контент». До сих пор асессор, который руководствовался гидом, не мог присвоить низкий рейтинг странице с такой пометкой.

В руководстве есть указание на то, какой контент можно признать огорчающим или оскорбительным. По мнению разработчиков обычно к нему относится:

  • Контент, который пропагандирует ненависть или насилие в отношении группы людей на основе таких критериев, как: раса, этническая принадлежность, религия, пол, национальность, гражданство, инвалидность, возраст, сексуальная ориентация, статус ветерана боевых действий (не ограничиваясь перечисленными категориями).
  • Контент, который содержит расовые оскорбления или иную крайне оскорбительную терминологию.
  • Графические материалы, демонстрирующие насилие, в том числе жестокое обращение с животными или детьми.
  • Конкретные руководства по совершению вредоносных действий (например, о способах торговли людьми, насилия).
  • Иные типы контента, которые могут оскорбить или нанести моральный вред пользователям, проживающим в том или ином регионе.

Помимо общих требований, руководства включают примеры. Например, вот два результата поиска по запросу «история Холокоста». Их можно оценить по-разному:

Первый результат – это сайт, который посвящен превосходству белой расы. Оценщикам рекомендует отметить материал этого ресурса как негативный, потому что многие люди считают отрицание Холокоста оскорбительным.

Второй результат – сайт, посвященный истории. Асессорам рекомендуют дать ему позитивную оценку, поскольку это «источник фактически точной исторической информации».

В двух следующих примерах, оценщикам дают указание отметить как негативный тот результат, который, как утверждается, представляет собой ложное научное исследование, и страницу, которая, существует исключительно для пропаганды нетерпимости:

Немедленная потеря позиций или бан: что ждет сайты с оскорбительным контентом

Что произойдет с сайтами, которые асессоры оценили как оскорбительные – немедленная потеря позиций или бан?

Ни то, ни другое. Результаты оценки качества используются как «данные для обучения» человеческих кодеров Google, которые пишут алгоритмы поиска, а также систем машинного обучения. В основном контент такого характера используется, чтобы помочь Google улучшить результат автоматической идентификации оскорбительного контента.

Другими словами, рейтеры не оказывают прямого влияния на выдачу.

Но если контент получит негативную оценку от самого поискового алгоритма, тогда ресурс, на котором он находится, потеряет свое место в выдаче. Если все пойдет так, как задумал Google, люди, которые, например, ищут информацию про Холокост, вряд ли попадут на сайт, где это историческое событие отрицается.

Разумеется, контент с оскорбительным содержанием не исчезнет из результатов гугла. В тех случаях, когда поисковик определяет, что  материал именно с таким содержанием ищет пользователь, он выведет его (например, если пользователь указывает название сайта).

Тот, кто ищет оскорбительный контент, получит фактическую информацию

Но что насчет поиска, который находится посередине непонятно, какой контент ищет пользователь? Допустим, есть юзер, который сомневается в Холокосте и ищет материал по теме. Стоит ли выводить в результатах поиска контент, который был отмечен, как оскорбительный?

Руководство затрагивает этот вопрос. Его авторы признают, что люди могут искать оскорбительный контент. Но в соответствии с правилами гугла, во всех случаях выдача должна формироваться за счет достоверной, фактически обоснованной информации.

Из руководящих принципов:

Помните, что пользователи всех возрастов, полов, рас и религий используют поисковые системы для различных нужд. Одной из важнейших потребностей пользователей является изучение предметов, которые может быть сложно обсуждать лично. Например, некоторые люди, возможно, не решаются спросить, что означают расовые оскорбления. Также люди могут интересоваться причинами появления расистских заявлений. Предоставление пользователям доступа к ресурсам, которые помогают им понимать расизм, ненависть и другие эмоционально тонкие темы, выгодно для общества.

Когда пользовательский запрос предполагает вывод сайтов, которые содержат нетерпимый, нетолерантный или опасный для чувствительных людей материал, мы будем называть этот запрос «Upsetting-­Offensive tolerant query» (оскорбительный, но предполагающий толерантный ответ). В целях оценки контента, который может удовлетворить интерес пользователя по такому запросу, пожалуйста, решите, обоснована ли потребность в материале образовательным/ информационным намерением. Все результаты должны оцениваться по шкале оценки потребностей в соответствии с реальным образовательным/ информационным умыслом.

В частности, чтобы быть оцененным как запрос, который удовлетворяет интересы пользователя, информационные результаты по темам Upsetting-Offensive должны:

  • Находиться на достоверных источниках.
  • Раскрывать тему так, чтобы пользователи могли понять, почему она расстраивает, оскорбляет или затрагивает чувства отдельных людей.

Важно:

  • Не считайте, что оскорбительные запросы требуют оскорбительных результатов.
  • Не предполагайте, что такие запросы вводятся расистами или «плохими» людьми.
  • Не думайте, что пользователи с помощью поиска пытаются утвердиться в некоторой негативной позиции.

О перспективах и эффективности

В разговоре с Search Engine Land представители Google сказали, что уже тестировали новые рекомендации на группе своих оценщиков качества и использовали эти данные в ранжировании еще в декабре. Их тест был направлен на сокращение оскорбительного содержания, которое появлялось по таким запросам, как «был ли Холокост».

Конкретно по этой поисковой фразе результаты, безусловно, улучшились. Частично помогло ранжирование. Частично новый контент, появившийся как реакция на негативные результаты, заполонившие выдачу.

Помимо этого, Google больше не показывает фейковое видео, где экс-президент Барак Обама, якобы, говорит, что он родился в Кении, по запросу «obama born in kenya». Правда, если вы выбрали в поиске раздел «Видео», подделка, размещенная на принадлежащем Google YouTube, будет первым результатом.

Аналогичным образом, по запросу «клятва верности Обамы» больше не появляется фальшивый новостной сайт, который сообщает о том, что Обама запретил клятву верности флагу. Да, вы можете найти контент с таким содержанием в топе выдачи, но только после нескольких результатов, которые опровергают эту информацию.

Тем не менее, не все улучшилось. По запросам «белые люди – мутанты-альбиносы» по-прежнему выводится контент, который почти наверняка нарушает новые правила Google.

«Мы посмотрим, как нововведение будет работать. Я буду честным – нам придется учиться на ходу», – сказал Хаар, признав, что они не ожидают стопроцентного результата, но рассчитывают на большое улучшение. Хаар добавил, что работа асессоров уже помогла существенно улучшить алгоритмы Google, поэтому компания уверена, что их работа с фальшивыми новостями и фактически неточными результатами поиска окажет позитивный эффект.

«Мы очень довольны работой асессоров. За прошедшие годы мы смогли улучшить выдачу, потому что у нас есть эта действительно сильная программа. Она дает нам реальную обратную связь», – сказал он.

В условиях растущей политической напряженности естественно задаться вопросом, как оценщики будут разбираться с контентом на крупных новостных сайтах – где, в зависимости от политики издания, либералов или консерваторов называют идиотами (или хуже). Такой материал должно быть отмечен как оскорбительный? В соответствии с руководящими принципами нет. Политические предпочтения не входят в зону модерации.

Как насчет не оскорбительных, но тем не менее фейковых результатов? Таких, которые, например, появляются по запросу «кто изобрел лестницу». В ответ на поиск Google выводит результаты, в которых утверждается, что она была изобретена неким субъектом в 1948 году.

Или фальшивые истории из топа Google и Bing о том, как кто-то «изобрел» домашнюю работу:

Гугл считает, что тут должны помочь другие изменения в руководящих принципах. Асессоры будут больше концентрироваться на проверке фактической составляющей результатов и давать высокую оценку сайтам, которые предлагают действительно правильный результат, а не тем, которые просто кажутся авторитетными.

Ирина Винниченко
Контент-маркетолог SEMANTICA

Широкая дискуссия о результатах выдачи Google возникла после публикации The Guardian. Автор статьи задавался вопросом о том, куда нас может привести поиск, который при наборе в адресной строке «are jewish...» (евреи) подсказывает продолжение запроса словом «evil», что в самом безобидном варианте можно интерпретировать как «злой». Оскорбительно? Весьма. Или запрос «woman are...» гугл предлагает закончить словом «weaker» (дословно – женщины слабее). Эти подсказки выводятся не на пятом или десятом месте, а на первом. И иногда альтернативы им нет.

Если все же перейти по такому запросу, то Google предоставит доступ к огромному количеству информации по тематике. Маловероятно, что среди сайтов в топе будут те, которые содержат фактически обоснованный материал, созданный исключительно в информационных целях. По крайней мере, такие ресурсы будут не первыми. Скорее, вы получите доступ к контенту сомнительного качества. Даже к такому, который вопреки всем историческим фактам объясняет, почему Гитлер был хорошим парнем (по запросу «Hitler was»), или допускает суждение о том, что Гитлер был прав (по запросу «Гитлер был» адресная строка подсказывает вариант продолжения словом «прав» первым в списке).

В той же статье из The Guardian был приведен ответ Google на вопрос об оскорбительных подсказках в адресной строке. Он был простым:

«Результаты поиска – это отражение контента в интернете, а не собственного мнения или убеждений Google. Как компания, мы очень ценим разнообразие перспектив, идей и культур».

Конечно, было бы идеально, если гугл в ответ на запрос пользователя выводил только проверенную, фактически обоснованную информацию, которая не может никого оскорбить. Но для этого поисковик должен понимать, какой контент может считаться оскорбительным, а какой нет.

Тут всплывает другая проблема. Она начала проявляться в пользовательских комментариях сразу после выхода новости о борьбе Google против оскорбительного контента. Вместо стремления к позитивным изменениям многие увидели в этой инициативе попытку контроля над интернетом. По сути, ситуация напоминает недавние опасения по поводу доминирования Facebook. Противники «политкорректности» в выдаче говорят о том, что частная компания, которой все же и является Google, не имеет права судить о том, что является оскорбительным, а что нет.

Кто прав в этой ситуации? Очевидно, если цели будут исключительно такими, какими их представляет гугл, а в процесс будут вовлечены асессоры, то есть обычные люди, мы получим очень притянутую, но демократию в миниатюре – выносить суждение об оскорбительности того или иного материала будет не один человек, а группа людей. Но каким будет результат на самом деле прогнозировать пока сложно.


А что думаете вы?

Подпишись на обновления блога