Facebook тайно присваивает пользователям рейтинг благонадежности
23.08.2018 701 0
IT-гиганты давно используют алгоритмы, чтобы предугадать поведение аудитории — например, захочет ли пользователь купить тот или иной продукт и использует ли он никнейм. На фоне подозрений о том, что российские власти могли с помощью соцсетей повлиять на итоги выборов президента США, Facebook и Twitter пришлось совершенствовать свои механизмы, чтобы избежать манипуляций в будущем.
В результате в 2015 году у пользователей появилась возможность пожаловаться на публикацию, если они считали ее вводящей в заблуждение. Однако очень часто люди пользовались этим не по назначению и жаловались на добросовестных авторов только потому, что были с ними несогласны. Тогда Facebook решил усовершенствовать алгоритм и стал оценивать, насколько пользователь заслуживает доверия.
Ведь этот рейтинг — только один из тысячи критериев, по которым Facebook оценивает своих пользователей. Лайонс отказалась раскрыть подробности о том, как этот рейтинг используется и какие еще механизмы оценки существуют.
В результате в 2015 году у пользователей появилась возможность пожаловаться на публикацию, если они считали ее вводящей в заблуждение. Однако очень часто люди пользовались этим не по назначению и жаловались на добросовестных авторов только потому, что были с ними несогласны. Тогда Facebook решил усовершенствовать алгоритм и стал оценивать, насколько пользователь заслуживает доверия.
"Например, если кто-то раньше заявлял, что какая-то публикация — ложь, и факт-чекер это подтверждал, мы будем доверять жалобам этого пользователя больше, чем того, кто много раз писал жалобы, которые не подтверждались", — пояснила Тесса Лайонс, ответственная за это направление работы в компании. Тесса просит не придавать рейтингу слишком большое значение.
Ведь этот рейтинг — только один из тысячи критериев, по которым Facebook оценивает своих пользователей. Лайонс отказалась раскрыть подробности о том, как этот рейтинг используется и какие еще механизмы оценки существуют.
"Не знать, как именно Facebook нас оценивает, неуютно. Но ирония в том, что они не могут рассказать нам, как это происходит: если они это сделают, их алгоритмами научатся манипулировать", — поясняет специалист по дезинформации Клэр Уордл, директор исследовательской лаборатории в Гарвардской школе Кеннеди, которая помогает Facebook c проверкой фактов в публикациях.
Читайте также |
Комментарии (0) |