Почему модерация контента затруднена для Facebook, Twitter и YouTube

Почему модерация контента затруднена для Facebook, Twitter и YouTube

После беспорядков в Капитолии 6 января разгорелись споры о том, как платформы модерируют контент и что защищается как свобода слова.

Это запутанный и дорогостоящий процесс, поскольку Facebook тратит миллиарды на просмотр миллионов элементов контента каждый день. В то время как TikTok напрямую нанимает модераторов контента, Facebook, Twitter и YouTube поручают большую часть изнурительной работы тысячам сотрудников сторонних компаний.

Многие модераторы в США и за рубежом говорят, что им нужна более высокая зарплата, лучшие условия труда и лучшая поддержка психического здоровья из-за ужасных вещей, которые они видят, просматривая сотни или тысячи сообщений каждый день.

В ответ некоторые компании больше полагаются на алгоритмы, которые, как они надеются, смогут взять на себя большую часть грязной работы. Но эксперты говорят, что машины не могут обнаружить все, включая нюансы языка ненависти и дезинформации. Существует также множество альтернативных социальных сетей, таких как Parler и Gab, которые стали популярными в первую очередь потому, что обещали минимальную модерацию контента. Такой подход привел к временному отстранению Парлера от магазинов приложений Apple и Google, а также от хостинга Amazon Web Services.

Другие платформы, такие как Nextdoor и Reddit, полагаются почти исключительно на большое количество добровольцев для модерации.

Посмотрите видео, чтобы узнать, насколько большой стал бизнес по модерации контента и как в реальном мире влияют онлайн-решения, которые социальные сети принимают в отношении того, какой контент мы можем и не можем видеть.

Ваш адрес email не будет опубликован. Обязательные поля помечены *