Бывшие модераторы TikTok подали в суд из-за производственной травмы

Бывшие модераторы TikTok подали в суд из-за производственной травмы

Изображение к статье под названием «Я бы увидел, как людям стреляют в лицо»: бывшие модераторы TikTok подали в суд из-за травмы на работе

Изображение: Мартин Бюро (Гетти Изображений)

Небольшая армия перегруженных работой модераторов контента — это последняя линия защиты общественности от потока развратного и ужасающего контента, загружаемого в социальные сети. В то время как модераторы помогают нам, обычным пользователям, избежать худших из худших, постоянное воздействие самых темных импульсов человечества может нанести ущерб их душевное здоровье. Теперь два бывших модератора TikTok утверждают, что быстро растущий гигант социальных сетей экономил на психиатрическом лечении модераторов, пытающихся справиться с натиском цифровых кошмаров.

«Я видел, как людям стреляют в лицо», — сказал один из опрос с НПР. «А еще одно видео с избиением ребенка заставило меня плакать два часа подряд».

То иск, поданное в четверг, утверждает, что TikTok и его материнская компания ByteDance нарушили трудовое законодательство Калифорнии, не обеспечив надлежащую защиту модераторов от эмоциональных травм, вызванных показом изображений. Модераторы, как утверждается в иске, действуют как «привратники между нефильтрованным, отвратительным и оскорбительным контентом, загруженным в приложение, и сотнями миллионов людей, которые используют приложение каждый день». В иске TikTok конкретно обвиняется в небрежности, небрежном осуществлении сохраненного контроля и нарушениях калифорнийского закона о недобросовестной конкуренции.

«Ответчики [TikTok and ByteDance] осведомлены о негативных психологических последствиях просмотра графического и нежелательного контента для модераторов», — говорится в иске. «Несмотря на это, ответчики не соблюдают общепризнанные стандарты защиты модераторов от вреда».

К настоящему времени ни для кого не секрет, что модераторам контента приходится взаимодействовать с каким-то ужасным материалом, но в иске утверждается, что модерация TikTok на самом деле хуже, чем на других платформах. В то время как другие фирмы предпринимают некоторые меры по снижению вреда, рекомендованные отраслевыми группами, такие как использование технологии фильтрации для искажения изображений или предоставление обязательных консультаций модераторам, TikTok, согласно иску, этого не делает. привело к тому, что истцы [the moderators] подвергается воздействию тысяч графических и нежелательных видео, включая изображения насилия, сексуального насилия и детской порнографии», — говорится в иске.

Бывшие модераторы TikTok Эшли Велес и Рис Янг утверждают, что они не избавлялись от надлежащего лечения психических заболеваний, что, в свою очередь, привело к небезопасной рабочей среде. Два модератора утверждают, что им был представлен длинный список самого ужасного дерьма в Интернете: видео с детской порнографией, изнасилованиями, зоофилией, убийствами, обезглавливанием и самоубийствами пересекали их столы.

Янг сообщил, что видел перед камерой казнь 13-летней девочки членом картеля. Велес сказала NPR, что изображения и видео с участием несовершеннолетних детей составляли подавляющее большинство тревожного контента, с которым она столкнулась. «Кто-то должен страдать и видеть это, чтобы никому больше не пришлось», — сказал Велес NPR.

В иске утверждается, что требования квот производительности, налагаемые на работников, «несовместимы с применимыми стандартами заботы».

Согласно иску, модераторам предлагается просматривать видео не более 25 секунд и с точностью более 80% выносить суждения о том, нарушает ли данное видео правила TikTok. По словам истцов, в течение этих 25 секунд модераторы должны продумать и рассмотреть 100 возможных тегов, которые потенциально могут быть применены для обозначения проблемного контента. Модераторы работают в 12-часовую смену с часовым перерывом на обед и двумя пятнадцатиминутными перерывами, говорится в иске.

«Просматривая посты в социальных сетях на наличие нежелательного контента, модераторы контента становятся нашими солдатами на передовой в войне против разврата: войне, в которой мы все заинтересованы, — говорится в заявлении Стивена Уильямса, одного из адвокатов, представляющих модераторов TikTok. «Психологическая травма, когнитивные и социальные расстройства, с которыми сталкиваются эти работники, очень серьезны. Но их игнорируют, и проблемы будут только усугубляться — и для компании, и для этих людей».

TikTok не ответил на запрос Gizmodo о комментариях.

ОСТИН, Техас – 5 марта: Модераторы контента работают в офисе Facebook в Остине, штат Техас.

ОСТИН, Техас – 5 марта: Модераторы контента работают в офисе Facebook в Остине, штат Техас.
Фото: Вашингтон пост (Гетти Изображений)

Помимо этой горы цифрового террора, в иске утверждается, что модераторы также регулярно подвергаются потоку теорий заговора и дезинформации, особенно в отношении Covid-19, который, как утверждают их адвокаты, также вызывает травмирующие реакции.

Стоит отметить, что Велес и Янг были подрядчиками, работающими через компании Telus International и Atrium Staffing Services соответственно. Хотя оба модератора технически работают на разные компании, иск по-прежнему направлен на возложение ответственности на TikTok и ByteDance, утверждая, что именно они устанавливают квоты, контролируют работников и отвечают за дисциплинарные взыскания. Хотя представитель Telus International сказал NPR, что они предоставляют психологическое консультирование для подрядчиков, Велес утверждает, что этого совершенно недостаточно. Модератор сказала, что у нее была только одна 30-минутная встреча с консультантом, который, казалось, был завален просьбами других модераторов, испытывающих затруднения.

Посредством судебного иска юристы модераторов надеются получить финансовую компенсацию для Велеса и Янга и оказать давление на TikTok, чтобы он провел обследование и лечение психического здоровья тысяч своих нынешних и бывших модераторов контента. Gizmodo обратился к фирме за комментариями, но не получил ответа.

Модераторы заявили, как и многие другие модераторы в конкурирующих технологических фирмах, что они должны были подписать соглашения о неразглашении не позволяя им обсуждать изображения, которые они видели. После дня тяжелого труда в самых темных уголках человечества рабочие должны похоронить эти истории, не имея возможности говорить о них с друзьями или даже с семьей.

«Они видели так много людей, что казалось, что у них не было времени, чтобы действительно помочь вам с тем, от чего вы страдали», — сказал Велес NPR.

Хотя TikTok, как и другие крупные поставщики контента, развертывает искусственного интеллекта для захвата большей части проблемного контента, безумный поток потенциально опасного контента, загружаемого на их сайты, означает, что модераторы-люди остаются незаменимыми. Эти модераторы, как правило, часто являются независимыми подрядчиками, работающими за более низкую заработную плату с меньшими гарантиями занятости и меньшими льготами, чем работники, занятые в технологических компаниях.

Исследователи из Техасского университета и Университета Святой Марии выпустили бумага в прошлом году проанализировав научную литературу о модераторах контента, мы обнаружили множество свидетельств повторного воздействия вредоносного контента, приводящего к посттравматическому стрессу и другим психологическим травмам.

«Хотя можно было бы ожидать, что работа модератора будет неприятной, сегодня признано, что повторяющееся длительное воздействие определенного контента в сочетании с ограниченной поддержкой на рабочем месте может значительно ухудшить психологическое благополучие модераторов», — пишут исследователи.

В других случаях модераторы на Youtube и Facebook как сообщается был госпитализирован в связи с острой тревогой и депрессией после многократного контакта с контентом. И, к сожалению для всех, интернет не становится менее испорченным. Буквально на этой неделе Национальный центр пропавших без вести и эксплуатируемых детей сказал В прошлом году из Интернета было удалено 29,3 миллиона материалов о сексуальном насилии над детьми. Это рекорд и увеличение на 35% по сравнению с количеством материала, удаленного годом ранее.

Борьба с психическим здоровьем, преследующая модераторов контента в технологической отрасли, в последние годы привлекла внимание общественности благодаря потоку разоблачительных отчетов и другим судебным искам. Многочисленные средства массовой информации задокументировали часто шокирующие условия работы модераторов на Фейсбук а также YouTubeхотя о модераторах TikTok написано сравнительно мало.

Два года назад Facebook поселился иск, поданный против них тысячами модераторов, на 52 миллиона долларов. Та же юридическая фирма, которая представляла интересы Велеса и Янга, также представляла интересы модераторов Facebook. Первоначально это урегулирование было связано с иском 2018 года, поданным модератором Facebok Селеной Сколой, которая утверждала, что у нее развился посттравматический стресс после просмотра случаев изнасилования, самоубийства и убийства во время ее работы. Компенсация в размере 52 миллионов долларов была распределена между тысячами контрактов, каждый из которых получил не менее 1000 долларов компенсации. Бывший модератор контента Youtube также подан в суд ее работодатель еще в 2020 году заявил, что у нее развилась депрессия и симптомы, связанные с посттравматическим стрессовым расстройством, после просмотра изображений обезглавливания и жестокого обращения с детьми. Вполне уместно, что TikTok, один из самых быстрых растущий сайты социальных сетей в Интернете, также окажутся на стороне судебного разбирательства.


Комментарии

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *