Facebook объявил в среду, что это выкатывание новые функции защиты от дезинформации, направленные на снижение распространения потенциально опасного контента в группах Facebook.
Теперь пользователи могут автоматически отклонять сообщения, поступающие из источников, которые фактчекеры Facebook определили как содержащие ложную информацию. Facebook надеется, что отклонение этих сообщений до того, как другие пользователи получат возможность взаимодействовать с ними, в конечном итоге «уменьшит видимость дезинформации».
Компания заявила, что расширит свою функцию «отключения звука», добавив возможность для администраторов и модераторов групп временно приостанавливать участников от публикации, комментирования или реагирования в группе. Функция приостановки также позволит администраторам и модераторам временно заблокировать доступ определенных пользователей к групповым чатам или войти в комнату в группе. Новые функции позволят администраторам автоматически одобрять или отклонять запросы участников на основе определенных критериев по своему выбору.
Наконец, Facebook заявил, что также представит новые обновления для своих функций «Главная страница администратора», предоставив администраторам групп больше инструментов, таких как обзорная страница и функция сводной информации, предназначенная для помощи в управлении сообществом. В объединении Facebook заявил, что надеется передать лидерам групп больше правоприменительной силы и способности суждения. Это расширение прав и возможностей администраторов и модераторов, по-видимому, взято из книги сценариев Redddit, чьи модераторы обладают настолько широкой свободой действий, что социальная сеть стала печально известной тем, что предлагает разные, иногда совершенно противоположные стандарты контента в разрозненных сообществах. Facebook не сразу ответил на запрос Gizmodo о комментариях для получения более подробной информации об инструментах или сроках их выпуска.
Получив комментарий от Gizmodo, Facebook предоставил список своих предыдущих усилий по борьбе с дезинформацией в группах. В заявлении компании говорится: «WМы многое делаем для обеспечения безопасности групп FB на протяжении ряда лет... Для борьбы с дезинформацией в Facebook мы принимаем «удалить, уменьшить, сообщить' подход, который использует глобальную сеть независимых специалистов по проверке фактов».
G/O Media может получить комиссию
Это не первый раз, когда Facebook пытается внедрить инструменты, побуждающие лидеров групп очищать свои сообщества. В прошлом году компания представил возможность для администраторов назначать назначенных «экспертов» в свои группы. Профили этих экспертов будут отображаться с официальными значками рядом с их именами, чтобы сигнализировать другим пользователям, что они особенно хорошо осведомлены в данной теме.
Для некоторого контекста, Facebook партнеры около 80 различных независимых организаций, включая Associated Press, The Dispatch, USA Today и другие, сертифицированные независимой сетью проверки фактов для проверки контента. Эти специалисты по проверке фактов выявляют и просматривают сомнительный контент, чтобы определить, может ли какой-либо из них подняться до уровня дезинформации. Программа проверки фактов началась почти шесть лет назад.
Критики уже давно указал к относительно невмешательному подходу Facebook к ограничению контента в группах как инструменту, помогающему создавать мини-инкубаторы вводящего в заблуждение контента по всей сети. У других есть обвиняемый Группы специально для содействия росту маргинальных политических элементов, таких как QAnon и движение Stop The Steal, которое в конечном итоге спровоцировало бунт в Капитолии 6 января. Анализ «Вашингтон пост» проведенный ранее в этом году было обнаружено не менее 650 000 сообщений, ставящих под сомнение легитимность выборов, которые циркулировали в группах Facebook между ночью выборов и беспорядками, в среднем около 10 000 сообщений в день.
Скромные изменения в Facebook происходят на фоне повышенного общественного страха перед риском дезинформации, связанной с вторжением России в Украину. Поддельные изображения и видео (некоторые из видео геймплея) предположительно демонстрация Бои, бушующие по стране, распространились со скоростью лесного пожара всего через несколько часов после начала вторжения.
Facebook объявил в среду, что это выкатывание новые функции защиты от дезинформации, направленные на снижение распространения потенциально опасного контента в группах Facebook.
Теперь пользователи могут автоматически отклонять сообщения, поступающие из источников, которые фактчекеры Facebook определили как содержащие ложную информацию. Facebook надеется, что отклонение этих сообщений до того, как другие пользователи получат возможность взаимодействовать с ними, в конечном итоге «уменьшит видимость дезинформации».
Компания заявила, что расширит свою функцию «отключения звука», добавив возможность для администраторов и модераторов групп временно приостанавливать участников от публикации, комментирования или реагирования в группе. Функция приостановки также позволит администраторам и модераторам временно заблокировать доступ определенных пользователей к групповым чатам или войти в комнату в группе. Новые функции позволят администраторам автоматически одобрять или отклонять запросы участников на основе определенных критериев по своему выбору.
Наконец, Facebook заявил, что также представит новые обновления для своих функций «Главная страница администратора», предоставив администраторам групп больше инструментов, таких как обзорная страница и функция сводной информации, предназначенная для помощи в управлении сообществом. В объединении Facebook заявил, что надеется передать лидерам групп больше правоприменительной силы и способности суждения. Это расширение прав и возможностей администраторов и модераторов, по-видимому, взято из книги сценариев Redddit, чьи модераторы обладают настолько широкой свободой действий, что социальная сеть стала печально известной тем, что предлагает разные, иногда совершенно противоположные стандарты контента в разрозненных сообществах. Facebook не сразу ответил на запрос Gizmodo о комментариях для получения более подробной информации об инструментах или сроках их выпуска.
Получив комментарий от Gizmodo, Facebook предоставил список своих предыдущих усилий по борьбе с дезинформацией в группах. В заявлении компании говорится: «WМы многое делаем для обеспечения безопасности групп FB на протяжении ряда лет... Для борьбы с дезинформацией в Facebook мы принимаем «удалить, уменьшить, сообщить' подход, который использует глобальную сеть независимых специалистов по проверке фактов».
G/O Media может получить комиссию
Это не первый раз, когда Facebook пытается внедрить инструменты, побуждающие лидеров групп очищать свои сообщества. В прошлом году компания представил возможность для администраторов назначать назначенных «экспертов» в свои группы. Профили этих экспертов будут отображаться с официальными значками рядом с их именами, чтобы сигнализировать другим пользователям, что они особенно хорошо осведомлены в данной теме.
Для некоторого контекста, Facebook партнеры около 80 различных независимых организаций, включая Associated Press, The Dispatch, USA Today и другие, сертифицированные независимой сетью проверки фактов для проверки контента. Эти специалисты по проверке фактов выявляют и просматривают сомнительный контент, чтобы определить, может ли какой-либо из них подняться до уровня дезинформации. Программа проверки фактов началась почти шесть лет назад.
Критики уже давно указал к относительно невмешательному подходу Facebook к ограничению контента в группах как инструменту, помогающему создавать мини-инкубаторы вводящего в заблуждение контента по всей сети. У других есть обвиняемый Группы специально для содействия росту маргинальных политических элементов, таких как QAnon и движение Stop The Steal, которое в конечном итоге спровоцировало бунт в Капитолии 6 января. Анализ «Вашингтон пост» проведенный ранее в этом году было обнаружено не менее 650 000 сообщений, ставящих под сомнение легитимность выборов, которые циркулировали в группах Facebook между ночью выборов и беспорядками, в среднем около 10 000 сообщений в день.
Скромные изменения в Facebook происходят на фоне повышенного общественного страха перед риском дезинформации, связанной с вторжением России в Украину. Поддельные изображения и видео (некоторые из видео геймплея) предположительно демонстрация Бои, бушующие по стране, распространились со скоростью лесного пожара всего через несколько часов после начала вторжения.