"Върховният съд" на Мета заседава: Войната в Газа произведе първите спешни случаи за разглеждане
Бордът се състои от 22-ма членове от цял свят
Днес Надзорният съвет на Мета обяви, че ще разгледа два случая по ускорена процедура - първите в историята на експертното тяло, което бе замислено от Марк Зукърбърг като своеобразен "върховен съд" за решения, свързани с модерацията на съдържание във "Фейсбук".
Бордът се състои от 22-ма членове от цял свят, включително бившия премиер на Дания Хеле Торнинг-Шмид, носител на Нобелова награда (Тавакол Карман), лидери на правата на човека, журналисти, измежду които дългогодишния бивш главен редактор на "Гардиън" Алън Русбриджър, писателя Халед Мансур, съдии и експерти от мозъчни тръстове, главния изпълнителен директор на PEN America и др.
Решенията на Надзорния съвет са окончателни и се прилагат както за конкретните случаи, по които съветът се е произнесъл, така и при тълкуването на съответните правила за модерация на съдържание при други подобни казуси.
И двата случая, които ще бъдат разгледани спешно от борда, са свързани с продължаващия конфликт между Израел и "Хамас". Става дума за публикации, които първоначално са свалени от "Инстаграм" и "Фейсбук" за нарушаване на политиките на Мета срещу разпространението на изображения, показващи насилие и страдание, и за изобразяване на опасни организации и лица.
Една от публикациите показва последиците от атаката срещу болницата "Аш Шифа" в Газа от израелските отбранителни сили, а другата включва видео на израелски заложник, заснето от "Хамас" на 7 октомври. Публикациите бяха възстановени и в двете платформи.
"Настоящият конфликт между Израел и Хамас бележи важно събитие, при което Мета можеше да приложи някои от по-новите препоръки на борда за реакция при криза и ние оценяваме как компанията изпълнява ангажиментите си", каза за Wired Томас Хюз - директор на администрацията на Надзорния съвет. Според него тези два случая предоставят добра възможност "да проучим внимателно как Мета се справя с спешни ситуации."
Компанията стана обект на критики за това как се справя с модерацията (контрола) на съдържанието около конфликта. През октомври организацията 404 Media съобщи, че изкуственият интелект на "Мета" превежда "палестински" като "палестински терорист" и много палестинци изразиха недоволство, че видимостта на тяхното съдържание бива потискана (понижавана) чрез т.нар. shadow banning (ограничаване на показването без ясна индикация, "в сянка") или премахнато напълно.
"Мета", подобно на повечето социално-медийни платформи, използва комбинация от автоматизирани инструменти и хора, които модерират съдържанието "ръчно" - много от тях наемани от външни изпълнители - при вземането на решения дали дадено съдържание нарушава правилата на платформата. Компанията също поддържа списък с "опасни организации и лица", който включва субекти като Ислямска държава, Хитлер, Ку-Клукс Клан и "Хамас".
Според Сабханаз Рашид Дия, бивш член на екипа по политики на Мета, основател и директор на мозъчния тръст за технологична политика Tech Global Institute, автоматизираната система често не може да направи разлика между публикации, обсъждащи или дори осъждащи "Хамас", и такива, в които се изразява подкрепа.
След конфликта през 2021 г. между Израел и Палестина доклад за надлежна проверка на прилагането на правната рамка за правата на човека, поискан от Надзорния съвет и публикуван през 2022 г., установи, че компанията е прилагала както в прекомерна, така и в недостатъчна степен някои от собствените си политики. Казано по-просто, това означава, че нерядко съдържание, което трябваше да бъде премахнато, остава достъпно за потребителите и продължава да се показва и разпространява, докато съдържание, което не нарушава правилата на платформата, бива премахнато.
Марва Фатафта, която е директор по политиката и застъпничеството в групата за защита на цифровите права MENA в организацията с нестопанска цел Access Now, казва, че е видяла незначителна промяна в системите на Мета от 2021 г. насам и смята, че политиките на компанията за модериране на съдържание все още не са прозрачни за потребителите.
Така например след инвазията на Русия в Украйна "Мета" въведе изключение от своите политики относно подбуждането към насилие, позволявайки на потребителите в определени страни да публикуват съдържание като "смърт на руските нашественици", отнасящо се до руската армия, което обикновено би било премахнато. "Въпреки това ние не позволяваме недвусмислени призиви за насилие срещу руски цивилни", поясни тогава на Анди Стоун от Мета пред "Върдж".
Мета сформира Надзорния съвет през 2020 г. с основната цел да "помогне на "Фейсбук" да отговори на някои от най-трудните въпроси относно свободата на изразяване онлайн: какво да премахва, какво да оставя и защо". Надзорният съвет има правомощието да преглежда и дори да отменя решенията за модериране на съдържание, взети от Мета, както и да издава необвързващи препоръки относно политиките на Мета. Експертното тяло получава десетки хиляди искания за разглеждане на решения от потребители, но избира и се произнася само по няколко десетки годишно. Механизмът за изпращане на жалби до Надзорния съвет не поддържа български език.
Подобна на Съвета на Мета би трябвало да бъде функцията на сертифицираните органи за извънсъдебно уреждане на спорове, които ще се произнасят по решенията за модериране на съдържанието на социалните медии след като започне да се прилага Регламентът на Европейския съюз за цифровите услуги (ЗАЦУ).
Потребителите на платформите ще имат възможността да подават жалби за модерацията на съдържание, което са публикували - включително жалби, които не са били разрешени чрез вътрешната система за разглеждане на жалби на платформата, и ще имат право да избират измежду който и да било орган за извънсъдебно уреждане на спорове, който е бил сертифициран в съответствие с разпоредбите на ЗАЦУ.
Регламентът бе приет през октомври 2022 г., но започва да се прилага от 17 февруари 2024 г., като вече бяха определени много големите онлайн платформи, за които ЗАЦУ въвежда специален регулаторен режим, базиран на риска.