الوفا سبورت

عالم الأخبار الكامل

سيقدم YouTube طرقًا جديدة لمكافأة منشئي المحتوى

أفادت هيئة الإذاعة البريطانية (بي بي سي) يوم الجمعة أن الجماعات المناهضة للتطعيم تستخدم الرموز التعبيرية للجزرة للتهرب من أدوات الاعتدال الآلي التي تستخدمها الشبكات الاجتماعية للكشف عن الأخبار التي تنتهك سياسات المنصة.

كشف تحقيق عن عدة مجموعات على فيسبوك استبدلت فيها الرموز التعبيرية للجزرة بكلمة “لقاح”. نظرًا لأن خوارزمية Facebook تركز عادةً على الكلمات بدلاً من الرموز التعبيرية ، فقد تمكن الأعضاء من التحايل على آليات الإشراف التلقائي على المحتوى للمنصة.

وفقًا للتقرير ، كان لدى مجموعة على Facebook تستخدم هذا التكتيك أكثر من 250.000 عضو.

كان لدى المجموعات ، التي لا يمكن الانضمام إليها إلا عن طريق الدعوة ، إرشادات واضحة وحثت الأعضاء على “استخدام كلمات مشفرة لكل شيء” و “عدم استخدام كلمة c أو كلمة v أو كلمة b” ، في إشارة إلى “COVID” “، “مصل”. “و” الداعم “.

ووجد التحقيق أيضًا أن الجماعات التي تستخدم الرموز التعبيرية للجزرة كانت تروج لمزاعم لم يتم التحقق منها بأن أشخاصًا قد تعرضوا للأذى أو القتل بسبب اللقاحات.

لاحظ مارك أوين جونز ، باحث المعلومات المضللة في جامعة حمد بن خليفة في قطر ، هذا الاتجاه بعد أن تمت دعوته للانضمام إلى إحدى المجموعات وانتقل إلى Twitter لمشاركة النتائج التي توصل إليها.

وقال: “كان هؤلاء أناسًا يروون قصصًا لأحبائهم ماتوا بعد وقت قصير من تلقي لقاح COVID-19”. “ولكن بدلاً من استخدام الكلمات” COVID-19 “أو” اللقاح “، كانوا يستخدمون الرموز التعبيرية للجزرة.

“في البداية ، كنت في حيرة من أمري. ثم تم النقر عليه – أنه تم استخدامه كطريقة للتهرب أو التهرب من خوارزميات اكتشاف الأخبار المزيفة على Facebook.

بعد أن أبلغت هيئة الإذاعة البريطانية (بي بي سي) ميتا النتائج بالنتائج ، تمت إزالة المجموعات ، على الرغم من ظهور بعضها مرة أخرى بعد فترة وجيزة.

READ  المملكة والتحدي يؤمنان مكانين في نهائي بطولة كرة القدم النسائية السعودية بعد فوزين مفاجئتين

قال ميتا في “أزلنا هذه المجموعة لخرقها سياسات المعلومات المضللة الضارة الخاصة بنا وسنراجع أي محتوى مشابه آخر وفقًا لهذه السياسة. نواصل العمل عن كثب مع خبراء الصحة العامة وحكومة المملكة المتحدة لمزيد من معالجة المعلومات الخاطئة حول لقاحات COVID”. تصريح.

خضعت Meta ، إلى جانب منصات التواصل الاجتماعي الأخرى ، للتدقيق على مدار العامين الماضيين لفشلها في إزالة المعلومات الخاطئة حول COVID-19 واللقاحات.

قال فيسبوك العام الماضي إنه أزال أكثر من 20 مليون قطعة محتوى بها معلومات خاطئة عن كوفيد -19 أو لقاحات منذ بدء الوباء.

يصعب على الخوارزميات اكتشاف Emojis نظرًا لأن الذكاء الاصطناعي يتم تدريبه على النص والكلمات ، مما قد يفسر كيف تمكنت هذه المجموعات من المرور دون أن يلاحظها أحد لفترة طويلة.

مع الكراهية القائمة على الرموز التعبيرية التي تشكل تحديًا متزايدًا للاكتشاف الآلي ، أنشأ فريق من باحثي جامعة سياتل أداة تسمى HatemojiCheck ، وهي مجموعة من الاختبارات التي تكشف عن نقاط الضعف في نماذج الكشف عن الكراهية الحالية وتحدد اللغة البغيضة التي يتم التعبير عنها عبر الرموز التعبيرية.