أطلق Twitter مبادرة جديدة تسمى “التعلم الآلي المسؤول” . من خلال هذه المبادرة ، تهدف خدمة التدوين المصغر إلى تقييم الأضرار “غير المقصودة” التي تسببها خوارزمياتها. ستقوم الشركة ، التي جمعت فريقًا من المهندسين والباحثين وعلماء البيانات ، بفحص تأثيرات أساليب التعلم الآلي على إنشاء تحيزات خوارزمية يمكن أن تؤثر سلبًا على المستخدمين.
تتمثل إحدى المهام الأولى لهذه المبادرة في تقييم التحيزات العرقية والجنسانية لخوارزمية اقتصاص الصور على تويتر. أظهر مستخدمو خدمة المدونات الصغيرة أنه يتم تمييز الوجوه البيضاء مقارنة بالوجوه السوداء في معاينات الصور التي تم اقتصاصها مسبقًا. في الشهر الماضي ، بدأت الشركة في اختبار عرض الصور بالحجم الكامل بدلاً من المعاينات التي تم اقتصاصها.
سينظر الفريق أيضًا في كيفية اختلاف توصيات الجدول الزمني بين المجموعات الفرعية العرقية. بالإضافة إلى ذلك ، سوف نفحص كيف سيتم تحليل توصيات المحتوى عبر المجموعات الفرعية السياسية في مختلف البلدان. في البيان الذي أدلى به موقع تويتر ، أُشير إلى أنه سيتم تنفيذ تعاون وثيق مع باحثين من أطراف ثالثة ، وسيتم مشاركة نتائج التحليل للتعليق عليها.
ليس من السهل قول أي شيء عن كيفية تأثير النتائج. تؤكد خدمة المدونات الصغيرة أن النتائج المحققة قد لا تؤدي دائمًا إلى تغييرات مرئية في المنتج. صرحت الشركة أن الغرض الرئيسي منها هو زيادة الاختلاف وبدء مناقشات مهمة حول استخدام التعلم الآلي.
تويتر ليس أول شبكة اجتماعية تحلل خوارزمياتها من أجل التحيز. كما أنشأت منصات اجتماعية أخرى ، بما في ذلك Facebook ، فرقًا خاصة لتحليل الخوارزميات الخاصة بهم.