قامت ميتا بتنظيم فريقها المسؤول عن الذكاء الاصطناعي، وهذا الفريق هو المسؤول عن فهم ومنع الأضرار المحتملة المرتبطة بتكنولوجيا الذكاء الاصطناعي التي تطورها الشركة. يأتي ذلك في إطار تحويل المزيد من الموارد نحو عملها في مجال الذكاء الاصطناعي التوليدي.
تم إجراء تعديلات واسعة على فرق الذكاء الاصطناعي داخل الشركة، وفقًا لتقرير نشره موقع "The Information" نقلاً عن منشور داخلي.
معظم أعضاء فريق الذكاء الاصطناعي المسؤول انتقلوا إلى فريق الذكاء الاصطناعي التوليدي المشكوك فيه في ميتا، والذي تم إنشاؤه في فبراير لتصنيع منتجات الذكاء الاصطناعي التوليدي.
وأشار المتحدث باسم ميتا إلى أن باقي أعضاء الفريق ينتقلون إلى وحدة البنية التحتية للذكاء الاصطناعي في الشركة، التي تعمل على تطوير الأنظمة والأدوات اللازمة لبناء وتشغيل منتجات الذكاء الاصطناعي.
تؤكد الشركة بانتظام رغبتها في تطوير الذكاء الاصطناعي بشكل مسؤول، وتمتلك صفحة مخصصة تستعرض مبادئ الذكاء الاصطناعي المسؤولة، مثل المساءلة والشفافية والسلامة والخصوصية وغيرها.
وفقًا للتقرير، صرح جون كارفيل، متحدث باسم ميتا، بأن الشركة مستمرة في تحديد الأولويات والاستثمار في تطوير الذكاء الاصطناعي الآمن والمسؤول. أكد أيضًا أن أعضاء الفريق ملتزمون بدعم الجهود المتعلقة بتطوير الذكاء الاصطناعي المسؤول واستخدامه في جميع أنحاء ميتا.
تم إعادة هيكلة فريق الذكاء الاصطناعي المسؤول في وقت سابق من هذا العام، وشملت هذه العملية تسريح بعض الموظفين، مما أدى إلى تحول الفريق إلى هيكل فقط.
كان فريق الذكاء الاصطناعي المسؤول الذي تم إنشاؤه في عام 2019 يتمتع بقدر محدود من الاستقلالية، وكان يتطلب مفاوضات طويلة مع أصحاب المصلحة قبل تنفيذ أي مبادرة.
تم إنشاء فريق الذكاء الاصطناعي المسؤول في ميتا للتعامل مع قضايا تدريب الذكاء الاصطناعي، بما في ذلك تحقق ما إذا كانت نماذج الشركة قد تم تدريبها بشكل مناسب باستخدام مجموعة متنوعة من المعلومات، مع التركيز على منع مشكلات المراقبة عبر منصاتها.
وقد أدت الأنظمة الآلية المستخدمة في منصات ميتا الاجتماعية إلى مشاكل، مثل مشكلة الترجمة في فيسبوك التي تسببت في حدوث اعتقالات غير صحيحة، وإنشاء ملصقات واتساب بواسطة الذكاء الاصطناعي تؤدي إلى تحيز الصور عند تقديم مطالبات محددة، وخوارزميات إنستاجرام التي تساعد الأشخاص في العثور على محتوى اعتداء جنسي على الأطفال.
تأتي هذه الخطوة من ميتا في الوقت الذي تسعى فيه الحكومات حول العالم إلى إنشاء حواجز تنظيمية لتطوير الذكاء الاصطناعي. وقد أبرمت الحكومة الأمريكية اتفاقيات مع شركات الذكاء الاصطناعي، ووجه الرئيس بايدن الوكالات الحكومية لوضع قواعد سلامة الذكاء الاصطناعي.
في الوقت نفسه، نشر الاتحاد الأوروبي مبادئه بشأن الذكاء الاصطناعي، وما زال يعمل على إقرار قانون الذكاء الاصطناعي.ينقل التقرير عن جون كارفيل، متحدث باسم شركة ميتا، تصريحه بأن الشركة مستمرة في تحديد أولوياتها والاستثمار في تطوير الذكاء الاصطناعي الآمن والمسؤول. وأضاف أن أعضاء الفريق يواصلون دعم الجهود المتعلقة بتطوير الذكاء الاصطناعي المسؤول واستخدامه في ميتا.
تم في وقت سابق من هذا العام إعادة هيكلة الفريق، مما أدى إلى تسريح بعض الموظفين وتحويل فريق الذكاء الاصطناعي المسؤول إلى هيكل فقط.
وكان فريق الذكاء الاصطناعي المسؤول الذي تم إنشاؤه في عام 2019 يتمتع بدرجة محدودة من الاستقلالية وكان يتطلب مفاوضات طويلة مع أصحاب المصلحة قبل تنفيذ المبادرات.
أنشأت ميتا فريق الذكاء الاصطناعي المسؤول للتعامل مع قضايا تدريب الذكاء الاصطناعي، مثل التأكد من أن نماذج الشركة تم تدريبها بشكل مناسب باستخدام معلومات متنوعة، والتركيز على منع مشكلات المراقبة عبر منصاتها.
وأدت الأنظمة الآلية التي تستخدمها منصات ميتا الاجتماعية إلى مشاكل مثل مشكلة الترجمة في فيسبوك والتي تسببت في اعتقالات غير صحيحة، وإنشاء ملصقات واتساب بواسطة الذكاء الاصطناعي تؤدي إلى تحيز الصور عند تقديم مطالبات محددة، وخوارزميات إنستاجرام التي تساعد الأشخاص في العثور على محتوى اعتداء جنسي على الأطفال.
تأتي هذه الخطوة من ميتا في الوقت الذي تسابق فيه الحكومات حول العالم لوضع حواجز تنظيمية لتطوير الذكاء الاصطناعي. وقد أبرمت الحكومة الأمريكية اتفاقيات مع شركات الذكاء الاصطناعي، ووجه الرئيس بايدن الوكالات الحكومية بوضع قواعد سلامة الذكاء الاصطناعي.
في الوقت نفسه، نشر الاتحاد الأوروبي مبادئه للذكاء الاصطناعي، ويواصل العمل على إقرار قانون يتعلق بالذكاء الاصطناعي.
إرسال تعليق