آخر الأخبار

OpenAI تُطلق لجنة للسلامة والأمن وتعلن عن تطوير نموذج جديد للذكاء الاصطناعي


 أعلنت OpenAI عن تأسيس لجنة جديدة مكلفة بالسلامة والأمان، وذلك بعد تفكيك مجلس الرقابة السابق في منتصف مايو.

ووفقًا للشركة، ستقوم اللجنة الجديدة بتقديم توصيات لمجلس إدارة الشركة حول قرارات السلامة والأمن الحاسمة لمشاريعها وعملياتها، مما يعكس التزام OpenAI بضمان سلامة استخدام تقنياتها.

وجاء هذا الإعلان في وقت أعلنت فيه OpenAI عن بدء تدريب نموذج جديد للذكاء الاصطناعي، يطلق عليه اسم GPT-4، والذي من المتوقع أن يحل محل تقنية GPT-3 التي تقود روبوت الدردشة الشهير ChatGPT.

ووفقًا لتصريحات الشركة، فإن الهدف من تطوير هذا النموذج الجديد هو تحسين القدرات والأمان، والانتقال إلى مستوى جديد من الذكاء الاصطناعي العام، الذي يتجاوز فيه الذكاء البشري.

ومن المقرر أن يكون النموذج الجديد محركًا لمنتجات الذكاء الاصطناعي المتنوعة، بما في ذلك روبوتات الدردشة والمساعدين الرقميين ومحركات البحث ومولدات الصور.

ويأتي تأسيس اللجنة الجديدة بعد حل الفريق السابق الذي كان متخصصًا في تقدير المخاطر الطويلة المدى للذكاء الاصطناعي، وذلك في خطوة تعكس التزام OpenAI بمعالجة وتقليل المخاطر المحتملة لتقنياتها المتطورة.

ومن جانبها، أكدت الشركة أنها ترحب بالنقاش والتعاون في هذه اللحظة الحاسمة، وتؤكد على أنها تعمل بجد لضمان السلامة والأمان في كل جوانب تطويرها التقني.

وتعكف لجنة السلامة على دراسة عمليات OpenAI وتبادل التوصيات مع مجلس إدارة الشركة على مدار التسعين يومًا المقبلة، بهدف دعم التقدم والابتكار في مجال الذكاء الاصطناعي بشكل مستدام وآمن.

ويعكس إطلاق نموذج GPT-4 الجديد الجهود المستمرة التي تبذلها OpenAI لتحسين تقنياتها ومواكبة التطورات في عالم التكنولوجيا، في طريقها لتحقيق التفوق وتحقيق الاستدامة في مجال الذكاء الاصطناعي.

التعليقات

أحدث أقدم

نستخدم ملفات تعريف الارتباط لضمان حصولك على أفضل تجربة.