آخر الأخبار

الهيئة الإيطالية تكشف عن مخاوف حول ChatGPT


 أعلنت هيئة حماية البيانات الإيطالية أن ChatGPT، الروبوت الذي يعمل بالذكاء الاصطناعي، ينتهك قواعد الخصوصية الأوروبية. تم الكشف عن هذا الانتهاك بعد تحقيق استغرق عدة أشهر.

ووفقًا لتصريحات الهيئة، فإن التحقيقات الأولية أظهرت انتهاكًا لقوانين الاتحاد الأوروبي لحماية البيانات، وهو ما يبرز أهمية الرقابة والمراقبة لهذه التقنيات الناشئة.

تعتبر هيئة حماية البيانات الإيطالية، المعروفة باسم Garante، واحدة من الجهات الرائدة في تقييم مدى التزام منصات الذكاء الاصطناعي بقواعد الخصوصية في الاتحاد الأوروبي.

كانت الهيئة قد قامت في العام الماضي بمنع ChatGPT بسبب مخاوف من انتهاكات خصوصية البيانات، لكنها سمحت له بالعودة بعد أن قامت OpenAI، الشركة المالكة للروبوت، بتصحيح بعض المشاكل المتعلقة بالخصوصية.

ومع ذلك، فإن الهيئة لم تكشف عن تفاصيل أكثر عن الانتهاكات المحتملة، مما يشير إلى أهمية متابعة هذه القضية بعناية.

وتأتي هذه التطورات في وقت تسعى فيه السلطات الأوروبية إلى فرض عقوبات أكثر صرامة على الشركات التي تنتهك قواعد الخصوصية، مما قد يؤدي في نهاية المطاف إلى تغييرات جذرية في كيفية عمل هذه الشركات.

يجدر بالذكر أن ChatGPT ليس الروبوت الوحيد الذي واجه مشاكل مع قوانين الخصوصية في الاتحاد الأوروبي، ويظهر هذا الحدث أهمية تطوير إطار قانوني ينظم استخدام التقنيات الجديدة بطريقة تحافظ على خصوصية المستخدمين وتضمن الامتثال الكامل للقوانين والتشريعات المحلية والدولية.

التعليقات

أحدث أقدم

نستخدم ملفات تعريف الارتباط لضمان حصولك على أفضل تجربة.