هل ستسمح لشخص لا تعرفه بالاستماع إلى محادثاتك الخاصة مع طبيبك أو شريكك؟ هل ستسمح لهم ببيع مقتطفات صغيرة مما سمعوه لشخص آخر؟ هذا هو بشكل عام ما يقوم به متتبعو الأطراف الثالثة.
إنهم يراقبون ما تفعله على الإنترنت ثم يبيعون هذه المعلومات لشخص آخر يرغب في بيع شيء لك.
مع زيادة استخدام الخدمات الذكية مثل ChatGPT أو Bing Chat و Google Bard ، تثار قضايا السلامة والأخلاق. عندما يتوجه الملايين من الأشخاص إلى موقع لطرح الأسئلة وتوليد نصوص لرسائل التغطية أو المقالات أو حتى كتابة وإصلاح الأكواد ، يجب علينا التساؤل: ماذا يحدث لجميع تلك المعلومات التي يتم إدخالها في هذه الأدوات وما هو الدور الذي يلعبه وسطاء البيانات في كل هذا؟
رئيس تنفيذي Ghostery وخبير الخصوصية ، جان بول شمتز ، يتحدث بشأن هذا الموضوع ويناقش المخاوف الخاصة بالخصوصية التي قد تواجهها أثناء استخدام الذكاء الاصطناعي التوليدي.
يقول شمتز إن الخبر الجيد هو أن شركة OpenAI لم تسمح حتى الآن بتتبع الأطراف الثالثة في ChatGPT. "تعد OpenAI بسيطة بطريقة منعشة في الشعور بالأمان"، يقول شمتز. "لا يوجد أي شخص يراقبك أثناء دردشتك مع ChatGPT".
"الشيء الوحيد الذي يجب على المستخدم القلق بشأنه هو أنه يمكن استخدام بياناتك للتدريب، لذا ما تكتبه يتم استخدامه من قبل OpenAI"
بالإضافة إلى ذلك، يشير Schmetz إلى أنه يجب على المستخدمين الذين لا يختارون عدم المشاركة في مشاركة البيانات أن "يكونوا حذرين فيما يقولونه". ويستحق التنبيه إلى تحذير Schmetz. في عام 2021، اكتشف الباحثون ثغرات في نظام GPT-2 لاستخراج بيانات التدريب، والتي تستغل الدور الطبيعي للنموذج في تعلم البيانات التي يدخلها المستخدمون.
"عن طريق إدخال استعلامات مستهدفة معينة، يمكن للكيانات الخبيثة تنشيط الذكاء الاصطناعي لإعادة حساب البيانات الخاصة التي أدخلها المستخدم - والتي يمكن أن تشمل معلومات تحدد الهوية مثل الأسماء والعناوين وأرقام الهواتف بالإضافة إلى أي شيء آخر قام الهدف بمشاركته مع النظام"، يوضح Schmetz.
في حين أننا لا نعرف بالتأكيد ما إذا كانت هذه الثغرة موجودة في GPT-4، إلا أن Schmetz يوضح أنها ما زالت موجودة في النموذج المجاني. شارك الرئيس التنفيذي والمؤسس المشارك لـ OpenAI ، Greg Brockman، بيانًا هذا الأسبوع يسلط الضوء على التزام الشركة بالسلامة مع نماذجها. "نعتقد أن يجب الإبلاغ عن تشغيلات التدريب القوية إلى الحكومات وأن يرافقها توقعات متزايدة لقدرتها وتأثيرها وتتطلب ممارسات أفضل مثل اختبار القدرات الخطرة".
بغض النظر عن ذلك، فإن هذه المخاوف حول الخصوصية والأخلاق تنطبق على جميع خدمات توليد الذكاء الاصطناعي، وليس فقط على ChatGPT. لذلك، ينبغي على المستخدمين التحقق من سياسة الخصوصية لأي خدمة يستخدمونها، والتأكد من أن الشركة التي تقف وراءها تتخذ إجراءات لحماية بيانات المستخدمين.
بشكل عام، تشير الدراسات إلى أن الجمهور يميل إلى القلق بشأن الخصوصية عند استخدام التقنيات الجديدة، وخاصة تلك التي تستخدم الذكاء الاصطناعي. لذلك، يجب على الشركات والمطورين أن يأخذوا بعين الاعتبار هذه المخاوف وأن يتخذوا إجراءات لضمان سلامة بيانات المستخدمين وخصوصيتهم.
لا شك في أن توليد الذكاء الاصطناعي يمثل مستقبلًا لا يمكن تجاهله. ومع ذلك، فإنه من المهم أيضًا التأكد من أن هذه التقنيات تستخدم بطريقة آمنة وأخلاقية، وأنها لا تشكل خطرًا على خصوصية المستخدمين.
إرسال تعليق