وجهت مشكلة 'توهم' ChatGPT بشكوى أخرى بخصوص الخصوصية في الاتحاد الأوروبي

تواجه OpenAI شكوى جديدة بخصوص الخصوصية في الاتحاد الأوروبي. تستهدف هذه الشكوى، التي تم تقديمها من قبل منظمة noyb لحقوق الخصوصية نيابة عن شاكي فردي، عدم قدرة الروبوت الذكي للدردشة ChatGPT على تصحيح المعلومات الخاطئة التي يولدها حول الأفراد.

لقد تم توثيق ميل أدوات GenAI لإنتاج معلومات خاطئة بشكل واضح. ولكنه أيضًا يضع التكنولوجيا على مسار اصطدام مع لائحة الحماية العامة للبيانات في الاتحاد الأوروبي (GDPR) - التي تحكم كيف يمكن معالجة بيانات المستخدمين الإقليميين.

يمكن أن تصل العقوبات عن مخالفات الامتثال لقواعد GDPR إلى 4٪ من الإيرادات السنوية العالمية. ولكن الأهم بكثير بالنسبة لشركة مثل OpenAI الغنية بالموارد: يمكن للسلطات الرقابية لحماية البيانات أن تأمر بتغيير كيفية معالجة المعلومات، لذا يمكن أن يعيد فرض تنفيذ قواعد GDPR شكل تشغيل أدوات الذكاء الاصطناعي التكويني في الاتحاد الأوروبي.

تم اضطر OpenAI بالفعل لإجراء بعض التغييرات بعد تدخل سابق من هيئة حماية البيانات في إيطاليا، التي أجبرت مؤقتًا على إيقاف ChatGPT محليًا في عام 2023.

الآن تقوم noyb بتقديم الشكوى الأحدث بخصوص GDPR ضد ChatGPT لهيئة حماية البيانات النمساوية نيابة عن شاكي مجهول (وصفه كـ 'شخصية عامة') والذي وجد أن الروبوت الذكي للدردشة أنتج تاريخ ميلاد غير صحيح بالنسبة لهم.

بموجب قواعد الحماية العامة للبيانات، يحق للأشخاص في الاتحاد الأوروبي مجموعة من الحقوق المرتبطة بالمعلومات المتعلقة بهم، بما في ذلك الحق في تصحيح البيانات الخاطئة. تؤكد noyb أن OpenAI لا تلتزم بتلك الالتزام فيما يتعلق بناتج روبوت الدردشة. وقالت إن الشركة رفضت طلب الشاكي بتصحيح تاريخ الميلاد الخاطئ، مردفة بأنه من الصعب تقنيًا على الشركة تصحيح ذلك.

واقترحت بدلاً من ذلك تصفية أو حظر البيانات على بعض المؤشرات، مثل اسم الشاكي.

تقول سياسة الخصوصية لدى OpenAI إن المستخدمين الذين يلاحظون أن روبوت الدردشة الذكي قد أنتج 'معلومات غير صحيحة بالنسبة لك' يمكنهم تقديم 'طلب تصحيح' من خلال privacy.openai.com أو عبر البريد الإلكتروني dsar@openai.com. ومع ذلك، تحذر الخط المموج من أنه "نظرًا للتعقيد التقني لكيف تعمل نماذجنا، قد لا نكون قادرين على تصحيح الاختلال في كل حالة".

في تلك الحالة، يقترح OpenAI على المستخدمين طلب إزالة معلوماتهم الشخصية تمامًا من الناتج الخاص بـ ChatGPT - من خلال ملء استمارة على الويب.

المشكلة بالنسبة للعملاق الذكاء الاصطناعي هو أن حقوق GDPR ليست اختيارية. الناس في أوروبا لديهم الحق في طلب التصحيح. لديهم أيضًا الحق في طلب حذف بياناتهم. ولكن، كما أشار noyb، ليس من صلاحية OpenAI اختيار أيًّا من هذه الحقوق متاحة.

تركز عناصر أخرى من الشكوى على مخاوف الشفافية من حيث GDPR، مع احتجاج noyb على أن OpenAI غير قادرة على معرفة مصدر البيانات التي تنشئها عن الأفراد، ولا ماهية البيانات التي يخزنها روبوت الدردشة بشأن الأشخاص.

هذا أمر مهم لأن اللائحة تمنح الأفراد الحق في طلب مثل تلك المعلومات من خلال تقديم طلب وصول للموضوع (SAR). وفقًا لـ noyb، لم تستجب OpenAI بشكل كافٍ لطلب SAR الشاكي، فشلت في الكشف عن أي معلومات حول البيانات المعالجة، ومصادرها، أو المستلمين.

في تعليق على الشكوى في بيان، قالت Maartje de Graaf، محامية حماية البيانات في noyb: 'إن ابتكار المعلومات الزائفة في حد ذاته مشكلة خطيرة. ولكن عندما يتعلق الأمر بالمعلومات الزائفة حول الأفراد، يمكن أن تكون هناك عواقب خطيرة. من الواضح أن الشركات غير قادرة حاليًا على جعل الروبوتات الدردشة مثل ChatGPT يلتزمون بقوانين الاتحاد الأوروبي، عند معالجة البيانات حول الأفراد. إذا لم يتمكن النظام من إنتاج نتائج دقيقة وشفافة، فلا يمكن استخدامه لتوليد بيانات حول الأفراد. يجب على التكنولوجيا اتباع المتطلبات القانونية، لا العكس'.

قالت الشركة إنها تطلب من الهيئة النمساوية لحماية البيانات التحقيق في الشكوى بخصوص معالجة بيانات OpenAI، بالإضافة إلى حثها على فرض غرامة لضمان الامتثال في المستقبل. ولكنها أضافت أنه 'من المحتمل' أن يتم التعامل مع القضية من خلال التعاون في الاتحاد الأوروبي.

تواجه OpenAI شكوى شبيهة جدًا في بولندا. في سبتمبر الماضي، فتحت الهيئة المحلية لحماية البيانات تحقيقًا في ChatGPT بناءً على شكوى من باحث خصوصية وأمان وجد أنه كان غير قادر على تصحيح المعلومات الخاطئة حوله من قبل OpenAI. كما تتهم تلك الشكوى العملاق الذكاء الاصطناعي بعدم الامتثال لمتطلبات الشفافية في التنظيم.

أما الهيئة الإيطالية لحماية البيانات، فلا تزال تحقق في ChatGPT. في يناير، أنتجت قرارًا مسودة، قائلة إنها تعتقد آنذاك أن OpenAI قد انتهكت الـGDPR بعدة طرق، بما في ذلك فيما يتعلق بميل الروبوت الدردشة لإنتاج معلومات خاطئة حول الناس. كما تتعلق النتائج أيضًا بقضايا أخرى أساسية، مثل شرعية المعالجة.

أعطت الهيئة الإيطالية OpenAI شهرًا للرد على نتائجها. وتبقى القرار النهائي قائمًا.

الآن، مع شكوى GDPR أخرى موجهة إلى روبوت الدردشة الخاص بها، زادت مخاطر مواجهة OpenAI لسلسلة من إجراءات إنفاذ القوانين المتعلقة بالحماية في دول الاتحاد.

في الخريف الماضي، افتتحت الشركة مكتبًا إقليميًا في دبلن - في خطوة تبدو مقصودة لتقليل مخاطرها التنظيمية عن طريق توجيه شكاوى الخصوصية من خلال اللجنة الأيرلندية لحماية البيانات، بفضل آلية في GDPR التي تهدف إلى تسهيل الإشراف على الشكاوى العابرة للحدود عن طريق توجيهها إلى سلطة الدولة الأحدث التي تكون فيها الشركة 'مؤسسة رئيسية'.

روبوت ChatGPT ينتهك قوانين الخصوصية في أوروبا، تقول هيئة DPA الإيطالية لـ OpenAI

بولندا تفتح تحقيقًا بخصوص خصوصية ChatGPT بناءً على شكوى GDPR

.