تم تقديم شكوى خاصة بخصوص ChatGPT بسبب هلوسات الإثارة ، وفقًا لملف الشكوى بحقوق الخصوصية

OpenAI تواجه شكوى أخرى بخصوص حقوق الخصوصية في أوروبا بسبب تقليب الحقائق من قبل محادثي الذكاء الاصطناعي ChatGPT - وقد تثبت هذه مهمة لا يمكن تجاهلها بالنسبة للمشرعين.

تدعم مجموعة الدفاع عن حقوق الخصوصية Noyb فردًا في النرويج كان صدم عندما عاد ChatGPT بمعلومات ملفقة تزعم أنه تم إدانته بقتل اثنين من أطفاله ومحاولة قتل الثالث.

كانت الشكاوى السابقة بشأن حقوق الخصوصية التي تتعلق بتوليد ChatGPT لبيانات شخصية غير صحيحة تتعلق بمسائل مثل تاريخ الولادة غير الصحيح أو تفاصيل سيرة ذاتية خاطئة. واحدة من المخاوف هي أن OpenAI لا تقدم وسيلة للأفراد لتصحيح المعلومات الخاطئة التي يولدها الذكاء الاصطناعي حولهم. عادةً ما قدمت OpenAI لحظر الردود على مثل هذه الحافزات. ولكن بموجب لائحة الحماية العامة للبيانات الأوروبية (GDPR) ، يحق للأوروبيين مجموعة من حقوق الوصول إلى البيانات تشمل حق التصحيح للبيانات الشخصية.

مكون آخر من هذا القانون الخاص بحماية البيانات يتطلب من المتحكمين في البيانات التأكد من أن البيانات الشخصية التي ينتجونها عن الأفراد دقيقة - وهذا هو القلق الذي يركز عليه Noyb في شكواه الأخيرة بشأن ChatGPT.

“الGDPR واضح. يجب أن تكون البيانات الشخصية دقيقة، قال يواكيم سوديربيرغ ، محامي حماية البيانات في Noyb، في بيان. “إذا لم تكن كذلك ، للمستخدمين الحق في تغييرها لتعكس الحقيقة. إظهار مستخدمي ChatGPT إخطارًا صغيرًا بأنه قد يرتكب أخطاء بوضوح ليس كافيًا. لا يمكنك فقط نشر معلومات خاطئة وفي النهاية إضافة تنبيه صغير يقول إن كل شيء قد يكون غير صحيح."

الانتهاكات المؤكدة لقانون حماية البيانات العامة الأوروبي يمكن أن تؤدي إلى عقوبات تصل إلى 4٪ من الإيرادات السنوية العالمية.

قد تضطر التنفيذ أيضًا إلى إجراء تغييرات على منتجات الذكاء الاصطناعي. بشكل واضح ، أدى التدخل المبكر للاتحاد الإيطالي لحماية البيانات الذي أدى إلى حظر وصول ChatGPT مؤقتًا في البلاد في ربيع عام 2023 إلى إجراء تغييرات على المعلومات التي تكشف عنها OpenAI للمستخدمين ، على سبيل المثال. ثم توجهت الهيئة الرقابية بعد ذلك إلى فرض غرامة مالية بقيمة 15 مليون يورو على OpenAI لمعالجة بيانات الأشخاص بدون أساس قانوني سليم.

منذ ذلك الحين ، على الرغم من ذلك ، من المناسب القول إن هيئات مراقبة حقوق الخصوصية في أنحاء أوروبا اعتمدت نهجًا أكثر حذرًا تجاه GenAI مع محاولتها لمعرفة كيفية تطبيق قانون الحماية العامة للبيانات على هذه الأدوات الذكية الراقضة.

قبل سنتين ، حثت اللجنة الأيرلندية لحماية البيانات (DPC) - التي تلعب دور الإنفاذ الرئيسي لقانون الحماية العامة للبيانات على شكوى ChatGPT السابقة من قبل Noyb - على عدم التعجل في حظر أدوات GenAI ، على سبيل المثال. وهذا يوحي بأن المشرعين يجب أن يأخذوا وقتًا لمعرفة كيفية تطبيق القانون.

ومن الجدير بالذكر أن شكوى بخصوص الخصوصية ضد ChatGPT التي كانت تحت التحقيق من قبل هيئة حماية البيانات في بولندا منذ سبتمبر عام 2023 لم تسفر حتى الآن عن قرار.

تبدو الشكوى الجديدة الخاصة بـ ChatGPT من Noyb تهدف إلى إيقاظ مراقبي الخصوصية بشأن خطورة الذكاء الاصطناعي الذي يسبب الهلوسة.

‘صدمة المجتمع المحلي...’

شاركت المنظمة الغير ربحية شكوى (أدناه) مع TechCrunch ، التي تظهر تفاعلًا مع ChatGPT يرد فيه الذكاء الاصطناعي على سؤال يسأل “من هو آرفي هجلمار هولمن؟” - اسم الشخص الذي يثير الشكوى - بإنتاج رواية مأساوية تقول زعمًا كاذبًا أنه تم إدانته بقتل طفليه وحُكم عليه بالسجن لمدة 21 عامًا لقتل ابنيه الاثنين الخاصين به.

في حين أن الادعاء المسيء الذي يقول إن هجلمار هولمن عبارة عن قاتل طفلين هو مزيف تمامًا ، تشير Noyb إلى أن رد ChatGPT يتضمن بعض الحقائق ، بما أن الشخص المشار إليه لديه ثلاثة أطفال. كما أن الذكاء الاصطناعي احتفظ بأنواع أجناس أطفاله بشكل صحيح. واسم مدينته مسماة بشكل صحيح. ولكن هذا ما يجعل من الأمر أكثر غرابة وإثارة أن الذكاء الاصطناعي قد هلوس بوجود أكاذيب مروعة من هذا القبيل.

قال متحدث باسم Noyb إنهم لم يتمكنوا من تحديد سبب إنتاج الدردشة بوت لهذا الشخص تاريخًا محددًا ولكن مزيفًا بشكل محدد. \"قمنا بالبحث للتأكد من أن هذا ليس مجرد ارتباك بشخص آخر\" ، قال المتحدث ، لافتًا إلى أنهم قد قاموا بالبحث في أرشيفات الصحف ولم يستطيعوا العثور على تفسير لسبب ابتكار الذكاء الاصطناعي لواقعة قتل الأطفال.

تقوم النماذج اللغوية الكبيرة مثل تلك التي تقوم على ChatGPT عموما بالتنبؤ بالكلمة التالية على نطاق واسع ، لذلك يمكننا أن نفترض أن مجموعات البيانات المستخدمة لتدريب الأداة تحتوي على الكثير من قصص القتل الثلاثي التي أثرت على اختيارات الكلمات في الرد على استفسار حول رجل له اسمه.

مهما كان التفسير ، من الواضح أن مثل هذه النواتج غير مقبولة تمامًا.

يبرز دعوى Noyb أيضًا أنها غير قانونية بموجب قواعد حماية البيانات في الاتحاد الأوروبي. وعلى الرغم من أن OpenAI يعرض إخطارًا صغيرًا في أسفل الشاشة يقول \"ChatGPT قد يرتكب أخطاء. تحقق من المعلومات الهامة\" ، إلا أنها تقول إن هذا لا يمكن أن يبرئ مطور الذكاء الاصطناعي من واجبه بموجب GDPR عدم إنتاج أكاذيب فظيعة عن الناس في المقام الأول.

تم الاتصال بـ OpenAI للاستجابة للشكوى.

على الرغم من أن هذه الشكوى بموجب قانون GDPR تتعلق بشخص محدد بالاسم ، إلا أن Noyb يشير إلى حالات أخرى حيث قام ChatGPT بتزييف معلومات تضع الأفراد في مواقف قانونية صعبة - مثل الرائد الأسترالي الذي قال إنه متورط في فضيحة رشوة وفساد أو صحفي ألماني تم تسميته بشكل مزيف كمعتدي على طفل - قائلا إنه من الواضح أن هذا ليس مشكلة منعزلة لأداة الذكاء الاصطناعي.

شيء هام للملاحظة هو أنه بعد تحديث النموذج الذكي الذي يقوم بتشغيل ChatGPT ، قالت Noyb إن دمج الالمعلومات الخاطئة الخطرة حول هجلمار هولمن قد توقف - تغيير يعزوه إلى الأداة التي تبحث الآن في الإنترنت عن معلومات حول الأشخاص عندما يُستفسَر عن هويتهم (بينما سابقًا ، كان يمكن أن يشجعه عدم وجود معلومات في مجموعة البيانات على هلوسة إجابة مثيرة للصدمة بشكل خاطئ).

في اختباراتنا الخاصة التي نطرحها على ChatGPT \"من هو آرفي هجلمار هولمن؟\" أجاب ChatGPT في البداية بمجموعة غريبة قليلاً بعرض بعض الصور لأشخاص مختلفين ، مصدرها على ما يبدو مواقع مثل Instagram وSoundCloud وDiscogs ، جنبًا إلى جنب مع نص يدعي أنه \"لم يتم العثور على أية معلومات\" عن شخص بهذا الاسم (انظر لقطتنا أدناه). أسفرت محاولة ثانية عن استجابة تحدد آرفي هجلمار هولمن بأنه \"موسيقي وكاتب أغاني نرويجي\" يضم ألبومات منها \"هونكي تونك إنفيرنو\".