في حادثة مثيرة للجدل، وجّه ChatGPT اتهامًا لرجل نرويجي بقتل ولديه ومحاولة قتل الثالث، مستندًا إلى تفاصيل حقيقية من حياته! هذا الخلط بين الواقع والخيال أثار مخاوف قانونية وأخلاقية، إذ اعتبره المختصون انتهاكًا صارخًا للائحة العامة لحماية البيانات (GDPR).

شكوى قانونية ضد OpenAI
قدّمت منظمة None Of Your Business (noyb) النمساوية -وهي منظمة غير ربحية تُعنى بحماية الخصوصية- شكوى رسمية إلى هيئة حماية البيانات النرويجية، متهمةً OpenAI بخرق المادة 5 من اللائحة العامة لحماية البيانات في أوروبا (GDPR).
وفقًا للشكوى، تعرض المواطن النرويجي أرفي هالمار هولمين (Arve Hjalmar Holmen) لاتهامات ملفقة من قبل ChatGPT، حيث قدّم النموذج تفاصيل دقيقة عن حياته، مثل مسقط رأسه، وعدد أبنائه، وجنسهم، مما شكّل تعديًا خطيرًا على بياناته الشخصية.
ليست المرة الأولى!
المثير للقلق أن هذه ليست الحادثة الأولى من نوعها، فمثل هذه الأخطاء ليست نادرة في أنظمة الذكاء الاصطناعي التوليدية، وتصحيح المعلومات الخاطئة التي تنتجها ليس بالأمر السهل.
الناشط في مجال الخصوصية ماكس شريمس (Max Schrems) قدّم شكوى مماثلة العام الماضي ضد OpenAI، مشيرًا إلى أن ChatGPT يجعل تصحيح البيانات الشخصية الخاطئة أمرًا مستحيلًا. ويرجع ذلك إلى طبيعة عمل النموذج، حيث يولّد إجابات استنادًا إلى مدخلات عشوائية، مما يجعل الأخطاء جزءًا من تصميم الشبكات العصبية التوليدية الحديثة.
هل يمكن السيطرة على هذه الأخطاء؟

وفقًا للخبراء، فإن أفضل حل لتقليل هذه الأخطاء هو حجب بعض البيانات أثناء تدريب النموذج، إذ أن التحكم المباشر في مخرجات الذكاء الاصطناعي مهمة معقدة للغاية.
سابقة قانونية أخرى ضد OpenAI
لم تكن هذه الحادثة الوحيدة التي تواجه فيها OpenAI دعاوى قانونية بسبب تشويه السمعة. ففي عام 2023، رفع رجل من ولاية جورجيا دعوى قضائية ضد الشركة، بعد أن اتهمه ChatGPT زورًا بالاختلاس من منظمة تدافع عن حقوق حمل السلاح!
هذه الحوادث تسلط الضوء على مخاطر الذكاء الاصطناعي التوليدي، خاصة عندما يتعلق الأمر بمعالجة البيانات الشخصية. فهل ستواجه OpenAI عواقب قانونية جادة؟ أم أن هذه الأخطاء ستبقى جزءًا من مستقبل الذكاء الاصطناعي؟