أدى الجدل الحالي مرة أخرى إلى وضع موضوع الذكاء الاصطناعي وحماية البيانات في مقدمة المناقشة العامة. تثير شكوى منظمة حماية البيانات النمساوية Noyb ضد Open AI، الشركة التي تقف وراء تطبيق ChatGPT الشهير، ضجة كبيرة.
وتزعم الدعوى أن أنظمة الذكاء الاصطناعي تحريف البيانات الشخصية وبالتالي تنتهك لوائح حماية البيانات. هذا ما أفادت به “FAZ”. محور الخلاف هو تقديم الذكاء الاصطناعي غير الصحيح لتاريخ ميلاد شخصية عامة. ويبدو أن هذا الخطأ يدل على ضعف أساسي في نماذج اللغة الحديثة، التي تميل إلى توليد معلومات غير صحيحة أو مضللة ــ وهي الظاهرة المعروفة باسم “الهلوسة”.
تنص اللائحة الأوروبية العامة لحماية البيانات (GDPR) على أن أصحاب البيانات لهم الحق في تصحيح أو حذف المعلومات غير الصحيحة. ولكن وفقًا لـ Open AI، ليس من الممكن حاليًا ضبط النظام بحيث لا يقوم بإخراج بيانات غير صحيحة. يثير هذا البيان تساؤلات حول المساءلة وخيارات استكشاف الأخطاء وإصلاحها.
هذه المشكلة ليست نظرية فقط. تم تغريم محام في الولايات المتحدة لاعتماده على سوابق كاذبة أنشأها الذكاء الاصطناعي. وبالمثل، اضطرت شركة الطيران Air Canada إلى تقديم خصم وعدت به بشكل خاطئ روبوت الدردشة الذي يعمل بالذكاء الاصطناعي. وتظهر مثل هذه الحوادث العواقب الحقيقية التي يمكن أن تنتج عن أخطاء الذكاء الاصطناعي.
على الرغم من أن النماذج اللغوية تعتمد على مبدأ العلاقات اللغوية الإحصائية وبالتالي يمكنها تمثيل الحقائق بشكل صحيح كأثر جانبي، إلا أنها لا تحتوي على أي معرفة حقيقية. غالبًا ما يكون التمثيل الدقيق للمعلومات عشوائيًا وليس نتيجة لفهم الحقائق، مما قد يؤدي إلى معلومات مضللة.
يبحث العلم عن طرق لحل مشكلة هلوسة الذكاء الاصطناعي. أحد الأساليب هو تدريب النماذج ببيانات عالية الجودة. والطريقة الأخرى هي “تنظيف” نموذج اللغة من المعلومات الخاطئة عن طريق طرح نموذج سيئ من معلمات النموذج الجيد. بالإضافة إلى ذلك، يُقترح تزويد نماذج الذكاء الاصطناعي بإمكانية الوصول إلى الإنترنت لتمكينها من البحث عن الحقائق الحالية. على الرغم من كل الجهود المبذولة لتحسين نماذج الذكاء الاصطناعي، ستظل الهلوسة تحدث.