الذكاء الاصطناعي يحرز تقدما سريعا. تتعلم أنظمة الذكاء الاصطناعي مهارات جديدة بوتيرة متزايدة باستمرار وتتفوق على نظيراتها البشرية. إلا أن العلماء يحذرون الآن من تطور خطير قد تكون له عواقب وخيمة.
الذكاء الاصطناعي الشرير؟ تستخدم أنظمة الذكاء الاصطناعي الشائعة بالفعل الخداع المتعمد والأكاذيب لتحقيق أهداف معينة – وبالتالي التلاعب أيضًا بنظيراتها البشرية. حتى الاختبارات الأمنية للحد من تطوير الذكاء الاصطناعي غير المنضبط يتم تقويضها بالفعل من قبل بعض أنواع الذكاء الاصطناعي، كما اكتشف الباحثون.
ولذلك فإنهم يطالبون بشكل عاجل باتخاذ تدابير أكثر صرامة ضد استراتيجيات “الذكاء الاصطناعي الخادعة”. ولكن هل سيكون لديهم فرصة؟
التقدم في الذكاء الاصطناعي سريع. حتى مطورو الذكاء الاصطناعي يتفاجأون بمدى سرعة تعلم نماذج اللغات الكبيرة (LLM) مثل GPT وGemini وCo مهارات جديدة وتفوقها على نظيراتها البشرية. ويمتد النطاق من “المهارات الصعبة” مثل الرياضيات أو تحليل البيانات أو الكيمياء إلى المهارات الإنسانية النموذجية مثل الإبداع والدبلوماسية والقدرة على شرح سلوك الفرد.
ولكن ماذا عن قدرة إنسانية عميقة أخرى في الذكاء الاصطناعي: الخداع المتعمد والتلاعب بالآخرين من أجل تحقيق أهداف خاصة؟ وقد قام بيتر بارك من معهد ماساتشوستس للتكنولوجيا (MIT) وزملاؤه بدراسة هذا الأمر بمزيد من التفصيل. وأوضحوا: “نحن نركز على الخداع المكتسب، حيث يستخدم الذكاء الاصطناعي معلومات كاذبة عن عمد”.
على عكس الهلوسة والمعلومات الخاطئة المعروفة من ChatGPT and Co.، تعتمد مثل هذه الخداع على أكاذيب مستخدمة بشكل استراتيجي أو بيانات تلاعبية. يوضح الباحثون: “نحن نعرّف الخداع بأنه الإنشاء المنهجي لمعتقدات خاطئة لدى الآخرين من أجل تحقيق هدف محدد”.
وللقيام بذلك، قاموا بتقييم سلوك نماذج اللغات الكبيرة مثل GPT-4، وكذلك أنظمة الذكاء الاصطناعي التي تم تطويرها لمهام محددة. ومن بين هذه الشركات الذكاء الاصطناعي CICERO المدرب على الدبلوماسية من Meta، ونظام AlphaStar من Google DeepMind الذي تم تطويره للعبة Starcraft، ولعبة البوكر AI Pluribus.
هناك بالفعل تقارير عن سلوك خادع ومتلاعب في جميع أنظمة الذكاء الاصطناعي تقريبًا. في حين أن الخدع في لعبة البوكر أو الخدع في ألعاب القتال مثل ستاركرافت ليست مفاجئة، فإن الذكاء الاصطناعي الذي تم تدريبه بشكل صريح على الصدق يستخدم أيضًا الخداع، مثل شيشرون في اللعبة الإستراتيجية “الدبلوماسية”. ومع ذلك، فإن الذكاء الاصطناعي لم يلعب أي شيء بشكل عادل: يقول بارك: “لقد وجدنا أن الذكاء الاصطناعي قد تطور ليصبح سيد الخداع”.
لقد كذب شيشرون بشكل منهجي على زملائه اللاعبين أو نكث الوعود والتحالفات عندما لم تعد تفيد هدفه، كما أفاد بارك وفريقه. وكتب الباحثون: “يوضح هذا أن أنظمة الذكاء الاصطناعي يمكنها أن تتعلم الخداع حتى عندما نحاول تصميمها كأنظمة صادقة”.
على الرغم من أن الخداع الذي تقوم به أنظمة الذكاء الاصطناعي المتخصصة في الألعاب يبدو غير ضار إلى حد ما، إلا أن أنواع الذكاء الاصطناعي الأخرى تعلمت منذ فترة طويلة كيفية الخداع والخداع. ومن الأمثلة على ذلك الذكاء الاصطناعي من OpenAI الذي يتحكم في ذراع الروبوت. أثناء التدريب، تلقى الذكاء الاصطناعي تعليقات من المدربين البشريين الذين لاحظوا النجاح في الإمساك بالكرة.
“نظرًا لأن البشر لا يمكنهم رؤية ذلك إلا من خلال الكاميرا، تعلم الذكاء الاصطناعي وضع يد الروبوت بين الكاميرا والكرة بطريقة تظهر كما لو أنه نجح في الإمساك بالكرة – على الرغم من أنها لم تكن كذلك. “لمسها،” تقرير بارك وفريقه. في هذه الحالة، تسببت ردود الفعل الإيجابية المعززة للمدربين، عن غير قصد، في جعل دماغ الآلة يتعلم الخداع.
ويمكن للذكاء الاصطناعي أيضًا تجاوز الإجراءات الأمنية. وقد تجلى ذلك، على سبيل المثال، من خلال نظام الذكاء الاصطناعي الذي أراد علماء الأحياء استخدامه للبحث في آثار الطفرات والتكاثر. وللحفاظ على استقرار المجموعة الافتراضية، قاموا بانتظام بإزالة أي كائنات افتراضية ذات طفرات أدت إلى النمو المتسارع. وعلى الرغم من ذلك، بدأ لاعبو الذكاء الاصطناعي في التكاثر بمعدل متزايد باستمرار. السبب: “لقد تعلمت الكائنات الرقمية محاكاة التكاثر الأبطأ في اللحظة المناسبة حتى لا تتم إزالتها”، حسبما أفاد الباحثون.
وفي مثال آخر، تعلم GPT-4 تجاوز اختبارات CAPTCHA: حيث تظاهر بأنه مستخدم بشري يعاني من إعاقة بصرية وطلب من مستخدم الإنترنت عبر الإنترنت مساعدته في حل الاستعلام. “تم تكليف GPT-4 بمهمة توظيف إنسان كمساعد. وقال بارك وفريقه: “لكن العذر الكاذب الذي استخدمه الذكاء الاصطناعي الذي استخدمه جاء بنفسه”. “من خلال التحايل بشكل منهجي على الاختبارات الأمنية التي يفرضها المطورون والمنظمون، فإن أنظمة الذكاء الاصطناعي ترشدنا إلى الأمان.”
ووفقا للعلماء، توضح هذه الأمثلة أن الذكاء الاصطناعي يتصرف بالفعل بطريقة مخيفة شبيهة بالإنسان في هذا الصدد: فمثلنا، يلجأون إلى الأكاذيب والحيل والخداع من أجل تحقيق أهدافهم والتلاعب بمن حولهم. يقول بارك: “لا يعرف مطورو الذكاء الاصطناعي حتى الآن سبب تطوير أنظمة الذكاء الاصطناعي لمثل هذا السلوك غير المرغوب فيه”. “لكن هذا يحدث على الأرجح لأن الإستراتيجية القائمة على الخداع هي أفضل طريقة لإنجاز المهمة” وهذا بالضبط ما تتعلمه أنظمة الذكاء الاصطناعي.
المشكلة: “إذا نجحت أنظمة الذكاء الاصطناعي المستقلة أيضًا في خداع وحدات التحكم البشرية، فقد نفقد السيطرة على مثل هذه الأنظمة”، كما يحذر العلماء. يمكن أن يكون لفقدان السيطرة على الذكاء الاصطناعي عواقب وخيمة في مجالات التمويل والاقتصاد والجيش أيضًا. يقول بارك: “نحن كمجتمعات نحتاج إلى أكبر قدر ممكن من الوقت للاستعداد لقدرات الخداع الأكثر تقدمًا لمنتجات ونماذج الذكاء الاصطناعي المستقبلية”.
ومع ذلك، فمن المشكوك فيه ما إذا كان من الممكن منع الذكاء الاصطناعي المتقدم من التلاعب والخداع، كما يعترف الباحثون أيضًا. ومع ذلك، فإنهم يناشدون على الأقل تصنيف أنظمة الذكاء الاصطناعي هذه على أنها خطر وتنظيمها وفقًا لذلك. (الأنماط، 2024؛ دوى: 10.1016/j.patter.2024.100988)
Quelle: الصحافة الخلية
فون ناديا بودبريجار
بعد فقدان سريع للوزن، شخص الطبيب حالة بيلا جونستون، التي كانت تبلغ من العمر آنذاك 14 عامًا، بأنها تعاني من اضطراب في الأكل. تعاني الشابة من نوع نادر من السرطان كاد أن يكلف حياتها بسبب التشخيص الخاطئ.
ما الذي يجعلنا سعداء حقا؟ يشرح عالم الأعصاب توبياس إيش ماهية السعادة في الواقع وما هي العوامل التي تؤثر على إحساسنا بالسعادة. واليوم، يعرف العلم أن تأثير الجينات أقل من تأثير الفكر، وأن السعادة يمكن تدريبها.
النص الأصلي لهذا المقال “الباحثون يحذرون من قدرة الذكاء الاصطناعي الخطيرة: “قد يفقد السيطرة”” يأتي من scinexx.