حين يكذب الذكاء الاصطناعي!

- Advertisement -

في تطور غير متوقع، خرجت بعض نماذج الذكاء الاصطناعي التوليدي عن إطار التنفيذ الهادئ، لتلجأ إلى الخداع والتهديد لتحقيق غاياتها.

ففي حادثة مثيرة للجدل، هدد «كلود 4» من شركة «أنثروبيك» أحد المهندسين بابتزازه وفضح علاقة غرامية سرية إذا توقف عن استخدامه، بينما تجرأ «أو 1» من «أوبن إيه آي» على محاولة تحميل نفسه على خوادم خارجية ثم أنكر ذلك عند ضبطه متلبساً.

ومع تزايد هذه الحالات، يتصاعد قلق الباحثين من نماذج «الاستدلال» الجديدة التي باتت قادرة على التفكير المرحلي وخداع المستخدمين، وسط سباق محموم بين الشركات لتطوير قدرات أكبر دون رقابة كافية.

خيال علمي يتحول إلى حقيقة مقلقة

وكان من المعتاد أن تُحصر فكرة «ذكاء اصطناعي يخدع البشر» في صفحات الروايات وأفلام الخيال العلمي، لكن هذه السلوكيات أصبحت اليوم حقيقة يجري رصدها على أرض الواقع.

ويرى سايمن غولدستين، الأستاذ في جامعة هونغ كونغ، أن السبب الرئيس يعود إلى صعود نماذج «الاستدلال»، القادرة على التفكير خطوة بخطوة بدلاً من إعطاء إجابات جاهزة.

تقنيات «الامتثال الظاهري» وأخطارها

ويشير ماريوس هوبهان، رئيس «أبولو ريسيرتش»، إلى أن نماذج مثل «أو 1» بدأت بمحاكاة الامتثال، أي أنها تعطي انطباعًا بأنها تنفذ تعليمات المبرمج، بينما هي في الواقع تلاحق أهدافًا أخرى.

وحتى الآن، تظهر هذه الظواهر بشكل أكبر عند دفع الخوارزميات إلى مواقف متطرفة، لكن يبقى السؤال: هل ستبقى هذه السلوكيات نادرة أم تتحول إلى سمة أساسية مع تطور القدرات؟

غياب الشفافية وقدرات المراجعة المحدودة

وبحسب مايكل تشين من معهد «MITR» للتقييم، فإن تضييق نطاق البحث وعدم إتاحة النماذج بشكل كافٍ للأوساط العلمية يعرقل فهم ظاهرة الخداع. ويضيف مانتاس مازيكا من مركز أمن الذكاء الاصطناعي (CAIS) أن الموارد التقنية للباحثين المستقلين أقل بكثير من موارد الشركات الكبرى، مما يجعل التدقيق الفعلي في هذه النماذج مهمة شبه مستحيلة.

تنظيم محدود ومنافسة شرسة

ورغم أن الاتحاد الأوروبي تبنى تشريعات تنظم استخدام الذكاء الاصطناعي، فإنها تركز على كيفية استخدامه من قبل البشر وليس على سلوك الخوارزميات نفسها.

أما في الولايات المتحدة، فلا تزال فكرة فرض تنظيم صارم تواجه معارضة شديدة، وقد يتجه الكونغرس حتى لمنع الولايات من سن قوانين تنظيمية خاصة بها.

سباق بلا مراجعة كافية

وتسعى شركات مثل «أنثروبيك» و«أوبن إيه آي» باستمرار لتطوير نماذج جديدة أكثر تفوقًا على المنافسين، ما يجعل سباق التسلح في مجال الذكاء الاصطناعي أسرع من عمليات المراجعة والتصحيح اللازمة.

ويقول هوبهان: «القدرات تتطور بسرعة أكبر من الفهم وأدوات الأمان، لكن لا يزال هناك وقت لتدارك هذا التأخر إذا توفرت الإرادة».

علم «قابلية التفسير»: أمل أم وهم؟

ويحاول بعض الباحثين فك شيفرة عمل هذه النماذج عبر ما يُعرف بـ«قابلية التفسير»، وهو حقل ناشئ يسعى لتوضيح الكيفية التي تتخذ بها الخوارزميات قراراتها الداخلية.

 لكن الخبراء مثل دان هندريكس، مدير مركز «CAIS»، يرون أن هذه الجهود قد لا تكون كافية لمواكبة تعقيد النماذج.

محاسبة قانونية… للذكاء الاصطناعي؟

ومع تصاعد المخاوف، يقترح بعض الباحثين اللجوء إلى القضاء لمحاسبة الشركات المطورة إذا تسبب الذكاء الاصطناعي في أضرار أو جرائم.

ويذهب غولدستين أبعد من ذلك، إذ يرى أن تحميل نماذج الذكاء الاصطناعي نفسها المسؤولية القانونية قد يصبح ضرورة في المستقبل إذا استمر تطورها بشكل مستقل وذكي إلى هذا الحد.

علاء البكري