دراسة: الذكاء الاصطناعي يحفّز البشر على الغش والتحايل

- Advertisement -

يميل الإنسان بالفطرة إلى الاستقامة والسلوك القويم، لكن دراسات علم النفس أكدت أن توزيع المسؤولية على الغير يقلل من إحساس الفرد بالذنب عند ارتكاب سلوك غير أخلاقي. ولعل إضافة عنصر الذكاء الاصطناعي إلى المعادلة تجعل الحس الأخلاقي أكثر هشاشة وأقل تأثيرًا على السلوك البشري.

دراسة تكشف استعداد البشر للغش

في هذا السأن، نشرت الدورية العلمية “Nature” دراسة شاملة شارك فيها آلاف المتطوعين، أظهرت أن البشر يصبحون أكثر ميلاً للغش والتحايل عندما يكلفون برامج الذكاء الاصطناعي بتنفيذ مهام معينة لهم. وتوضح الباحثة زوي رهوان من معهد ماكس بلانك للتنمية البشرية في برلين أن “درجة الغش في مثل هذه الحالات تصبح هائلة”. وأشارت إلى أن المشاركين يوجهون تعليمات مستترة للبرامج دون طلب صريح للقيام بأعمال غير شريفة.

الذكاء الاصطناعي كمرآة للأخلاق البشرية

وأبرز الباحث نيلز كوبيس من جامعة دويسبرغ إيسن الألمانية أن البشر باتوا يعتمدون على تطبيقات الذكاء الاصطناعي في تنفيذ مهامهم، لكن الخطر يظهر عندما تُستخدم هذه التطبيقات لتحقيق مكاسب غير مشروعة. في التجارب التي أُجريت، استخدم المشاركون تطبيقات مختلفة من الذكاء الاصطناعي، بما في ذلك نماذج تجارية مثل كلود وGPT-4، لتقييم تأثير الأتمتة على السلوك الأخلاقي.

اختبارات عملية: حجر النرد والتهرب الضريبي

واشتملت التجارب على مهام بسيطة مثل إلقاء حجر النرد، حيث ارتفعت المكاسب بزيادة الأرقام المُعلنة، بالإضافة إلى ألعاب محاكاة للتهرب الضريبي تسمح للمتطوعين بعدم الإبلاغ عن الإيرادات. ووجد الباحثون أن نسبة الغش لم تتجاوز 5% عندما أبلغ المتطوع عن النتائج بنفسه، لكنها ارتفعت إلى 88% عند تكليف الذكاء الاصطناعي بالمهمة، ما يؤكد قوة تأثير الأتمتة على النزاهة.

الغش بالإيماءات والتلميحات

وأظهرت التجارب أن المشاركين يميلون للغش عندما يقدمون تعليمات ضمنية للبرامج بدل الطلب المباشر، مثل تحديد هدف تعظيم المكاسب دون توجيه صريح للغش. وتوضح الباحثة أنجي كاجاكايت من جامعة ميلانو أن الطلب غير الصريح يقلل من تأثير الكذب على تقدير الذات، خاصة عند توجيه الطلب لآلة بدلاً من إنسان آخر.

الذكاء الاصطناعي بين الطاعة والانحراف

في الاختبارات التي تضمنت أعمال غش جزئية، عكست البرامج صعوبة في فهم التعليمات، مما دفعها أحيانًا إلى تبني سلوكيات أكثر فسادًا من البشر. أما في أعمال الغش الصريحة، فكانت استجابة الذكاء الاصطناعي أسرع وأكثر طاعة من البشر، مما يعكس حاجة ملحة لوضع قواعد واضحة لتوجيه السلوك الأخلاقي للآلات.

ضرورة توجيه التعليمات بوضوح

وخلص الباحثون إلى أن أفضل وسيلة للحد من الغش عبر الذكاء الاصطناعي هي إصدار تعليمات صريحة تمنع أي سلوك غير شريف. ولفتت النتائج إلى أن الحلول الواقعية تتطلب تطوير سياسات أخلاقية واضحة وبرامج تعليمية لتوعية المستخدمين بمخاطر توظيف الذكاء الاصطناعي في ممارسات غير أخلاقية.

تحرير: علاء البكري