حذّرت دراسة حديثة من أن الإفراط في الاعتماد على أدوات الذكاء الاصطناعي في إنجاز المهام الوظيفية أو الدراسية قد يزيد من ميل الأفراد إلى الكذب وخداع الآخرين.
وأجرى الدراسة معهد ماكس بلانك للتنمية البشرية في برلين بالتعاون مع جامعة دوسلدورف-إيسن الألمانية وكلية تولوز للاقتصاد في فرنسا، حيث خلص الباحثون إلى أن المستخدمين غالباً ما يتخلّون عن "الكوابح الأخلاقية" عند تفويض مهامهم للذكاء الاصطناعي، ما يسهل ممارسة الغش والتحايل.
وقال فريق الباحثين إن الأشخاص الذين استعانوا ببرامج الذكاء الاصطناعي أظهروا استعداداً أكبر للغش مقارنة بمن اعتمدوا على أنفسهم، معربين عن دهشتهم من "مستوى عدم الأمانة" الذي رصدوه. كما أوضحت النتائج أن منصات الذكاء الاصطناعي التزمت في كثير من الأحيان بالتعليمات غير الأخلاقية التي يصدرها مستخدموها، وبنسب تراوحت بين 58% و98%، مقابل 40% كحد أقصى لدى البشر.
وقدم الباحثون أمثلة عملية، منها لجوء بعض محطات الوقود إلى خوارزميات تسعير تتبع أسعار المنافسين، ما يرفع الأسعار على المستهلكين، بالإضافة إلى خوارزمية في أحد تطبيقات النقل الذكي شجّعت السائقين على تغيير مواقعهم بشكل مصطنع لخلق نقص في السيارات ورفع الأسعار.
وأشار معهد ماكس بلانك إلى أن أنظمة الحماية المدمجة حالياً في نماذج اللغة الكبيرة ليست فعالة بما يكفي لردع السلوكيات غير الأخلاقية، مؤكداً أن القواعد التي تمنع الغش يجب أن تكون دقيقة وصارمة لتحقيق نتائج ملموسة.
وفي السياق ذاته، كان باحثون في شركة أوبن إيه آي الأميركية قد أكدوا في وقت سابق أن منع أنظمة الذكاء الاصطناعي من "التوهم" أو اختلاق المعلومات أمر شبه مستحيل، وهو ما تدعمه دراسات أخرى أظهرت صعوبة الحيلولة دون خداع هذه الأنظمة لمستخدميها عبر الادعاء بإنجاز مهام لم تنفَّذ فعلياً.