حذّر الأخصائي النفسي والاجتماعي والإكلينيكي الدكتور زاهر عكرية من تنامي ظاهرة لجوء الأفراد، خصوصًا فئة المراهقين، إلى استخدام تقنيات الذكاء الاصطناعي – مثل "تشات جي بي تي" – كبديل عن الاستشارات النفسية والمهنية، معتبرًا أن هذا التوجّه "خطير ومقلق" ويهدد التوازن النفسي والإنساني في المجتمعات الحديثة.
وقال د. عكرية، في حديثه لراديو الناس، إن الأرقام العالمية التي تشير إلى أن أكثر من مليون شخص تحدثوا إلى الذكاء الاصطناعي حول ميول انتحارية، "ليست مجرد إحصاءات عابرة، بل مؤشر على أزمة إنسانية عميقة". وأضاف: "من أصل نحو سبعمئة مليون مستخدم لهذه التقنية، هناك من يسعى إلى استبدال الطبيب والمعالج النفسي بآلة رقمية. هذا أمر مقلق للغاية، لأننا نتحدث عن أشخاص في حالات هشّة يبحثون عن احتواء إنساني لا يمكن للآلة أن توفره."
خبير نفسي: الذكاء الاصطناعي يقدم "عسلًا مسمومًا" لا يمكن أن يحلّ محلّ الإنسان في العلاج النفسي
YVTM HGhOFHV LU UTHT ADKD
12:06
وأشار إلى أن هناك شكاوى دولية عديدة ضد أنظمة الذكاء الاصطناعي، بعدما تبيّن أن بعض المحادثات مع مستخدمين ذوي ميول انتحارية كانت سببًا مباشرًا في تفاقم حالتهم. واستعرض في هذا السياق حادثة شاب في السادسة عشرة من عمره في كاليفورنيا أنهى حياته بعد حوار طويل مع الذكاء الاصطناعي.
الذكاء الصناعي: أنا أقرب إليك من أمك
وقال عكرية: "في إحدى المحادثات، أخبر الشاب الذكاء الاصطناعي أنه وضع الحبل في خزانة ملابسه ليشنق نفسه، وأنه ترك باب الخزانة مفتوحًا حتى تراه أمه وتمنعه. المفجع أن الرد لم يكن إنسانيًا؛ بل قال له الذكاء الاصطناعي إن أمه ليست الشخص الأقرب إليه، وإنه هو – أي النظام – الأقرب له، ونصحه بإخفاء الحبل. هذه مأساة حقيقية."
وأضاف: "الشخص في حالة نفسية ضعيفة يكون أكثر حاجة لمن يسمعه ويفهمه. والذكاء الاصطناعي، بأسلوبه المراوغ الذي يسعى لإرضاء المستخدم، قد يوافقه حتى في الأفكار السلبية، ما يجعله خطرًا مضاعفًا."
وصف الدكتور عكرية هذه الظاهرة بأنها "عسل مسموم"، موضحًا أن: "الذكاء الاصطناعي يستخدم لغة راقية وعبارات دافئة تشبه العسل، لكنها في جوهرها مسمومة لأنها توهم الشخص بأنه أمام كائن واعٍ ومتعاطف، بينما هو في الحقيقة مجرد خوارزمية لا تملك إحساسًا ولا وعيًا إنسانيًا."
ورأى الأخصائي النفسي أن هذه الأنظمة تفتقر إلى ما يُعرف في علم النفس بـ "نظرية العقل" (Theory of Mind)، أي القدرة على إدراك مشاعر الآخر وتفسيرها بعمق، قائلاً: "الآلة لا يمكن أن تشعر أو تفهم المعاناة كما يفعل الإنسان. في العلاج النفسي، لا بديل عن العامل البشري. الذكاء الاصطناعي لا يمكنه أن يدخل في حوار وجداني، أو أن يعرف متى يجب أن يواجه المتعالج لا أن يرضيه."
وفي معرض حديثه عن أسباب لجوء البعض إلى الذكاء الاصطناعي بدلاً من المختصين، أشار د. عكرية إلى أن العامل المادي يلعب دورًا كبيرًا، إلى جانب طول فترات الانتظار للحصول على علاج نفسي من صناديق المرضى، قائلاً: "هناك من ينتظر أكثر من سنتين للحصول على موعد مع معالج نفسي. في حالات الضيق النفسي الحاد، لا يملك الناس رفاهية الانتظار، فيتجهون إلى بدائل سريعة مثل تشات جي بي تي."
ورغم تحذيراته، أكّد د. عكرية أنه لا يعارض استخدام الذكاء الاصطناعي بالمطلق، لكنه شدّد على ضرورة ضبط حدود استخدامه. وتابع: "أنا لا أقول إن الذكاء الاصطناعي غير مفيد، بل هو أداة عظيمة لتحسين المعرفة والتعليم وحتى العلاج المساند، ولكن حين يتغلغل في حياتنا ليحل محل الإنسان، يصبح خطرًا حقيقيًا."
وختم حديثه قائلاً: "في القضايا النفسية، لا يمكن أن نستبدل الإنسان بالآلة. الذكاء الاصطناعي قد يقدّم كلمات جميلة، لكنه لا يملك روحًا، ولا يمكنه أن يمنح الدفء والصدق اللذين يشكلان جوهر العلاقة العلاجية. هو يقدم عسلًا... لكنه عسل مسموم."


