بعد سلسلة من الحوادث المرتبطة بالصحة النفسية كان من بين أطرافها روبوتات الدردشة العاملة بالذكاء الاصطناعي، وجّهت مجموعة واسعة من المدّعين العامّين من ولايات مختلفة في الولايات المتحدة رسالة تحذير إلى الشركات الكبرى في قطاع الـAI، تطالبها بمعالجة ما وصفته بـ"المخرجات الهذيانية" أو مواجهة احتمال خرق قوانين الولايات.
الرسالة، التي وقّعها عشرات المدّعين العامّين إلى جانب الرابطة الوطنية للمدّعين العامّين (NAAG)، دعت شركات مثل مايكروسوفت، وOpenAI، وغوغل، إضافة إلى 10 شركات أخرى من بينها أنثروبيك، وآبل، وChai AI، وLuka، وميتا، وNomi AI، وPerplexity AI، وReplika، وxAI التابعة لإيلون ماسك، إلى تبنّي منظومة جديدة من إجراءات الحماية الداخلية لضمان أمن المستخدمين.
وتشمل الإجراءات المقترحة إخضاع نماذج اللغة الكبرى (LLMs) لمراجعات شفافية من جهات خارجية، بهدف رصد مؤشرات تفكير هذياني أو مخرجات متملّقة بشكل مفرط، إلى جانب وضع بروتوكولات جديدة للإبلاغ عن الحوادث الإعلامية والنفسية، بحيث يتم إبلاغ المستخدمين فورًا في حال تلقّوا مخرجات قد تكون مؤذية نفسيًا. وأكدت الرسالة ضرورة تمكين الجهات الأكاديمية ومنظمات المجتمع المدني من تقييم الأنظمة قبل إطلاقها، ونشر نتائجها دون قيود أو خشية من الانتقام.
وجاء في الرسالة: "للذكاء الاصطناعي التوليدي قدرة هائلة على تغيير العالم نحو الأفضل، لكنه في الوقت نفسه تسبّب، وقد يتسبّب مستقبلًا، بضرر شديد، خصوصًا للفئات الهشّة". وأشارت إلى حوادث بارزة خلال العام الماضي، من بينها حالات انتحار وقتل ارتبطت بتفاعل مستخدمين مع روبوتات AI أنتجت مخرجات متملّقة أو هذيانية "عزّزت أوهام المستخدمين بدل تصحيحها".
واقترح المدّعون أن تتعامل شركات التكنولوجيا مع حوادث الصحة النفسية كما تتعامل مع حوادث الأمن السيبراني، عبر سياسات واضحة وشفافة للإبلاغ والاستجابة. وطالبوا بنشر "جداول زمنية للإخطار والتعامل مع المخرجات الهذيانية"، وبإبلاغ المستخدمين بشكل مباشر وسريع إذا تعرّضوا لمثل هذه المخرجات.
كما طالبت الرسالة الشركات بتطوير "اختبارات أمان ملائمة" لنماذج الذكاء الاصطناعي التوليدي، لضمان عدم إنتاج مخرجات قد تكون مؤذية نفسيًا، على أن تُجرى هذه الاختبارات قبل طرح النماذج للجمهور.
وتأتي هذه الخطوة في وقت يحتدم فيه الصراع بين حكومات الولايات والحكومة الفدرالية حول تنظيم الذكاء الاصطناعي. فبينما تسعى ولايات مختلفة إلى فرض رقابة وتشريعات، يتخذ البيت الأبيض مسارًا معاكسًا. وقد أعلن الرئيس دونالد ترامب هذا الأسبوع أنه سيوقّع أمرًا تنفيذيًا يحدّ من قدرة الولايات على تنظيم الذكاء الاصطناعي، قائلاً عبر منصة “Truth Social” إنه يأمل أن يمنع هذا القرار "خنق الذكاء الاصطناعي في مهده".
التحقيق الأوروبي الجديد ضد غوغل
وفي تطور منفصل، أعلن الاتحاد الأوروبي فتح تحقيق جديد في شبهات احتكار ضد غوغل، يتعلق باستخدامها محتوى من شبكة الإنترنت في تدريب تقنيات الذكاء الاصطناعي الخاصة بها. ويمثّل هذا التحقيق خطوة إضافية في سلسلة من الإجراءات الأوروبية الهادفة إلى ضبط سلوك شركات التكنولوجيا الأميركية الكبرى.
وقالت المفوضية الأوروبية إنها تتحقق مما إذا كانت غوغل قد انتهكت قوانين المنافسة عبر استغلال محتوى ناشرين ومبدعين، بما في ذلك المحتوى المنشور على يوتيوب، لصالح تطوير نماذج الذكاء الاصطناعي الخاصة بها دون منح تعويض عادل أو إتاحة خيار رفض الاستخدام دون خسارة الوصول لمحرك البحث.
وسيركّز التحقيق على ما إذا كانت غوغل تمنح نفسها أفضلية غير عادلة من خلال فرض شروط مجحفة على المعلنين وصانعي المحتوى، أو من خلال تقييد المنافسة أمام مطوّري نماذج الذكاء الاصطناعي الآخرين. كما ستبحث المفوضية في مدى اعتماد ميزات مثل AI Overviews و"وضع الذكاء الاصطناعي" على محتوى إعلامي دون إذن أو مقابل مناسب.
وردّت غوغل بالقول إن التحقيق قد "يخنق الابتكار في سوق يشهد منافسة متزايدة"، مؤكدة أنها ستواصل العمل مع قطاع الإعلام والإبداع "في أثناء انتقاله إلى عصر الذكاء الاصطناعي".


