مطوّر ChatGPT ينصح بعدم الوثوق به كثيرًا: "أحيانًا يميل للهلوسة"

الرئيس التنفيذي لشركة OpenAI يحذّر من الاعتماد المفرط على ChatGPT ويصفه بأنه غير موثوق في مجالات حسّاسة          

ماريا الياس|
2 عرض المعرض
سام ألتمان رئيس شركة OpenAI
سام ألتمان رئيس شركة OpenAI
سام ألتمان رئيس شركة OpenAI
(ويكيبيديا)
في تصريحات لافتة، حذّر الرئيس التنفيذي لشركة OpenAI، سام ألتمان، من الإفراط في الثقة بنموذج الذكاء الاصطناعي الشهير ChatGPT، معتبرًا أنه "لا ينبغي الوثوق به إلى هذا الحد"، لا سيما في مجالات حساسة كالصحة أو الاستشارات القانونية.
وجاءت أقوال ألتمان خلال الحلقة الأولى من البودكاست الرسمي الذي أطلقته الشركة، حيث أعرب عن استغرابه من حجم الاعتماد الذي يبديه المستخدمون تجاه هذه التقنية، على الرغم من "ميل النماذج اللغوية إلى الهلوسة" – أي تقديم معلومات قد تبدو منطقية ومقنعة، لكنها غير دقيقة أو خاطئة.
وأكد ألتمان أن هذه الأدوات يمكن أن تساهم في رفع الإنتاجية وتسهيل الوصول إلى المعلومات، لكنه شدد على أنها ليست بديلاً عن الخبرة البشرية، ولا ينبغي التعامل معها كمصدر وحيد للمعرفة.
2 عرض المعرض
Chatgpt
Chatgpt
Chatgpt
(Chatgpt)
ورغم هذا التحذير، أشار ألتمان، الذي رُزق مؤخرًا بطفله الأول، إلى أنه يستخدم ChatGPT بانتظام للحصول على نصائح تتعلق بتربية الأطفال، مضيفًا بابتسامة: "من الواضح أن الناس اعتنوا بأطفالهم منذ زمن طويل من دون ChatGPT، لكن بصراحة، لا أعلم كيف كنت سأفعل ذلك من دونه".
وفي سياق متصل، تحدث ألتمان عن مستقبل العلاقة بين الذكاء الاصطناعي والأجيال القادمة، قائلاً إن الجيل الجديد قد لا يتفوّق على الذكاء الاصطناعي من حيث "الذكاء الفطري"، لكنه سينشأ في بيئة تمكّنه من استخدام هذه الأدوات بكفاءة لتنفيذ مهام كانت حتى وقت قريب مستحيلة. واعتبر أن السؤال ليس "من الأذكى؟"، بل "كيف نستخدم هذه الأدوات بشكل فعّال؟".
كما حذّر ألتمان من خطر تطوير علاقات نفسية غير متوازنة بين البشر والأنظمة الذكية، فيما يُعرف بـ "العلاقات الطفيلية النفسية" (Parasocial relationships)، حيث يرتبط المستخدم عاطفيًا أو شخصيًا بكائن غير بشري. وقال في هذا السياق: "ستكون هناك مشاكل حقيقية. سيبدأ الناس في تطوير علاقات عاطفية خطيرة مع الذكاء الاصطناعي، وسيتعيّن على المجتمع التعامل معها من خلال وضع ضوابط جديدة".