قال سام ألتمان، المدير التنفيذي لشركة OpenAI، هذا الأسبوع إن المحادثات الشخصية مع ChatGPT لا تتمتع بسرية قانونية، وقد تُستخدم كأدلة في المحكمة. وفي بودكاست “This Past Weekend” مع الكوميدي ثيو فون، عبّر ألتمان عن قلقه من أن ملايين المستخدمين يتوجهون إلى أداة الذكاء الاصطناعي للحصول على نصائح في مواضيع حساسة دون أن يدركوا المخاطر القانونية الكامنة في ذلك.
قال ألتمان: “الناس يتحدثون مع ChatGPT عن أكثر الأمور خصوصية في حياتهم، وخصوصًا الشباب الذين يستخدمونه كمعالج نفسي أو كمدرب حياة؛ لديهم مشاكل في علاقاتهم ويسألون: ’ماذا يجب أن أفعل؟‘”.
والمشكلة، بحسب ألتمان، هي أنه على عكس المحادثات مع الأطباء أو المحامين أو الأخصائيين النفسيين، لا تتمتع المحادثات مع الذكاء الاصطناعي بأي نوع من الحصانة القانونية. وأضاف: “في الوقت الحالي، إذا تحدثت مع ChatGPT عن أمورك الأكثر حساسية، ثم وقعت دعوى قضائية أو شيء من هذا القبيل، فقد نطالب بتسليم هذه المعلومات”.
خطر أكبر
وفي هذا الصدد، يقول يورام ليختنشتاين، وهو محامٍ مختص في قوانين الرقمية والتكنولوجيا والذكاء الاصطناعي، إن “الخشية التي يثيرها سام ألتمان واضحة”. وأوضح أن “الخطر الأكبر فعليًا يكمن في أمر يصدره القاضي ضد أحد الطرفين من أجل كشف بيانات ومستندات خاصة به”، مضيفًا: “ليس هناك حاجة لأمر قضائي ضد شركة OpenAI”. وأوضح ليختنشتاين أن من ضمن الإجراءات التمهيدية في أي دعوى قضائية، يكون هناك إجراء يُعرف بكشف المستندات. “قد يكون هناك نقاش حول ما إذا كان الأمر المُدخل في الذكاء الاصطناعي (Prompt) يُعتبر مستندًا، لكن في ضوء ما يجري في العالم الرقمي منذ سنوات، يبدو أننا قد تجاوزنا هذا الحاجز”.
وأضاف أنه إذا كان ذلك المُدخل (Prompt) ذا صلة بالقضية، فيمكن للمحكمة أن تصدر أمرًا بكشفه دون الحاجة إلى التوجه إلى الشركة الأمريكية. “إذا لم يكشف الطرف المعني المستندات رغم أمر المحكمة، فستُفرض عليه عقوبات قانونية وغرامات مالية، فقد تحمّله المحكمة بتكاليف القضية وقد تنتهي العقوبات عليه بشطب لائحة ادعائه وخسارته للقضية”.
بين المساس بالخصوصية وحمايتها
مع ذلك، يشدد ليختنشتاين على أن ليس كل كشف للمستندات يتم تلقائيًا، ويوضح: “أولًا، سيتعين إقناع المحكمة بأن الإرشاد (أو التعليمات) ذات صلة بالنزاع القضائي، وأنه لا يمكن الحصول على هذه المعلومات بطريقة تمس الخصوصية بدرجة أقل. في النهاية، ستُجرى موازنة بين مدى الكشف والمساس بالخصوصية من جهة، وبين مصلحة حماية الخصوصية من جهة أخرى”.
في الوقت الحالي، لا يوجد أي تشريع يمنح حصانة أو سرية للمحادثات مع الذكاء الاصطناعي، على الأقل ليس في إسرائيل. ويضيف ليختنشتاين: “السرية العلاجية (كالمعمول بها لدى الأطباء أو الأخصائيين النفسيين) تحمي مصلحة معينة ترى الدولة أهمية في حمايتها. أما الحديث المفتوح والحر مع الذكاء الاصطناعي، فلا يُعد في الوقت الراهن مصلحة ترى الدولة ضرورة لحمايتها. بل على العكس، يجب عليك التفكير مرتين قبل أن تخبر الذكاء الاصطناعي بأي شيء“.
الخلفية: دعوى قضائية
تحذير سام ألتمان يأتي على خلفية دعوى قضائية رفعتها نيويورك تايمز ضد شركتي OpenAI ومايكروسوفت في ديسمبر 2023، زُعم خلالها أن OpenAI استخدمت ملايين المقالات من الصحيفة دون إذن لتدريب نموذج ChatGPT، ما يعني وفقًا للصحيفة انتهاكًا واسع النطاق لحقوق التأليف والنشر. وطالبت الصحيفة بتعويض مالي، وكذلك بـ”إزالة جميع نماذج GPT أو أي نماذج لغوية كبيرة (LLM) أخرى ومجموعات تدريب تحتوي على أعمال تعود إلى نيويورك تايمز”. في المقابل، جادل محامو مايكروسوفت، الشريك الأكبر لـ OpenAI، بأن الاستخدام يقع ضمن مبدأ “الاستخدام العادل” الذي يكفله قانون حقوق التأليف والنشر.
كجزء من الإجراءات القضائية، ألزمَت المحكمة شركة OpenAI بالاحتفاظ بجميع محتويات المستخدمين دون تحديد مدة زمنية، بما في ذلك المحادثات التي تم حذفها والتي عادةً ما كانت تُزال من الأنظمة خلال 30 يومًا. شركة OpenAI اعترضت على هذا القرار، لكنه ما زال ساري المفعول حتى لحظة كتابة هذه السطور، ما يعني أن OpenAI تحتفظ الآن بكامل سجل محادثات جميع المستخدمين، وقد تُضطر للكشف عنه بموجب أمر قضائي.
إلى أن يتم تنظيم مسألة الخصوصية مع الذكاء الاصطناعي قانونيًا، إن حدث ذلك أصلاً، فإن التوصية واضحة: يجب التعامل مع المحادثات مع ChatGPT كما هو الحال مع أي تواصل رقمي غير آمن، وذلك بأقصى درجات الحذر.
First published: 22:36, 29.07.25