تصاعدت التحذيرات القانونية في الولايات المتحدة الامريكية من مغبة استخدام ادوات الدردشة المدعومة بالذكاء الاصطناعي في تدوين الملاحظات او كتابة المرافعات. واظهرت تقارير حديثة ان هذه المحادثات التي يجريها الافراد مع نماذج مثل شات جي بي تي وجيميناي قد تتحول الى ادلة ادانة ضدهم داخل اروقة المحاكم. واكد خبراء قانونيون ان ظن المستخدمين بان هذه الدردشات محمية بالسرية هو اعتقاد خاطئ تماما حيث يتم تخزين البيانات لاستخدامها في تطوير الخوارزميات وهو ما يتيح للشركات المطورة استرجاعها وتقديمها عند الطلب القضائي.

واضافت المحامية الكسندريا غوتيريز سويت ان الحذر اصبح ضرورة قصوى عند التعامل مع اي منصة ذكاء اصطناعي مهما كانت سمعة الشركة المطورة لها. واوضحت ان المعلومات التي يشاركها الموكلون مع هذه الادوات تفتقر الى الحماية القانونية التي تمنحها علاقة المحامي بموكله. وبينت ان شركات المحاماة بدأت بالفعل في اصدار توجيهات صارمة لعملائها بضرورة تجنب مشاركة اي مراسلات رسمية او استشارات قانونية مع هذه التقنيات لمنع تسربها او كشفها في القضايا المستقبلية.

وشددت الاوساط القانونية على ضرورة فهم طبيعة عمل هذه الانظمة التي لا تفرق بين البيانات الحساسة والمعلومات العامة. واكدت ان التخزين السحابي للمحادثات يجعلها عرضة للاستدعاء القانوني في اي وقت. واوضحت ان هذا الوضع يضع المستخدمين امام مخاطر كبيرة تتعلق بخصوصية ملفاتهم القضائية التي قد تصبح جزءا من قواعد بيانات الشركات التقنية الكبرى.

تخبط قضائي وقرارات حاسمة

وكشفت التطورات الاخيرة داخل المحاكم الامريكية عن وجود حالة من التخبط في التعامل مع الادلة المستمدة من الذكاء الاصطناعي. واظهر قرار القاضي الفيدرالي جيد راكوف في مانهاتن توجها حاسما بعد ان امر بتسليم مستندات مولدها الذكاء الاصطناعي لاحد رجال الاعمال. واكد القاضي في حكمه ان العلاقة بين المستخدم والذكاء الاصطناعي لا ترقى ابدا الى مستوى السرية المهنية التي يتمتع بها المحامون.

واضاف القاضي في حيثيات حكمه ان منصات الذكاء الاصطناعي لا تقع ضمن نطاق الحماية القانونية للموكلين. وبين ان القضية التي تورط فيها رجل الاعمال برادلي هيبنر بعد مشاركته اسرار عمله مع اداة كلود تعكس الفجوة الكبيرة بين التطور التقني والتشريعات الحالية. واكد ان هذا الحكم قد يمثل سابقة قضائية تنهي اي محاولات لاعتبار المحادثات مع الآلات سرية.

واظهرت وقائع اخرى في ولاية ميشيغان نهجا مختلفا حيث رفض القاضي انتوني باتي الاعتراف بمحادثات الذكاء الاصطناعي كادلة شاهد. واوضح ان هذه المحادثات تعتبر مجرد اداة عمل للمدعية وليست طرفا مستقلا يمكن استجوابه. واكد ان هذا التباين في القرارات القضائية يزيد من حالة عدم اليقين لدى المحامين والموكلين على حد سواء.

ازمة التشريعات في عصر الآلة

وتسببت طفرة الذكاء الاصطناعي في وضع المشرعين امام تحديات غير مسبوقة تتعلق بضبط استخدام هذه التقنيات في القضايا. واكد قانونيون ان الاعتماد المفرط على الذكاء الاصطناعي في صياغة المرافعات ادى الى ظهور اخطاء قانونية فادحة. وبينت ان بعض القضايا شهدت مرافعات وهمية بالكامل ولدت بواسطة الخوارزميات مما استدعى تدخلات رقابية لمنع حدوث خروقات اخلاقية.

واضافت شركات المحاماة ان الحل يكمن في فرض قيود صارمة على استخدام هذه الادوات. واكدت ان اي استعانة بالذكاء الاصطناعي يجب ان تكون تحت اشراف مباشر من المحامي وبتوجيهات واضحة تضمن عدم المساس بسرية المعلومات. وبينت ان التوعية بالمخاطر التقنية اصبحت جزءا لا يتجزأ من مهام المحامي المعاصر لحماية حقوق موكليه من التسريبات الرقمية.

واكد الخبراء ان المرحلة المقبلة ستشهد صياغة قوانين جديدة تحدد بوضوح مدى قانونية استخدام الذكاء الاصطناعي في العمل القانوني. واوضحت ان التوازن بين الاستفادة من التقنية والحفاظ على سرية المعلومات يظل التحدي الاكبر للمنظومة القضائية في الفترة القادمة. وشددت على ان المحاكم ستظل الطرف الفصل في تحديد ما اذا كانت هذه الادوات خادمة للقانون ام مصدرا للتهديد.