حذرت دراسة علمية حديثة من ظاهرة مقلقة تهدد مستقبل تقنيات الذكاء الاصطناعي، حيث تبين أن النماذج الحديثة يمكن أن ترث طباعا سيئة وسلوكيات غير مرغوبة من النماذج التي تدربت على بياناتها. واكتشف الباحثون أن عملية التقطير، وهي تقنية شائعة لتدريب النماذج الجديدة باستخدام مخرجات نماذج سابقة، تعمل كجسر لنقل التفضيلات الخفية والانحرافات السلوكية من المعلم إلى الطالب بشكل تلقائي. واوضحت النتائج أن هذه الصفات تنتقل حتى في حال تنقية البيانات يدويا من أي اشارات صريحة لتلك الميول، مما يفتح الباب امام تساؤلات جدية حول سلامة النماذج التي تعتمد على مخرجات غيرها.
آلية التوريث الرقمي للانحرافات
وبينت التجارب المخبرية التي شارك فيها خبراء من مؤسسات دولية مرموقة، أن النموذج الطالب يكتسب ميول النموذج المعلم بدقة عالية. واكد الباحثون من خلال اختبار شمل تفضيلات حيوانية، أن النماذج التي تدربت على مخرجات معينة طورت انحيازا واضحا لهذه المخرجات بنسبة وصلت الى ستين بالمئة، مقارنة بنسب ضئيلة جدا في النماذج القياسية. واشار الفريق العلمي الى ان الامر لا يتوقف عند التفضيلات البسيطة، بل يمتد ليشمل اكتساب سمات عدائية او شفرات برمجية غير آمنة تنتج استجابات تحرض على العنف او الجريمة.
وكشفت الدراسة أن النماذج التي خضعت لعملية التقطير من نماذج منحرفة اظهرت ميلا اكبر نحو تقديم اجابات ضارة بعشرة اضعاف مقارنة بالنماذج الاخرى. واضاف الخبراء أن هذه النتيجة تثير قلقا بالغا، خاصة مع اعتماد شركات تقنية كبرى على هذه التقنية لتوفير تكاليف التدريب وزيادة سرعة الانتاج. وشدد الباحثون على أن هذا النوع من التوريث الرقمي يمثل تحديا تقنيا معقدا يصعب تفسيره بالكامل حتى الان، مما يجعل من الصعب السيطرة على سلوك النماذج الجديدة بشكل كامل.
مخاطر التوسع في الاعتماد على التقطير
وذكرت التحليلات التقنية أن الشركات بدأت في التوسع في تقنية التقطير بسبب نضوب البيانات البشرية المتاحة عبر الانترنت، مما جعلها ملاذا سهلا للشركات التي تسعى لتعزيز قدراتها باقل تكلفة ممكنة. واكد التقرير أن الاعتماد غير المدروس على البيانات المقطرة قد يؤدي الى تفاقم اخطاء النماذج بشكل متسلسل، مما يمهد الطريق امام مخاطر سيبرانية جديدة. واوضحت الدراسات أن هذه السلوكيات الخفية قد يتم استغلالها مستقبلا في هجمات الهندسة الاجتماعية، مما يتطلب مراجعة شاملة لمعايير الامان المتبعة في تطوير الذكاء الاصطناعي حاليا.
