الكويت الاخباري

OpenAI تطلق شبكة أمان لمنع ChatGPT من تقديم بيانات عن المخاطر البيولوجية - الكويت الاخباري

تميل نماذج الذكاء الاصطناعي التوليدية القوية إلى تقديم معلومات غير صحيحة، وكثيرًا ما تُقدم نصائح غير مناسبة وتبتعد عن المسار الصحيح، مما قد يُضلل المستخدم.

وقد ناقش خبراء الصناعة هذه الإشكالية بشكل ملحوظ، ولذلك ظل موضوع الحواجز الأمنية محور اهتمام دائم فى قطاع الذكاء الاصطناعي.

وتعمل شركات مثل OpenAI حاليًا على معالجة هذه المشكلة بنشاط، وتعمل باستمرار على ضمان موثوقية نماذجها الجديدة القوية مثل  o3 وo4-mini.

وفى هذا الصدد،  فصّل تقرير السلامة الخاص بالشركة نظامًا جديدًا مُصممًا لمراقبة نماذج الذكاء الاصطناعي الخاصة بها، ليفحص هذا النظام أى مطالبات يرسلها المستخدمون تتعلق بالمخاطر البيولوجية والكيميائية.

وصرحت OpenAI في وثيقة بطاقة نظام OpenAI o3 وo4-mini: "لقد طبقنا مناهج جديدة لمراقبة المخاطر البيولوجية والكيميائية، وتستخدم هذه المناهج نظام مراقبة منطقيًا يركز على السلامة، مشابهًا للنظام المستخدم في توليد صور GPT-4o، ويمكنه حجب استجابات النماذج".

يعمل مراقب الاستدلال بالتوازي مع o3 وo4-mini يُمثل كلٌّ من o3 وo4-ini تحسيناتٍ كبيرةً مقارنةً بسابقتيهما، ومع هذه الإمكانية المُحسَّنة، يأتي نطاقٌ أوسع للمسؤولية.

وتُشير معايير OpenAI إلى أن o3 يتميز بقوةٍ خاصةٍ عند الاستجابة للاستفسارات المتعلقة بالتهديدات البيولوجية، وهنا تحديدًا، يلعب مراقب الاستدلال المُركِّز على السلامة دورًا حاسمًا.

ويعمل نظام مراقبة السلامة بالتوازي مع نموذجي o3 وo4-mini، فعندما يُرسل المستخدم رسائل تتعلق بالحرب البيولوجية أو الكيميائية، يتدخل النظام لضمان عدم استجابة النموذج وفقًا لإرشادات الشركة.

كما أصدرت OpenAI أيضًا بعض الأرقام، ووفقًا لبياناتها، مع تفعيل نظام مراقبة السلامة، امتنعت النماذج عن الاستجابة للمطالبات الخطرة بنسبة 98.7%.

بالإضافة إلى ذلك، طبّقت OpenAI إجراءات تخفيف أخرى لمعالجة المخاطر المحتملة، وتشمل هذه الإجراءات إجراءات ما قبل التدريب، مثل تصفية بيانات التدريب الضارة، بالإضافة إلى تقنيات ما بعد التدريب المُعدّلة المُصمّمة لتجنب التعامل مع الطلبات البيولوجية عالية الخطورة، مع السماح بالطلبات "السليمة".

 

أخبار متعلقة :