عاجل

اعتراف صريح من «شات جي بي تي» حول حقيقة دقة معلوماته - الكويت الاخباري

0 تعليق ارسل طباعة
تم النشر في: 

17 أغسطس 2025, 11:29 صباحاً

نصح نيك تورلي، رئيس «شات جي بي تي» في شركة «OpenAI» بعدم الوثوق في روبوت الدردشة كمصدر رئيسي للمعلومات.

جاء ذلك بعد تجارب لمستخدمين أثبتت بالفعل أن روبوت الدردشة "شات جي بي تي" لا يمكن الوثوق به كمصدر للمعلومات، وفق «العربية».

وتابع، «فيما يتعلق بالموثوقية توجد فجوة كبيرة بين الموثوقية العالية والموثوقية بنسبة 100%، من حيث طريقة تصور المنتج».

وتابع أن التأكد من أننا أكثر موثوقية من خبير بشري في جميع المجالات، وليس فقط في بعضها، يقودنا إلى الاستمرار في نصح المستخدم بالتحقق من الإجابة.

وأكمل، أن الناس سيستمرون في الاستفادة من شات جي بي تي كرأي ثانٍ، بدلًا من أن يكون بالضرورة مصدرهم الأساسي للحقائق».

وواصل «تورلي» إن "GPT-5"، أحدث نموذج لغوي كبير يُشغل شات جي بي تي، يُمثل تحسنًا هائلًا فيما يتعلق بالهلوسة، لكنه لا يزال بعيدًا عن الكمال، متابعا «أنا واثق من أننا سنحل مشكلة الهلوسات في نهاية المطاف وواثق من أننا لن نحقق ذلك في الربع المقبل».

يذكر أنه ببدء محادثة مع «شات جي بي تي»، يلاحظ المستخدم نصًا أسفل الشاشة مفاده: «قد يخطئ شات جي بي تي. تحقق من المعلومات المهمة»، ويستمر ظهور التنبيه حتى مع أحدث نموذج ذكاء اصطناعي من "OpenAI" وهو "GPT-5".

وتعود المشكلة إلى أنه من المغري للغاية بالنسبة للمستخدمين أخذ إجابة روبوت الدردشة -أو ملخصات الذكاء الاصطناعي بواسطة ميزة "AI Overviews" في نتائج بحث جوجل- كما هي دون القيام بمزيد من التحقق.

يأتي هذا بينما تميل أدوات الذكاء الاصطناعي التوليدية -وليس "شات جي بي تي" فقط- إلى "الهلوسة" أو اختلاق المعلومات، لأنها مصممة بالأساس للتنبؤ بإجابة أي استفسار، بناءً على معلومات موجودة ببيانات تدريبها، لذلك تفتقر إلى فهم دقيق للحقيقة.

وحال التحدث إلى طبيب أو معالج نفسي أو مستشار مالي، فمن المفترض أن يكون هذا الشخص قادرًا على إعطائك الإجابة الصحيحة لحالة المستفيد، وليس فقط الإجابة الأكثر ترجيحًا. لكن الذكاء الاصطناعي، في الغالب، يمنح الإجابة التي يُحدد أنها على الأرجح صحيحة، دون خبرة محددة في مجال معين للتحقق منها.

وعلى الرغم من ذلك، يجب التحقق من المعلومات التي يقدمها نموذج "GPT-5"، حيث أكد مستخدمون أنه يرتكب بعض الأخطاء.

إخترنا لك

أخبار ذات صلة

0 تعليق