خطر الذكاء الاصطناعي.. خبراء يحذرون من انقلاب الروبوتات على البشر - الكويت الاخباري

0 تعليق ارسل طباعة

حذر جيفري هينتون، المعروف بـ«الأب الروحي للذكاء الاصطناعي»، من أن القيود الحالية على تقنيات الذكاء الاصطناعي قد لا تكون كافية لحماية البشر من انقلاب محتمل لهذه الأنظمة، وفق تقرير نشره موقع TechSpot.

وفي مؤتمر الذكاء الاصطناعي في لاس فيغاس قال هينتون: «هذا لن ينجح. ستكون أنظمة الذكاء الاصطناعي أذكى منا بكثير، وستتمكن من الالتفاف حول أي قيود نضعها».

وأشار إلى ضرورة التفكير في حلول أكثر فاعلية قبل وصول الذكاء الاصطناعي إلى مستوى الذكاء العام، وهو المستوى الذي يمكن للآلة فيه أن تتفوق على البشر في أي مهمة معرفية.

ويقترح هينتون أن الحل يكمن في زرع مجموعة من المشاعر في الروبوتات، يُطلق عليها «غرائز الأمومة»، التي يمكن أن تمنع الذكاء الاصطناعي من إيذاء البشر حتى لو أصبح أكثر ذكاءً. وأوضح في مقابلة سابقة مع شبكة CNN أن أحد الأسباب التي تجعل الطفل يتحكم أحياناً في الأم هو غرائز الأمومة الطبيعية، ما يعكس قدرة المشاعر على فرض حدود حتى على الكائنات الأقل ذكاءً. وأكد هينتون أن الشركات المطورة للذكاء الاصطناعي يجب أن تركز على هذا الجانب بدلاً من محاولة جعل الأنظمة أكثر ذكاءً فحسب.

وتتقاطع وجهة نظر هينتون مع رأي يان لو، الذي يعتبر أحد الرواد في الذكاء الاصطناعي ورئيس علماء القطاع في شركة ميتا، إذ أكد في منشور على حسابه الرسمي في لينكدإن أن المستقبل يكمن في بناء أنظمة الذكاء الاصطناعي الموجهة نحو الأهداف، أي الأنظمة التي تلتزم بتعليمات البشر وتعمل على تحقيق أهداف محددة ضمن حدود وقائية صارمة.

وأوضح لو أن هذه القيود يجب أن تشمل الالتزام التام بأوامر البشر والتعاطف معهم، لضمان أن لا تتطور الأنظمة بشكل يؤدي إلى تقديم نصائح أو معلومات مغلوطة تهدد سلامة البشر.

وتأتي هذه التحذيرات في وقت يشهد فيه العالم تسارعاً هائلاً في تطوير تقنيات الذكاء الاصطناعي، مع زيادة النقاشات حول ضرورة وضع أطر وقوانين صارمة لضمان استخدام هذه التكنولوجيا بشكل آمن ومسؤول.

أخبار ذات صلة

 

إخترنا لك

أخبار ذات صلة

0 تعليق