مستشار ريشي سوناك يحذر من أن الذكاء الاصطناعي يمكن أن يساعد في إنتاج أسلحة فتاكة “تقتل البشر” في غضون عامين | أخبار العلوم والتكنولوجيا

تكنولوجيا

[ad_1]

حذر مستشار ريشي سوناك من أن الذكاء الاصطناعي يمكن أن يكون وراء التطورات التي “تقتل الكثير من البشر” في غضون عامين فقط.

أعرب مات كليفورد عن قلقه إزاء عدم وجود تنظيم عالمي ل منظمة العفو الدولية وقال المنتجون إنه إذا تُركوا دون تنظيم ، فقد يصبحون “أقوياء للغاية” ويصعب على البشر السيطرة عليهم ، مما يخلق مخاطر كبيرة على المدى القصير.

وأدلى بالتعليقات في مقابلة مع TalkTV ، مشيرًا إلى إمكانية قيام الذكاء الاصطناعي بصنع أسلحة إلكترونية وبيولوجية خطيرة يمكن أن تؤدي إلى العديد من الوفيات.

وقد شارك عدد لا يحصى من الخبراء في هذا المجال في مثل هذه المخاوف ، كما يتضح من رسالة نُشرت الأسبوع الماضي ، والتي حثت على زيادة الاهتمام والعمل من أجل التخفيف من مخاطر الذكاء الاصطناعي على قدم المساواة مع الأوبئة أو الحرب النووية.

تم توقيع الرسالة التي ترفض الاستخدام الضار للذكاء الاصطناعي من قبل كبار المديرين التنفيذيين من الشركات الرائدة مثل Google DeepMind و Anthropic.

كما أيد جيفري هينتون ، المعروف باسم “الأب الروحي للذكاء الاصطناعي” ، الرسالة ، محذرًا من أنه إذا وقع الذكاء الاصطناعي في الأيدي الخطأ ، فقد يكون ذلك كارثيًا على البشرية.

السيد كليفورد ، رئيس وكالة الأبحاث المتقدمة والاختراع (ARIA) ، يقدم حاليًا المشورة لرئيس الوزراء بشأن تطوير فريق عمل نموذج التأسيس الحكومي ، والذي يركز على التحقيق في نماذج لغة الذكاء الاصطناعي مثل ChatGPT و Google Bard.

قال كليفورد لـ TalkTV: “أعتقد أن هناك الكثير من أنواع المخاطر المختلفة مع الذكاء الاصطناعي ، وغالبًا ما نتحدث في الصناعة عن المخاطر قصيرة المدى وطويلة المدى ، والمخاطر على المدى القريب مخيفة جدًا في الواقع”.

“يمكنك استخدام الذكاء الاصطناعي اليوم لإنشاء وصفات جديدة للأسلحة البيولوجية أو لشن هجمات إلكترونية على نطاق واسع. هذه أشياء سيئة.

“نوع الخطر الوجودي الذي أعتقد أن كتاب الرسائل يتحدثون عنه هو … حول ما يحدث بمجرد أن نخلق بشكل فعال نوعًا جديدًا ، ذكاء أكبر من البشر.”

أقر كليفورد بأن توقع تجاوز أجهزة الكمبيوتر للذكاء البشري في غضون عامين كان في “النهاية الصاعدة للطيف” ، لكنه قال إن أنظمة الذكاء الاصطناعي تتحسن بسرعة وتزداد قدرتها.

أثناء ظهوره في برنامج First Edition يوم الاثنين ، سُئل عن النسبة المئوية التي سيعطيها عن فرصة القضاء على البشرية بواسطة الذكاء الاصطناعي ، فأجاب: “أعتقد أنه ليس صفرًا”.

وتابع: “إذا عدنا إلى أشياء مثل الأسلحة البيولوجية أو الهجمات الإلكترونية (الهجمات) ، يمكن أن يكون لديك بالفعل تهديدات خطيرة جدًا للبشر يمكن أن تقتل العديد من البشر – وليس كل البشر – ببساطة من حيث نتوقع أن تكون النماذج في غضون عامين ‘ وقت.

“أعتقد أن الشيء الذي يجب التركيز عليه الآن هو كيف نتأكد من أننا نعرف كيفية التحكم في هذه النماذج لأننا لا نفعل ذلك الآن.”

الرجاء استخدام متصفح Chrome لمشغل فيديو يسهل الوصول إليه

تعرف على أول روبوت فائق الواقعية في العالم

وأضاف الخبير التكنولوجي أن إنتاج الذكاء الاصطناعي يحتاج إلى تنظيم على نطاق عالمي – ليس فقط من قبل الحكومات الوطنية.

تأتي التحذيرات بشأن الذكاء الاصطناعي مع انتشار التطبيقات التي تستخدم التكنولوجيا بشكل كبير ، حيث يشارك المستخدمون صورًا مزيفة للمشاهير والسياسيين ، بينما يستخدم الطلاب ChatPGT و “نماذج تعلم اللغة” الأخرى لإنشاء مقالات على مستوى الجامعة.

اقرأ أكثر:
ألقيت Terminator باللائمة على مخاوف الجمهور بشأن الذكاء الاصطناعي
حول وقت التملص: Apple لتعديل وظيفة التصحيح التلقائي لـ iPhone
تعرف على Ai-Da ، أول روبوت بشري في العالم

يتم استخدام الذكاء الاصطناعي أيضًا بطريقة إيجابية – مثل أداء المهام المنقذة للحياة بما في ذلك الخوارزميات التي تحلل الصور الطبية من الأشعة السينية إلى الموجات فوق الصوتية ، وبالتالي مساعدة الأطباء على تحديد وتشخيص الأمراض مثل السرطان وأمراض القلب بشكل أكثر دقة وسرعة.

إذا تم تسخيره بالطريقة الصحيحة ، قال كليفورد إن الذكاء الاصطناعي يمكن أن يكون قوة من أجل الخير.

وقال: “يمكنك أن تتخيل أن الذكاء الاصطناعي يعالج الأمراض ، ويجعل الاقتصاد أكثر إنتاجية ، ويساعدنا في الوصول إلى اقتصاد خالٍ من الكربون”.

لكن حزب العمل يحث الوزراء على منع مطوري التكنولوجيا من العمل على أدوات الذكاء الاصطناعي المتقدمة ما لم يتم منحهم ترخيصًا.

قالت وزيرة الظل الرقمية لوسي باول ، التي من المقرر أن تتحدث في مؤتمر TechUK اليوم ، إن الذكاء الاصطناعي يجب أن يكون مرخصًا بطريقة مماثلة للأدوية أو الطاقة النووية.

وقالت لصحيفة الغارديان: “هذا هو نوع النموذج الذي يجب أن نفكر فيه ، حيث يجب أن يكون لديك ترخيص لبناء هذه النماذج”.

[ad_2]