[ad_1]
إن الارتفاع السريع للذكاء الاصطناعي (AI) لا يثير مخاوف المجتمعات والمشرعين فحسب ، بل يثير أيضًا مخاوف بعض قادة التكنولوجيا في صميم تطوره.
بعض الخبراء ، بما في ذلك “الأب الروحي للذكاء الاصطناعي” جيفري هينتون، حذروا من أن الذكاء الاصطناعي يطرح نفس الشيء خطر الانقراض البشري مثل الأوبئة والحرب النووية.
من رئيس الشركة التي تقف وراء ChatGPT إلى رئيس مختبر الذكاء الاصطناعي في Google ، قال أكثر من 350 شخصًا إن التخفيف من “خطر الانقراض من الذكاء الاصطناعي” يجب أن يكون “أولوية عالمية”.
بينما يمكن للذكاء الاصطناعي أداء مهام تنقذ الحياة ، مثل الخوارزميات التي تحلل الصور الطبية مثل الأشعة السينية والمسح الضوئي والموجات فوق الصوتية ، فإن قدراتها سريعة النمو واستخدامها على نطاق واسع أثار مخاوف.
نلقي نظرة على بعض أهمها – ولماذا يقول النقاد إن بعض هذه المخاوف تذهب بعيدًا.
المعلومات المضللة والصور المعدلة بالذكاء الاصطناعي
انتشرت تطبيقات الذكاء الاصطناعي على مواقع التواصل الاجتماعي ، حيث نشر المستخدمون صورًا مزيفة للمشاهير والسياسيين ، والطلاب يستخدمون ChatGPT و “نماذج تعلم اللغة” الأخرى لإنشاء مقالات على مستوى الجامعة.
واحد عام القلق بشأن الذكاء الاصطناعي وتطوره هو المعلومات الخاطئة التي يولدها الذكاء الاصطناعي وكيف يمكن أن تسبب الارتباك عبر الإنترنت.
قال العالم البريطاني البروفيسور ستيوارت راسل إن أحد أكبر المخاوف هو المعلومات المضللة وما يسمى بالتزييف العميق.
هذه مقاطع فيديو أو صور لشخص تم فيها تغيير وجهه أو جسده رقميًا بحيث يبدو أنه شخص آخر – وعادة ما يتم استخدامه بشكل ضار أو لنشر معلومات كاذبة.
قال البروفيسور راسل على الرغم من أن المعلومات المضللة كانت موجودة منذ فترة طويلة لأغراض “الدعاية” ، فإن الاختلاف الآن هو أنه ، باستخدام Sophy Ridge كمثال ، يمكنه أن يطلب chatbot عبر الإنترنت GPT-4 ، لمحاولة “التلاعب” بها حتى تكون “أقل دعما لأوكرانيا”.
في الأسبوع الماضي ، صورة مزيفة يبدو أنه يظهر انفجارا بالقرب من البنتاغون انتشر لفترة وجيزة على وسائل التواصل الاجتماعي وترك مراقبي الحقائق وخدمة الإطفاء المحلية يتدافعون لمواجهة هذا الادعاء.
يبدو أن الصورة ، التي يُزعم أنها تظهر سحابة كبيرة من الدخان الأسود بجوار مقر وزارة الدفاع الأمريكية ، تم إنشاؤها باستخدام تقنية الذكاء الاصطناعي.
تم نشره لأول مرة على Twitter وتمت إعادة تعميمه بسرعة من خلال حسابات إخبارية تم التحقق منها ، لكنها مزيفة. لكن مدققي الحقائق سرعان ما أثبتوا عدم حدوث انفجار في البنتاغون.
لكن يتم اتخاذ بعض الإجراءات. في نوفمبر / تشرين الثاني ، أكدت الحكومة أن مشاركة “التزييف العميق” للمواد الإباحية دون موافقة ستُعد جرائم بموجب التشريع الجديد.
تجاوز الذكاء البشري
تتضمن أنظمة الذكاء الاصطناعي محاكاة الآلات لعمليات الذكاء البشري – ولكن هل هناك خطر قد يتطور إلى الحد الذي يتجاوز فيه التحكم البشري؟
أخبر البروفيسور أندرو بريجز من جامعة أكسفورد سكاي نيوز أن هناك خوفًا من أن تصبح الآلات أكثر قوة في اليوم “الذي قد يأتي” حيث تتجاوز قدرتها قدرة البشر.
قال: “في الوقت الحالي ، مهما كانت الآلة مبرمجة للتحسين ، يتم اختياره من قبل البشر وقد يتم اختياره للضرر أو اختياره للأبد. في الوقت الحالي ، يقرر ذلك الإنسان.
“الخوف هو أنه عندما تصبح الآلات أكثر ذكاءً وقوة ، فقد يأتي اليوم الذي تتجاوز فيه السعة بشكل كبير قدرة البشر ويفقد البشر القدرة على البقاء مسيطرين على ما تسعى الآلة إلى تحسينه”.
اقرأ أكثر:
ما هو GPT-4 وكيف يتم تحسينه؟
وقال إن هذا هو سبب أهمية “الاهتمام” بإمكانيات الضرر وأضاف أنه “ليس من الواضح لي أو لأي منا أن الحكومات تعرف حقًا كيفية تنظيم ذلك بطريقة آمنة”.
ولكن هناك أيضًا مجموعة من المخاوف الأخرى حول الذكاء الاصطناعي – بما في ذلك تأثيره على التعليم ، مع رفع الخبراء التحذيرات حول المقالات والوظائف.
فقط آخر تحذير
من بين الموقعين على بيان مركز أمان الذكاء الاصطناعي السيد هينتون ويوشوا بنجيو – اثنان من الثلاثة الذين يطلق عليهم “عرابون الذكاء الاصطناعي” الذين حصلوا على جائزة تورينج لعام 2018 لعملهم في التعلم العميق.
لكن تحذير اليوم ليس المرة الأولى التي نرى فيها خبراء تقنيين يثيرون مخاوف بشأن تطوير الذكاء الاصطناعي.
في مارس ايلون المسك ومجموعة من خبراء الذكاء الاصطناعي دعا إلى وقف تدريب أنظمة الذكاء الاصطناعي القوية بسبب المخاطر المحتملة على المجتمع والبشرية.
وحذر الخطاب ، الذي أصدره معهد Future of Life غير الربحي ووقعه أكثر من 1000 شخص ، من المخاطر المحتملة على المجتمع والحضارة من خلال أنظمة الذكاء الاصطناعي التنافسية البشرية في شكل اضطرابات اقتصادية وسياسية.
ودعت إلى توقف لمدة ستة أشهر لـ “السباق الخطير” لتطوير أنظمة أقوى من GPT-4 التي تم إطلاقها حديثًا من OpenAI.
في وقت سابق من هذا الأسبوع ، كما التقى ريشي سوناك مع الرئيس التنفيذي لجوجل لمناقشة “تحقيق التوازن الصحيح” بين تنظيم الذكاء الاصطناعي والابتكار. قال داونينج ستريت إن رئيس الوزراء تحدث إلى سوندار بيتشاي حول أهمية ضمان وجود “قضبان الحماية” الصحيحة لضمان سلامة التكنولوجيا.
هل التحذيرات “هراء”؟
على الرغم من أن بعض الخبراء يتفقون مع بيان مركز أمان الذكاء الاصطناعي ، فقد وصف آخرون في هذا المجال فكرة “إنهاء الحضارة الإنسانية” بأنها “هراء”.
غرد بيدرو دومينغوس ، أستاذ علوم الكمبيوتر والهندسة بجامعة واشنطن: “تذكير: يعتقد معظم باحثي الذكاء الاصطناعي أن فكرة إنهاء الحضارة البشرية بالذكاء الاصطناعي هي هراء”.
ورد السيد هينتون متسائلاً عن خطة دومينغوس للتأكد من أن الذكاء الاصطناعي “لا يتلاعب بنا لمنحه السيطرة”.
أجاب البروفيسور: “أنت يتم التلاعب بك كل يوم من قبل أشخاص ليسوا أذكياء مثلك ، لكنك بطريقة ما لا تزال بخير. فلماذا القلق الكبير بشأن الذكاء الاصطناعي على وجه الخصوص؟”
[ad_2]