مدير “أسوأ مخاوف” شركة الذكاء الاصطناعي مقلق أكثر من خدعة حزب مجلس الشيوخ المخيفة | أخبار الولايات المتحدة

تكنولوجيا

[ad_1]

عادة عندما يمثل ممثلو شركات التكنولوجيا أمام مجلس الشيوخ الأمريكي ، فإنهم يميلون إلى معارضة احتمال التنظيم ، ومقاومة الإيحاء بأن تقنيتهم ​​تلحق الضرر.

وهذا ما جعل هذه اللجنة تستمع منظمة العفو الدولية شيء نادر.

اعترف سام ألتمان ، الرئيس التنفيذي لشركة OpenAI – الشركة التي أنشأت ChatGPT و GPT4 ، أحد أكبر وأقوى أنظمة الذكاء الاصطناعي اللغوية في العالم – يوم الثلاثاء: “إن أسوأ مخاوفي هي أننا … عالم.”

ومضى يقول إن “التدخل التنظيمي من قبل الحكومة سيكون حاسمًا للتخفيف من مخاطر النماذج المتزايدة القوة”.

كان هذا بالطبع موضع ترحيب في آذان الساسة الأمريكيين القلقين.

بدأت جلسة الاستماع حول الذكاء الاصطناعي ببيان مسجل مسبقًا من السناتور الديمقراطي ريتشارد بلومنتال يتحدث عن الفوائد المحتملة ولكن أيضًا المخاطر الجسيمة للتكنولوجيا.

لكن لم يكن يتحدث – لقد كان ذكاءً اصطناعيًا تم تدريبه على تسجيلات خطبه ، وقراءة بيان تم إنشاؤه بواسطة GPT4.

المزيد عن الذكاء الاصطناعي

من بين تلك الحيل المخيفة للحفلات التي تجعلنا الذكاء الاصطناعي على دراية بها بشكل متزايد.

الرجاء استخدام متصفح Chrome لمشغل فيديو يسهل الوصول إليه

يستخدم خطاب الذكاء الاصطناعي لفتح جلسة استماع في مجلس الشيوخ

كان أعضاء مجلس الشيوخ قلقين – ليس فقط بشأن سلامة الأفراد الواقعين تحت رحمة الإعلانات التي يتم إنشاؤها بواسطة الذكاء الاصطناعي ، أو المعلومات المضللة ، أو الاحتيال المباشر – ولكن من أجل الديمقراطية نفسها.

ما الذي يمكن أن تفعله منظمة العفو الدولية ، المدربة على التأثير بعناية في الآراء السياسية لمجموعات الناخبين المستهدفة ، في الانتخابات؟

قال ألتمان من منظمة Open AI إن هذا كان أحد أكبر مخاوفه أيضًا.

في الواقع ، وافق تقريبًا على جميع المخاوف التي عبر عنها أعضاء مجلس الشيوخ.

كانت نقطة الاختلاف الوحيدة لديه أنه كان مقتنعًا بأن الفوائد ستفوق أي مخاطر.

السناتور ريتشارد بلومنتال وسام التمان
صورة:
السناتور ريتشارد بلومنتال وسام التمان. الموافقة المسبقة عن علم: AP

مصدر إلهام غير متوقع للتحكم في الذكاء الاصطناعي

حسنًا ، إذا كانوا جميعًا متفقين ، كيف تنظم الذكاء الاصطناعي؟

كيف ، في الواقع ، هل تكتب قوانين لتقييد تقنية حتى منشئوها الذين لم يفهموا تمامًا بعد؟

إنه سؤال يكافح الاتحاد الأوروبي من أجله الآن بالنظر إلى مقياس متدرج من التنظيم بناءً على مخاطر مكان استخدام الذكاء الاصطناعي.

الرعاية الصحية والخدمات المصرفية ستكون عالية المخاطر ؛ الصناعات الإبداعية ، أقل.

اليوم ، حصلنا على نظرة ثاقبة مثيرة للاهتمام حول كيفية قيام الولايات المتحدة بذلك: ملصقات الطعام.

سأل السناتور بلومنتال ، هل ينبغي فحص نماذج الذكاء الاصطناعي المستقبلية – مهما كان الغرض منها – من قبل مختبرات اختبار مستقلة وتصنيفها وفقًا لمحتواها الغذائي؟

السناتور ريتشارد بلومنتال
صورة:
السناتور ريتشارد بلومنتال. الموافقة المسبقة عن علم: AP

التغذية ، في هذه الحالة ، هي البيانات التي تتغذى بها النماذج.

هل هو نظام غذائي غير مرغوب فيه لجميع المعلومات الموجودة على الإنترنت – مثل GPT4 و Bard AI من Google – التي تم التدريب عليها؟

أم أنها بيانات عالية الجودة من نظام رعاية صحية أو إحصائيات حكومية؟

وما مدى موثوقية نتائج نماذج الذكاء الاصطناعي التي تم تغذيتها بهذه البيانات ، حتى لو كانت عضوية وخالية النطاق؟

اقرأ أكثر:
جيفري هينتون: من هو الأب الروحي للذكاء الاصطناعي؟
رئيس Google ، سوندار بيتشاي ، يعترف بأن مخاطر الذكاء الاصطناعي “ تجعلني مستيقظًا طوال الليل ”

صورة الملف: يظهر شعار OpenAI في هذا الرسم التوضيحي الذي تم التقاطه في 3 فبراير 2023. REUTERS / Dado Ruvic / Illustration / File Photo
صورة:
شعار OpenAI

سؤال يلوح في الأفق للثقة في الذكاء الاصطناعي

قال ألتمان إنه يتفق مع فكرة السناتور ويتطلع إلى المستقبل عندما تكون هناك شفافية كافية للجمهور والمنظمين لمعرفة ما بداخل الذكاء الاصطناعي.

لكن هنا يكمن التناقض في دليل ألتمان. والسؤال الذي يلوح في الأفق عندما يتعلق الأمر بتنظيم الذكاء الاصطناعي.

في حين أنه شارك ما هي بلا شك معتقداته الراسخة ، فإن الطريقة التي يتم بها نشر الذكاء الاصطناعي والآخرين في الوقت الحالي لا تعكس ذلك.

تمتلك شركة OpenAI صفقة بمليارات الدولارات مع Microsoft والتي قامت بتضمين GPT4 في محرك البحث Bing الخاص بها لمنافسة شركة Bard AI من Google.

نحن لا نعرف سوى القليل عن كيفية إدارة أنظمة الذكاء الاصطناعي هذه لنظامهم الغذائي للوجبات السريعة أو مدى جدارة قلسهم بالثقة.

هل كان ممثلو هذه الشركات سيتخذون موقفاً مختلفاً من مسألة التنظيم لو كانوا قد جلسوا أمام اللجنة؟

في الوقت الحالي ، تقاوم شركات التكنولوجيا الكبرى الأخرى محاولات تنظيم منتجاتها على وسائل التواصل الاجتماعي.

ميزتهم الرئيسية ، لا سيما في الولايات المتحدة ، هي قوانين التعديل الأول التي تحمي حرية التعبير.

سؤال مثير للاهتمام لخبير دستوري أمريكي هو ما إذا كان للذكاء الاصطناعي الحق في حرية التعبير؟

إذا لم يكن الأمر كذلك ، فهل يقول العديد من صانعي الذكاء الاصطناعي إن اللوائح التنظيمية التي يريدون رؤيتها ستكون أسهل في التنفيذ؟

[ad_2]