ثورة الذكاء الاصطناعي السريعة – هل يمكننا مواكبة تنظيمها؟ | أخبار العلوم والتكنولوجيا

تكنولوجيا

[ad_1]

عندما طور جون باربر أول توربين غازي في عام 1791 ، لم يكن لديه تصور عن التحول الذي سيطلقه اختراعه.

بحلول عام 1886 ، بعد ما يقرب من قرن من الابتكارات ، بدأ كارل بنز أول إنتاج تجاري لسيارة تعمل بمحرك احتراق داخلي.

بعد عشر سنوات ، سقط أحد منتجاته في بريدجيت دريسكول بالقرب من كريستال بالاس ، مما جعل المقيم في كرويدون أول شخص في بريطانيا يُقتل بواسطة سيارة.

لم يكن السائق في ذلك اليوم بحاجة إلى رخصة – لم يتم تقديمهم حتى عام 1903 – ولن يحتاجوا إلى اجتياز اختبار القيادة لمدة 32 عامًا أخرى.

بحلول ذلك الوقت ، كان هناك قانون للطرق السريعة (نُشر لأول مرة في عام 1931) تضمن تعليمات للمركبات التي تجرها الخيول ، والتي كانت القيادة تحت تأثير الكحول جريمة قبل ما يقرب من 30 عامًا من تطبيق نفس القواعد على سائقي السيارات.

أحزمة الأمان ، التي خفضت الوفيات إلى النصف ، لم تكن إلزامية في المملكة المتحدة حتى عام 1983.

النقطة المهمة هي أن محرك الاحتراق الداخلي كان عبارة عن تقنية غيرت العالم واستغرق تطويرها عقودًا ، لكن التنظيم الفعال استغرق وقتًا أطول بكثير.

المزيد عن الذكاء الاصطناعي

مثل الرجل الذي يحمل العلم الأحمر الذي دفع له مقابل السير أمام الآلات الجديدة ، ترك المشرعون مختنقين في الغبار مع تقدم الشركات المصنعة وتحويل الاقتصادات على مدرج المطار.

ثورة الذكاء الاصطناعي

اليوم الذكاء الاصطناعي يعد بثورة صناعية مماثلة ، ولكن يمكن قياس وتيرة التطور بالأشهر والسنوات بدلاً من العقود ، ومخترعوها على دراية بالمخاطر.

شهد الشهر الماضي تنبؤات مروعة ، حيث حذر المطورون البارزون من أن الذكاء الاصطناعي “التوليدي” ، القادر على إنتاج نصوص وصور من المحفزات والتعلم أثناء تقدمه ، يشكل خطرًا “مجتمعيًا” مشابهًا للأوبئة والحرب النووية.

وهذا يجعل التنظيم والرقابة أمرًا بالغ الأهمية ، ويقول ريشي سوناك إنها منطقة يريد امتلاكها ، معلناً أن المملكة المتحدة يمكن أن تقود مناقشة دولية.

وسيستضيف “قمة عالمية” في الخريف مع اقتراحات يمكن أن تتبعها وكالة مقرها المملكة المتحدة ، على غرار الرابطة الدولية للطاقة الذرية.

الرجاء استخدام متصفح Chrome لمشغل فيديو يسهل الوصول إليه

الذكاء الاصطناعي يضرب مثل “قطار الشحن”

إلى جانب توفير تغطية مواتية لرحلة رئيس الوزراء إلى واشنطن ، تعد هذه الخطوة جزءًا من طموح أوسع لوضع المملكة المتحدة كمركز للذكاء الاصطناعي ، وجعل الابتكار الرقمي أولوية لتحقيق النمو.

وهو يرى في التنظيم فرصة أيضًا ، على الرغم من أن الشكل الذي قد يبدو عليه في الممارسة أقل وضوحًا بكثير.

نحن نعلم أنه في شهر آذار (مارس) الماضي ، كانت الحكومة عازمة على اتباع طراز السيارة.

في كتاب أبيض ، قالت إنها ستركز “على استخدام الذكاء الاصطناعي بدلاً من التكنولوجيا نفسها” من أجل “السماح للتطبيق المسؤول للذكاء الاصطناعي بالازدهار”.

تنظيم الذكاء الاصطناعي

بدلاً من تمرير قوانين للحد من التكنولوجيا ، سوف يقوم المنظمون الحاليون بمراقبة تطبيقها في مناطقهم ، والعمل مع المطورين لوضع حدود مقبولة.

لذا بدلاً من إنشاء هيئة مركزية للذكاء الاصطناعي ، سيشرف المنظمون الطبيون على استخدامه في التشخيصات ، وستظل Ofcom مسؤولة عن مراقبة المعلومات الخاطئة الناتجة عن الآلات عبر الإنترنت ، ومكتب الطرق والسكك الحديدية ما إذا كان من الآمن للذكاء الاصطناعي تحليل عمليات التفتيش على البنية التحتية للنقل.

ينطبق هذا النموذج بالفعل بشكل فعال في الصناعات التي يتم فيها استخدام الذكاء الاصطناعي التوليدي.

تستخدم شركة Octopus للطاقة أداة الذكاء الاصطناعي للرد على أكثر من 40٪ من مراسلات العملاء ، ولكن للامتثال لقانون حماية البيانات ، فإنها تجرد جميع البيانات الشخصية من رسائل البريد الإلكتروني قبل أن يقرأها الذكاء الاصطناعي.

وبدا أن السيد سوناك ذهب إلى أبعد من ذلك في الأسابيع الأخيرة ، حيث تحدث عن الحاجة إلى “حواجز حماية” لتوجيه الذكاء الاصطناعي ، وهناك مخاوف بالفعل من تخلف المنظمين عن الركب.

يعتقد مؤتمر نقابات العمال (TUC) أن قوانين إعادة التوظيف الأكثر صرامة مطلوبة بالفعل. يتم استخدام الذكاء الاصطناعي بالفعل من قبل أرباب العمل لفحص طلبات التوظيف ، وفي بعض الحالات ، تعتقد النقابات ، اتخاذ قرارات التوظيف والفصل.

إنهم يريدون أن يكون لكل شخص حق قانوني في استئناف القرارات أمام الإنسان بدلاً من الاعتماد على حكم الآلة ، لأسباب ليس أقلها احتمال أن تصبح التحيزات والأحكام المسبقة متأصلة في الوقت الذي يتعلم فيه الذكاء الاصطناعي ويستمد من الخبرة السابقة.

الرجاء استخدام متصفح Chrome لمشغل فيديو يسهل الوصول إليه

تعرف على أول روبوت واقعي للغاية في العالم

يتناقض نهج المملكة المتحدة مع الاتحاد الأوروبي ، حيث اقترحت المفوضية الأوروبية ما تقول إنه أول إطار قانوني في العالم للذكاء الاصطناعي ، استنادًا إلى أربعة مستويات من المخاطر على سبل عيش الناس وسلامتهم وحقوقهم.

يعتبر استخدام الذكاء الاصطناعي لإجراء التقييم الاجتماعي من قبل الحكومات ، أو في الألعاب التي قد تشجع على السلوك الخطير ، “خطرًا غير مقبول” ومحظورًا.

تشمل مناطق المخاطر الدنيا ألعاب الفيديو وعوامل تصفية البريد العشوائي ، بينما تغطي المخاطر المحدودة استخدام روبوتات المحادثة ، طالما أنه من الواضح أنك تتحدث إلى جهاز.

تشمل المجالات عالية الخطورة أي تطبيق في التعليم والبنية التحتية الحيوية والتوظيف مثل فرز السير الذاتية وقرارات الهجرة وصنع القرار في القطاع العام والأنظمة القضائية.

لكي تصبح قانونية في هذه المجالات ، يجب أن تستوفي أدوات الذكاء الاصطناعي العديد من الشروط ، بما في ذلك “الإشراف البشري المناسب” ، والقدرة على تتبع النشاط وتسجيله.

اقرأ أكثر:
من هو الأب الروحي للذكاء الاصطناعي؟
تستخدم تقنية عدسات كاميرا الهاتف الذكي لتشخيص آلاف المرضى

عندما يقول الكمبيوتر لا ، سنحتاج إلى معرفة السبب

التحدي الذي يواجه المطورين والمستخدمين اليوم هو أنه ليس من الواضح دائمًا كيف وصل الذكاء الاصطناعي إلى استنتاجاته.

عندما تنتج ChatGPT أو أداة لغوية أخرى نصًا بشريًا معقولاً ، لا يمكن معرفة من أين استمدت معلوماته أو استلهامه.

إذا كنت قد طلبت منه كتابة رسالة قصيرة أو رسالة ، فقد لا يكون ذلك مهمًا.

إذا كانت تقرر ما إذا كنت مؤهلاً للحصول على المزايا ، فإنها تفعل ذلك كثيرًا. عندما يقول الكمبيوتر لا ، سنحتاج إلى معرفة السبب.

إن جعل المملكة المتحدة موطنًا لتنظيم التكنولوجيا ، وهو نوع من سويسرا الرقمية ، هو طموح جذاب بعد خروج بريطانيا من الاتحاد الأوروبي ، ولكن ما إذا كان ذلك ممكنًا أم لا.

كما توضح الملحمة المستمرة حول قانون الاتحاد الأوروبي المحتفظ به ، قد نرغب في تشكيل لوائحنا الخاصة ، لكن المنطق التجاري يفرض أحيانًا علينا اتباع أسواق أكبر.

ومع ذلك ، فإن عدم القيام بأي شيء ليس خيارًا.

يتحرك الذكاء الاصطناعي بسرعة كبيرة ولا تستطيع المملكة المتحدة تحمل تركها على جانب الطريق وهي تتجه نحو الأفق.

بشكل فريد ، قد تصبح أول تقنية تعرف أكثر مما نعرف عن وجهتها ، في الخير والشر.

[ad_2]