أصدر المعهد الوطني للمعايير والتكنولوجيا (NIST) تعليمات جديدة للعلماء التي تشارك مع معهد سلامة الذكاء الاصطناعي الأمريكي (AISI) التي تقضي على ذكر “سلامة الذكاء الاصطناعي” ، و “AI المسؤول” ، و “عادل الذكاء الاصطناعي” في المهارات البشرية التي تتوقعها من الأعضاء وتقدم طلبًا لتحديد أولوية “التخفيض الأويمولوجي” ، إلى التنافس البشري المتنافس “.

تأتي المعلومات كجزء من اتفاقية البحث والتطوير التعاونية المحدثة لأعضاء معهد سلامة الذكاء الاصطناعي ، المرسلة في أوائل مارس. في السابق ، شجع هذا الاتفاق الباحثين على المساهمة في العمل الفني الذي يمكن أن يساعد في تحديد سلوك النموذج التمييزي وإصلاحه المتعلق بالجنس أو العرق أو العمر أو عدم المساواة في الثروة. مثل هذه التحيزات مهمة للغاية لأنها يمكن أن تؤثر بشكل مباشر على المستخدمين النهائيين وإلحاق الضرر بشكل غير متناسب الأقليات والمجموعات المحرومة اقتصاديًا.

يزيل الاتفاقية الجديدة ذكر الأدوات تطوير “لمصادقة المحتوى وتتبع مصدرها” وكذلك “وضع العلامات على المحتوى الاصطناعي” ، مما يشير إلى اهتمام أقل بتتبع المعلومات الخاطئة والمزيفة العميقة. ويضيف أيضًا التركيز على وضع أمريكا أولاً ، ويطلب من مجموعة عمل واحدة تطوير أدوات الاختبار “لتوسيع منصب الذكاء الاصطناعي العالمي في أمريكا”.

يقول أحد الباحثين في منظمة تعمل مع معهد السلامة من الذكاء الاصطناعي ، الذي طلب عدم ذكر اسمه خوفًا من الانتقام: “لقد أزالت إدارة ترامب السلامة والإنصاف والمعلومات الخاطئة والمسؤولية كأشياء تقدرها من أجل الذكاء الاصطناعي ، والتي أعتقد أنها تتحدث عن نفسها”.

يعتقد الباحث أن تجاهل هذه المشكلات قد يضر المستخدمين العاديين من خلال السماح للخوارزميات التي تميز على أساس الدخل أو التركيبة السكانية الأخرى للابتعاد. “ما لم تكن مليارديرًا تقنيًا ، فإن هذا سيؤدي إلى مستقبل أسوأ بالنسبة لك وللأشخاص الذين تهتم بهم. توقع أن تكون منظمة العفو الدولية غير عادلة ، تمييزية ، غير آمنة ، وتم نشرها بطريقة غير مسؤولة “، يزعم الباحث.

يقول باحث آخر عمل مع معهد سلامة الذكاء الاصطناعي في الماضي: “إنه متوحش”. “ماذا يعني حتى أن يزدهر البشر؟”

إيلون موسك، الذي يقود حاليا جهد مثير للجدل لخفض الإنفاق الحكومي والبيروقراطية نيابة عن الرئيس ترامب ، انتقد نماذج الذكاء الاصطناعى التي صممها Openai و Google. في فبراير الماضي ، نشر ميمي على X حيث تم تصنيف Gemini و Openai على “عنصري” و “استيقظ”. في كثير من الأحيان يستشهد حادثة ناقش فيها أحد طرازات Google ما إذا كان من الخطأ أن يخطئ شخص ما حتى لو كان سيمنع نهاية العالم النووي – وهو سيناريو غير مرجح للغاية. بجانب تسلا و SpaceX، تدير Musk Xai ، وهي شركة منظمة العفو الدولية تتنافس مباشرة مع Openai و Google. طور باحث ينصح XAI مؤخرًا تقنية جديدة لتغيير الميول السياسية لنماذج اللغة الكبيرة ، مثل ذكرت بواسطة سلكية.

يظهر مجموعة متزايدة من الأبحاث أن التحيز السياسي في نماذج الذكاء الاصطناعى يمكن أن يؤثر على كليهما الليبراليين والمحافظون. على سبيل المثال، دراسة لخوارزمية توصية تويتر أوضحت في عام 2021 أن المستخدمين كانوا أكثر عرضة لإظهار وجهات النظر ذات الميول اليمينية على المنصة.

منذ يناير ، ما يسمى بالمسك وزارة الكفاءة الحكومية (دوج) كان يجتاح حكومة الولايات المتحدة ، حيث قاموا بإطلاق النار على موظفي الخدمة المدنية بشكل فعال ، ويتوقفون عن الإنفاق ، وخلق بيئة يعتقد أنها معادية لأولئك الذين قد يعارضون أهداف إدارة ترامب. بعض الإدارات الحكومية مثل وزارة التعليم قد أرشدت وحذف الوثائق التي تذكر DEI. استهدفت دوج أيضًا NIST ، المنظمة الأم لـ AISI ، في الأسابيع الأخيرة. تم إطلاق العشرات من الموظفين.

Source link


اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *