البيت الأبيض يكشف عن إجراءات للتخفيف من مخاطر الذكاء الاصطناعي
من المقرر أن يتخذ الرئيس الأمريكي جو بايدن إجراءات واسعة النطاق بشأن الذكاء الاصطناعي (AI) اليوم من خلال السعي إلى زيادة السلامة مع حماية المستهلكين والعمال والأقليات من المخاطر المرتبطة بالتكنولوجيا وذلك وفقا لوكالة رويترز.
معايير استخدام الذكاء الاصطناعي
إن الأمر التنفيذي الذي سيكشف عنه هو أحدث خطوة تتخذها إدارة بايدن لوضع معايير حول الذكاء الاصطناعي لأنه يحقق مكاسب سريعة في القدرة والشعبية في بيئة ذات تنظيم محدود حتى الآن.
وفي هذا الصدد وافقت شركات الذكاء الاصطناعي مثل OpenAI وAlphabet وMeta Platform في السابق طوعًا على الالتزام بوضع علامة مائية على المحتوى الناتج عن الذكاء الاصطناعي لجعل التكنولوجيا أكثر أمانًا.
ويذهب الأمر التنفيذي الجديد، الذي سيسلط عليه بايدن الضوء في حدث يوم الاثنين إلى أبعد من تلك الالتزامات.
ويتطلب الأمر أن يقوم مطورو أنظمة الذكاء الاصطناعي التي تشكل مخاطر على الأمن القومي الأمريكي أو الاقتصاد أو الصحة العامة أو السلامة بمشاركة نتائج اختبارات السلامة مع حكومة الولايات المتحدة، بما يتماشى مع قانون الإنتاج الدفاعي، قبل نشرها للجمهور.
كما يوجه الوكالات إلى وضع معايير لهذا الاختبار ومعالجة المخاطر الكيميائية والبيولوجية والإشعاعية والنووية ومخاطر الأمن السيبراني ذات الصلة، وفقًا للبيت الأبيض.
وللتأكد من وضوح الاتصالات الحكومية ستقوم وزارة التجارة بتطوير إرشادات لمصادقة المحتوى والعلامة المائية لعناصر الملصقات التي يتم إنشاؤها بواسطة الذكاء الاصطناعي وذلك حسبما قال البيت الأبيض في بيان حول الأمر.
وفي ذات السياق وصف نائب كبير موظفي البيت الأبيض بروس ريد الأمر الذي يتطرق أيضًا إلى الخصوصية والتمييز في السكن والنزوح الوظيفي بأنه أقوى مجموعة من الإجراءات اتخذتها أي حكومة لضمان أمن الذكاء الاصطناعي إذ قال في بيان له: إن الخطوة التالية في الاستراتيجية جريئة لفعل كل شيء على جميع الجهات للاستفادة من فوائد الذكاء الاصطناعي وتخفيف مخاطره.
الجدير بالذكر أن المسؤولون الأمريكيون حذروا من زيادة خطر التحيز وانتهاك الحقوق المدنية بسبب استخدام الذكاء الاصطناعي مما استدعى إلى صدور أمر تنفيذي لمعالجة هذا الأمر من خلال الدعوة إلى توجيه أصحاب العقارات وبرامج المزايا الفيدرالية والمقاولين الفيدراليين لمنع استخدام خوارزميات الذكاء الاصطناعي لتفاقم التمييز.