OpenAI تشكل لجنة السلامة لتبدأ في تدريب نموذج جديد للذكاء الاصطناعي
قالت شركة OpenAI الناشئة يوم الثلاثاء إن الشركة شكلت لجنة للسلامة والأمن سيقودها أعضاء مجلس الإدارة، بما في ذلك الرئيس التنفيذي سام ألتمان، حيث تبدأ في تدريب نموذج الذكاء الاصطناعي التالي.
وقالت OpenAI على مدونة الشركة إن المديرين بريت تايلور وآدم دانجيلو ونيكول سيليجمان سيقودون اللجنة أيضا.
أثارت روبوتات الدردشة OpenAI المدعومة من مايكروسوفت والمزودة بقدرات ذكاء اصطناعي توليدية، مثل المشاركة في محادثات شبيهة بالإنسان وإنشاء صور بناء على المطالبات النصية، مخاوف تتعلق بالسلامة مع تزايد قوة نماذج الذكاء الاصطناعي.
وستكون اللجنة الجديدة مسؤولة عن تقديم التوصيات إلى مجلس الإدارة بشأن قرارات السلامة والأمن لمشاريع وعمليات OpenAI.
قال د.أ. ديفيدسون المدير الإداري جيل لوريا: "إن لجنة السلامة الجديدة تعني استكمال OpenAI للتحول إلى كيان تجاري، من كيان غير محدد غير ربحي."
حل الفريق وتعيينهم في فرق أخرى
قامت OpenAI بحل فريق Superalignment، في وقت سابق من شهر مايو، بعد أقل من عام من إنشائه من قبل الشركة، مع إعادة تعيين بعض أعضاء الفريق إلى مجموعات أخرى، حسبما أفادت CNBC بعد أيام من رحيل الشخصيات البارزة.
ستكون المهمة الأولى للجنة هي تقييم ممارسات السلامة الحالية في OpenAI ومواصلة تطويرها على مدار التسعين يوما القادمة، وبعد ذلك ستشارك التوصيات مع مجلس الإدارة.
وقالت الشركة إنه بعد مراجعة مجلس الإدارة، ستشارك OpenAI علنا تحديثا بشأن التوصيات المعتمدة.
ولم تقدم OpenAI مزيدا من التفاصيل حول النموذج "الحدود" الجديد الذي تدربه، باستثناء أنه سيرفع أنظمتها إلى المستوى التالي من القدرات في طريقنا إلى الذكاء الاصطناعي العام.
وفي وقت سابق من شهر مايو، أعلنت الشركة عن نموذج جديد للذكاء الاصطناعي قادر على إجراء محادثة صوتية واقعية والتفاعل عبر النص والصورة.
اقرأ أيضا: هيئة مراقبة البيانات الإيطالية تحقق في خدمة جديدة طورتها "OpenAI "