تكنولوجيا – OpenAI تنشئ لجنة للسلامة والأمن بينما تختبر نموذجا جديدا للذكاء الاصطناعى

تكنولوجيا  – OpenAI تنشئ لجنة للسلامة والأمن بينما تختبر نموذجا جديدا للذكاء الاصطناعى

البوكس نيوز – تكنولوجيا – نتحدث اليوم حول OpenAI تنشئ لجنة للسلامة والأمن بينما تختبر نموذجا جديدا للذكاء الاصطناعى والذي يثير الكثير من الاهتمام والجدل عبر مواقع التواصل الاجتماعي وكما سنتناول بالتفصيل حول OpenAI تنشئ لجنة للسلامة والأمن بينما تختبر نموذجا جديدا للذكاء الاصطناعى، وتعد هذا المقالة جزءًا من سلسلة المقالات التي ينشرها البوكس نيوز بشكل عام.


أعلنت شركة OpenAI عن تشكيل لجنة جديدة للإشراف على إجراءات السلامة والأمن المتخذة في مشاريع الشركة وعملياتها، وتتألف لجنة السلامة والأمن من أعضاء مختارين من مجلس الإدارة وهي مكلفة بتقييم ومواصلة تطوير العمليات والضمانات الخاصة بشركة الذكاء الاصطناعي التي يقع مقرها في سان فرانسيسكو.


 


وتم تشكيل اللجنة الجديدة عندما بدأت OpenAI في اختبار الجيل التالي من نموذج الذكاء الاصطناعي (AI)، والجدير بالذكر أن الشركة شاركت مؤخرًا نموذج المواصفات، وهي وثيقة تسلط الضوء على نهج الشركة تجاه بناء نموذج ذكاء اصطناعي مسؤول وأخلاقى.


 


لجنة السلامة والأمن فى OpenAI


 


وفي منشور بالمدونة، سلطت الشركة الضوء على تفاصيل اللجنة المشكلة حديثًا، وجاء في المنشور: “اليوم، شكل مجلس إدارة OpenAI لجنة للسلامة والأمن بقيادة المديرين بريت تايلور (الرئيس)، وآدم دانجيلو، ونيكول سيليجمان، وسام ألتمان (الرئيس التنفيذي)، وستكون هذه اللجنة مسؤولة عن تقديم توصيات إلى مجلس الإدارة بأكمله بشأن قرارات السلامة والأمن الحاسمة لمشاريع وعمليات OpenAI.”


 


وبصرف النظر عن المديرين، سيكون رئيس الاستعداد في OpenAI ألكسندر مادري، ورئيس أنظمة السلامة جون شولمان، ورئيس الأمن مات نايت، وكبير العلماء جاكوب باتشوكي أيضًا جزءًا من اللجنة.


 


وستكون المهمة الأولى للجنة هي تقييم ومواصلة تطوير العمليات والضمانات الخاصة بشركة الذكاء الاصطناعي على مدار التسعين يومًا القادمة، بعد ذلك، ستقوم اللجنة بمشاركة نتائجها وتوصياتها مع مجلس الإدارة بأكمله، وستخضع التوصيات لمراجعة مجلس الإدارة، وبعد ذلك ستقوم OpenAI بمشاركة التوصيات المعتمدة علنًا.


 


وترتبط هذه التطورات الجديدة في OpenAI بالمبادرة الجديدة للشركة، وقد بدأت في اختبار الجيل التالي من نموذج الذكاء الاصطناعي الخاص بها، ووصفته بنموذج الذكاء الاصطناعي “الحدودي”، وسلطت الضوء على أن نموذج اللغة الكبير هذا الذي لم يتم اختباره بعد سيقرب الشركة خطوة من الذكاء العام الاصطناعي (AGI).


 


AGI هو نوع من الذكاء الاصطناعي يمكنه فهم المعرفة وتعلمها وتطبيقها عبر مجموعة واسعة من مهام العالم الحقيقي التي تشبه الذكاء البشري، وتسلط بعض تعريفات الذكاء الاصطناعي العام الضوء أيضًا على أنه قادر على الأداء المستقل ويمكنه تطوير مستوى معين من الوعي الذاتي.


 

وفي نهاية مقالتنا إذا كان لديك أي اقتراحات أو ملاحظات حول الخبر، فلا تتردد في مرسلتنا، فنحن نقدر تعليقاتكم ونسعى جاهدين لتلبية احتياجاتكم وتطوير الموقع بما يتناسب مع تطلعاتكم ونشكرًكم علي زيارتكم لنا، ونتمنى لكم قضاء وقت ممتع ومفيد معنا.

تعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

error: لا يمكنك نسخ المقالة