الذكاء الاصطناعي هو أداة اللحظة. مع تطورها السريع ، تم تحطيم الأرقام القياسية في وقت قصير مع ChatGPT الهائل. ومع ذلك ، يعتقد قادتها أن هناك حاجة إلى هيئة تنظيمية دولية ، على غرار تلك التي تحكم الطاقة النووية. هناك قلق شديد بشأن الاستخدام الضار للأداة لإنشاء معلومات مضللة و التزييف العميق.
في منشور على مدونة الشركة ، اجتمع مؤسس OpenAI Sam Altman ، والرئيس جريج بروكمان وكبير العلماء إيليا سوتسكيفر لتقديم مزيد من التفاصيل حول ما يمكن القيام به.
شاهد المزيد
تطور Google أداة الذكاء الاصطناعي لمساعدة الصحفيين في...
آيفون 2007 الأصلي غير المفتوح يبيع ما يقرب من 200000 دولار ؛ يعرف...
ماذا يقول منشور مدونة OpenAI؟
يعتقد الأشخاص الذين يقودون OpenAI أن الوقت الحالي هو أفضل وقت للتفكير فيما يسمى "إدارة الذكاء الخارق". تعتقد الشركة اعتقادًا راسخًا أن الذكاء الفائق - أنظمة الذكاء الاصطناعي في السنوات العشر القادمة - سيكون أقوى بكثير من التقنيات الأخرى التي تعاملت معها البشرية.
يقال أنه يمكن أن يكون لدينا مستقبل أكثر ازدهارًا بشكل كبير ، لكننا بحاجة إلى معرفة كيفية إدارة المخاطر للوصول إلى هناك. يعلق المؤلفون على ذلك ، "بالنظر إلى احتمال وجود خطر وجودي ، لا يمكننا أن نكون مجرد رد فعل. أ
الطاقة النوويةهو مثال تاريخي شائع الاستخدام لتكنولوجيا بهذه الخاصية ؛ علم الأحياء التركيبي هو مثال آخر. "
ينهي أقسامه الأولى بالقول إنه يجب علينا التخفيف من مخاطر تقنية الذكاء الاصطناعي الحالية ، لكن هذا الذكاء الفائق سيتطلب معالجة وتنسيقًا خاصين.
يمضي في الحديث عن هذه العلاقة للحاجة إلى هيئة تنظيمية ، وكذلك الوكالة الدولية للطاقة الذرية الموجودة بالفعل ، التابعة للأمم المتحدة ، الأمم المتحدة.
“نحن بحاجة إلى درجة معينة من التنسيق بين جهود التنمية الرئيسية لضمان تطوير يحدث الذكاء الفائق بطريقة تسمح لنا بالحفاظ على الأمن والمساعدة في التكامل السلس لهذه الأنظمة مع مجتمع."
"من المحتمل أننا في النهاية سنحتاج إلى شيء مثل [الوكالة الدولية للطاقة الذرية] لجهود الذكاء الخارق ؛ يجب أن يخضع أي جهد يتجاوز عتبة معينة من السعة (أو موارد مثل الحوسبة) لسلطة دولية يمكنها فحص الأنظمة ، وطلب عمليات التدقيق ، واختبار الامتثال لمعايير الأمان ، وفرض قيودًا على درجات النشر ومستويات الأمان ، إلخ".
ترى الشركة أن المساهمة العامة مهمة في هذه العملية
يقال إن حوكمة الأنظمة القوية يجب أن تصاحب الرقابة العامة. أعتقد أنه يجب تمكين الناس في جميع أنحاء العالم ليقرروا بشكل ديمقراطي ما هي الحدود والمعايير أنظمة الذكاء الاصطناعي وتشير الشركة إلى أنهم ما زالوا لا يعرفون كيف يصممون مثل هذه الآلية ، لكن تطويرها جار. تخطيط.
أخيرًا ، تم التأكيد على أنه من الخطر منع خلق ذكاء خارق. إنه يسلط الضوء على مزاياها وأن عدد الجهات الفاعلة التي تبنيها يتزايد بسرعة ويشكل بطبيعته جزءًا من المسار التكنولوجي. تطلب الشركة أن تكون الإجراءات دقيقة.
للوصول إلى المنشور الأصلي ، انقر فوق هنا.