वैज्ञानिकों का कहना है कि सुपर इंटेलिजेंट आर्टिफिशियल इंटेलिजेंस बेकाबू हो जाएगी

तकनीकी दौड़ के कारण सुपरइंटेलिजेंट सिस्टम पहले से ही दुनिया भर में बनाए और प्रसारित किए जा रहे हैं। इस कारण से, कुछ प्रश्न उठते हैं: क्या यह संभव है कृत्रिम बुद्धि को नियंत्रित करें कितनी दूर? हम लड़ने के लिए कितने तैयार हैं? जो मानव क्षमता से परे काम करता है? ऐसा कार्यक्रम बनाना कितना नैतिक है जिसके परिणामों और प्रभावों को अभी तक मापा नहीं जा सका है? वैज्ञानिकों द्वारा पूछे गए इन सवालों के बारे में अधिक जानकारी अभी देखें।

और पढ़ें: कृत्रिम बुद्धिमत्ता के 7 अनुप्रयोग: कुछ पहले से ही मानव श्रम की जगह ले रहे हैं

और देखें

अलर्ट: इस जहरीले पौधे ने युवक को पहुंचाया अस्पताल!

पत्रकारों की मदद के लिए Google ने AI टूल विकसित किया...

अधीक्षण के साथ कृत्रिम बुद्धिमत्ता

यह एक विज्ञान कथा फिल्म की कहानी की तरह लगता है, लेकिन सच्चाई यह है कि एक कृत्रिम बुद्धिमत्ता वास्तव में आदेशों को सीखने की स्वायत्तता पैदा कर सकती है जो बाद में मनुष्यों के खिलाफ हो सकती है। उदाहरण के लिए, इसकी गारंटी नहीं है कि वे "मानवता को नुकसान न पहुँचाएँ" जैसे नियमों का पालन करेंगे कि उन्हें स्वायत्तता प्राप्त करने के लिए प्रोग्राम किया जाएगा और वे लगाई गई सीमाओं को दरकिनार कर सकते हैं प्रोग्रामर.

एलन ट्यूरिंग रुकने की समस्या

"हॉल्टिंग समस्या" कहा जाता है, यह समस्या कंप्यूटर को दिए गए कमांड के लिए दो विकल्प देती है: या तो यह होगा किसी निष्कर्ष पर पहुंचें और या तो रुककर इसका जवाब दें, या यह समाधान खोजने की कोशिश में एक लूप में जारी रहेगा - जब तक उसे ढूँढो। इस कारण से, यह जानना असंभव है कि क्या कृत्रिम बुद्धिमत्ता बंद हो जाएगी, या क्या यह सभी संभावित निष्कर्षों को खोजकर अपनी स्मृति में संग्रहीत कर लेगी।

इसके साथ समस्या यह है कि कुछ समय बाद यह मापना संभव नहीं है कि मशीन किसी समस्या के लिए कौन सा समाधान या विकल्प अपनाएगी। इस तरह, इसका व्यवहार अप्रत्याशित होगा और रोकथाम एल्गोरिदम बनाना व्यर्थ होगा।

वैज्ञानिकों की राय में मतभेद

कुछ वैज्ञानिकों का तर्क है कि प्रौद्योगिकी में सभी प्रगति को सुरक्षित और नियंत्रित तरीके से आम भलाई को बढ़ावा देने के लिए डिज़ाइन किया जाना चाहिए। इस तरह, किसी भी और सभी प्रकार की खुफिया जानकारी को संग्रहीत करने में सक्षम एक सुपरमशीन, जिसमें अकुशल रोकथाम शक्तियां और विनाश की अभी भी मापी गई क्षमता नहीं है, कुछ खतरनाक लगती है।

इसे ध्यान में रखते हुए, कंप्यूटिंग शोधकर्ताओं का दावा है कि सुपरइंटेलिजेंट मशीनों से लाभ की तुलना में नुकसान हो सकता है, और उनके निर्माण से बचना चाहिए। कई प्रोग्रामर लगातार इस तथ्य से जूझते हैं कि उनकी मशीनों ने वो काम करना सीख लिया है जो वे कभी नहीं कर सकते थे। उन्हें सीखने के लिए सिखाया या बनाया गया आदेश - और यह, वे जो सीखते हैं उसके आधार पर, इसका प्रतीक हो सकता है जोखिम।

नैतिक मुद्दों

अधीक्षण क्षमताओं को सीमित करना एक व्यवहार्य विकल्प हो सकता है। ऐसा करने के लिए, इसे इंटरनेट के कुछ हिस्सों या कुछ नेटवर्क से काटना संभव है। ये रोकथाम तंत्र के उदाहरण होंगे। हालाँकि, यह अभी तक ज्ञात नहीं है कि क्या ये विकल्प व्यवहार्य हैं - या क्या मशीन के पास इन सामग्रियों तक इस तरह से पहुंच होगी जिसका खुलासा होना अभी बाकी है।

इसलिए, यदि मानवता कृत्रिम बुद्धि के साथ आगे बढ़ना जारी रखती है, तो इसे किस हद तक स्वायत्त होना चाहिए, इस बारे में बहुत सावधान रहना आवश्यक है।

ब्राजीलियाई लोककथाओं की सभी किंवदंतियों के साथ बच्चों का क्रॉसवर्ड

ब्राजीलियाई लोककथाओं की सभी किंवदंतियों के साथ बच्चों का क्रॉसवर्ड

परिचय के माध्यम से, हम लोककथाओं को मान्यताओं, मिथकों, लोकप्रिय कहानियों के समूह के रूप में परिभाष...

read more

फेंगशुई: धन और भाग्य को आकर्षित करने के लिए इन 4 रंगों का उपयोग करें

हे फेंगशुई एक प्राचीन चीनी प्रथा है जिसमें प्रकृति से लाभकारी प्रभावों को आकर्षित करने के लिए कुछ...

read more
चक्रवात और ओले नजर आ रहे हैं: देखें कि क्या आपका क्षेत्र जोखिम सूची में है

चक्रवात और ओले नजर आ रहे हैं: देखें कि क्या आपका क्षेत्र जोखिम सूची में है

एक अतिरिक्त उष्णकटिबंधीय चक्रवात ब्राजील के करीब पहुंच रहा है और कई क्षेत्रों में महत्वपूर्ण प्रभ...

read more