वैज्ञानिकों का कहना है कि सुपर इंटेलिजेंट आर्टिफिशियल इंटेलिजेंस बेकाबू हो जाएगी

तकनीकी दौड़ के कारण सुपरइंटेलिजेंट सिस्टम पहले से ही दुनिया भर में बनाए और प्रसारित किए जा रहे हैं। इस कारण से, कुछ प्रश्न उठते हैं: क्या यह संभव है कृत्रिम बुद्धि को नियंत्रित करें कितनी दूर? हम लड़ने के लिए कितने तैयार हैं? जो मानव क्षमता से परे काम करता है? ऐसा कार्यक्रम बनाना कितना नैतिक है जिसके परिणामों और प्रभावों को अभी तक मापा नहीं जा सका है? वैज्ञानिकों द्वारा पूछे गए इन सवालों के बारे में अधिक जानकारी अभी देखें।

और पढ़ें: कृत्रिम बुद्धिमत्ता के 7 अनुप्रयोग: कुछ पहले से ही मानव श्रम की जगह ले रहे हैं

और देखें

अलर्ट: इस जहरीले पौधे ने युवक को पहुंचाया अस्पताल!

पत्रकारों की मदद के लिए Google ने AI टूल विकसित किया...

अधीक्षण के साथ कृत्रिम बुद्धिमत्ता

यह एक विज्ञान कथा फिल्म की कहानी की तरह लगता है, लेकिन सच्चाई यह है कि एक कृत्रिम बुद्धिमत्ता वास्तव में आदेशों को सीखने की स्वायत्तता पैदा कर सकती है जो बाद में मनुष्यों के खिलाफ हो सकती है। उदाहरण के लिए, इसकी गारंटी नहीं है कि वे "मानवता को नुकसान न पहुँचाएँ" जैसे नियमों का पालन करेंगे कि उन्हें स्वायत्तता प्राप्त करने के लिए प्रोग्राम किया जाएगा और वे लगाई गई सीमाओं को दरकिनार कर सकते हैं प्रोग्रामर.

एलन ट्यूरिंग रुकने की समस्या

"हॉल्टिंग समस्या" कहा जाता है, यह समस्या कंप्यूटर को दिए गए कमांड के लिए दो विकल्प देती है: या तो यह होगा किसी निष्कर्ष पर पहुंचें और या तो रुककर इसका जवाब दें, या यह समाधान खोजने की कोशिश में एक लूप में जारी रहेगा - जब तक उसे ढूँढो। इस कारण से, यह जानना असंभव है कि क्या कृत्रिम बुद्धिमत्ता बंद हो जाएगी, या क्या यह सभी संभावित निष्कर्षों को खोजकर अपनी स्मृति में संग्रहीत कर लेगी।

इसके साथ समस्या यह है कि कुछ समय बाद यह मापना संभव नहीं है कि मशीन किसी समस्या के लिए कौन सा समाधान या विकल्प अपनाएगी। इस तरह, इसका व्यवहार अप्रत्याशित होगा और रोकथाम एल्गोरिदम बनाना व्यर्थ होगा।

वैज्ञानिकों की राय में मतभेद

कुछ वैज्ञानिकों का तर्क है कि प्रौद्योगिकी में सभी प्रगति को सुरक्षित और नियंत्रित तरीके से आम भलाई को बढ़ावा देने के लिए डिज़ाइन किया जाना चाहिए। इस तरह, किसी भी और सभी प्रकार की खुफिया जानकारी को संग्रहीत करने में सक्षम एक सुपरमशीन, जिसमें अकुशल रोकथाम शक्तियां और विनाश की अभी भी मापी गई क्षमता नहीं है, कुछ खतरनाक लगती है।

इसे ध्यान में रखते हुए, कंप्यूटिंग शोधकर्ताओं का दावा है कि सुपरइंटेलिजेंट मशीनों से लाभ की तुलना में नुकसान हो सकता है, और उनके निर्माण से बचना चाहिए। कई प्रोग्रामर लगातार इस तथ्य से जूझते हैं कि उनकी मशीनों ने वो काम करना सीख लिया है जो वे कभी नहीं कर सकते थे। उन्हें सीखने के लिए सिखाया या बनाया गया आदेश - और यह, वे जो सीखते हैं उसके आधार पर, इसका प्रतीक हो सकता है जोखिम।

नैतिक मुद्दों

अधीक्षण क्षमताओं को सीमित करना एक व्यवहार्य विकल्प हो सकता है। ऐसा करने के लिए, इसे इंटरनेट के कुछ हिस्सों या कुछ नेटवर्क से काटना संभव है। ये रोकथाम तंत्र के उदाहरण होंगे। हालाँकि, यह अभी तक ज्ञात नहीं है कि क्या ये विकल्प व्यवहार्य हैं - या क्या मशीन के पास इन सामग्रियों तक इस तरह से पहुंच होगी जिसका खुलासा होना अभी बाकी है।

इसलिए, यदि मानवता कृत्रिम बुद्धि के साथ आगे बढ़ना जारी रखती है, तो इसे किस हद तक स्वायत्त होना चाहिए, इस बारे में बहुत सावधान रहना आवश्यक है।

सामाजिक नेटवर्क में नया चलन मैक डोनाल्ड के लिए सिरदर्द का कारण बनता है; समझना

सामाजिक नेटवर्क में नया चलन मैक डोनाल्ड के लिए सिरदर्द का कारण बनता है; समझना

एक नया रुझान सोशल नेटवर्क के कारण ऑस्ट्रेलिया में मैक डोनाल्ड के अटेंडेंट को काफी असुविधा और सिरद...

read more

जीवन-यापन की लागत में कटौती न करने के लिए परिवार $500 भत्ते की माँग करता है

वैश्विक आर्थिक परिदृश्य तेजी से उन परिवारों से आर्थिक स्थिति की मांग कर रहा है, जो अपने दैनिक जीव...

read more

बैक्टीरिया के बहुकोशिकीय व्यवहार में रहस्य; समझना

नवीनतम शोध में, जापानी वैज्ञानिकों को एक गुफा की चूना पत्थर की दीवार में एक जीवाणु मिला, जिसका व्...

read more