तकनीकी दौड़ के कारण सुपरइंटेलिजेंट सिस्टम पहले से ही दुनिया भर में बनाए और प्रसारित किए जा रहे हैं। इस कारण से, कुछ प्रश्न उठते हैं: क्या यह संभव है कृत्रिम बुद्धि को नियंत्रित करें कितनी दूर? हम लड़ने के लिए कितने तैयार हैं? ऐ जो मानव क्षमता से परे काम करता है? ऐसा कार्यक्रम बनाना कितना नैतिक है जिसके परिणामों और प्रभावों को अभी तक मापा नहीं जा सका है? वैज्ञानिकों द्वारा पूछे गए इन सवालों के बारे में अधिक जानकारी अभी देखें।
और पढ़ें: कृत्रिम बुद्धिमत्ता के 7 अनुप्रयोग: कुछ पहले से ही मानव श्रम की जगह ले रहे हैं
और देखें
अलर्ट: इस जहरीले पौधे ने युवक को पहुंचाया अस्पताल!
पत्रकारों की मदद के लिए Google ने AI टूल विकसित किया...
अधीक्षण के साथ कृत्रिम बुद्धिमत्ता
यह एक विज्ञान कथा फिल्म की कहानी की तरह लगता है, लेकिन सच्चाई यह है कि एक कृत्रिम बुद्धिमत्ता वास्तव में आदेशों को सीखने की स्वायत्तता पैदा कर सकती है जो बाद में मनुष्यों के खिलाफ हो सकती है। उदाहरण के लिए, इसकी गारंटी नहीं है कि वे "मानवता को नुकसान न पहुँचाएँ" जैसे नियमों का पालन करेंगे कि उन्हें स्वायत्तता प्राप्त करने के लिए प्रोग्राम किया जाएगा और वे लगाई गई सीमाओं को दरकिनार कर सकते हैं प्रोग्रामर.
एलन ट्यूरिंग रुकने की समस्या
"हॉल्टिंग समस्या" कहा जाता है, यह समस्या कंप्यूटर को दिए गए कमांड के लिए दो विकल्प देती है: या तो यह होगा किसी निष्कर्ष पर पहुंचें और या तो रुककर इसका जवाब दें, या यह समाधान खोजने की कोशिश में एक लूप में जारी रहेगा - जब तक उसे ढूँढो। इस कारण से, यह जानना असंभव है कि क्या कृत्रिम बुद्धिमत्ता बंद हो जाएगी, या क्या यह सभी संभावित निष्कर्षों को खोजकर अपनी स्मृति में संग्रहीत कर लेगी।
इसके साथ समस्या यह है कि कुछ समय बाद यह मापना संभव नहीं है कि मशीन किसी समस्या के लिए कौन सा समाधान या विकल्प अपनाएगी। इस तरह, इसका व्यवहार अप्रत्याशित होगा और रोकथाम एल्गोरिदम बनाना व्यर्थ होगा।
वैज्ञानिकों की राय में मतभेद
कुछ वैज्ञानिकों का तर्क है कि प्रौद्योगिकी में सभी प्रगति को सुरक्षित और नियंत्रित तरीके से आम भलाई को बढ़ावा देने के लिए डिज़ाइन किया जाना चाहिए। इस तरह, किसी भी और सभी प्रकार की खुफिया जानकारी को संग्रहीत करने में सक्षम एक सुपरमशीन, जिसमें अकुशल रोकथाम शक्तियां और विनाश की अभी भी मापी गई क्षमता नहीं है, कुछ खतरनाक लगती है।
इसे ध्यान में रखते हुए, कंप्यूटिंग शोधकर्ताओं का दावा है कि सुपरइंटेलिजेंट मशीनों से लाभ की तुलना में नुकसान हो सकता है, और उनके निर्माण से बचना चाहिए। कई प्रोग्रामर लगातार इस तथ्य से जूझते हैं कि उनकी मशीनों ने वो काम करना सीख लिया है जो वे कभी नहीं कर सकते थे। उन्हें सीखने के लिए सिखाया या बनाया गया आदेश - और यह, वे जो सीखते हैं उसके आधार पर, इसका प्रतीक हो सकता है जोखिम।
नैतिक मुद्दों
अधीक्षण क्षमताओं को सीमित करना एक व्यवहार्य विकल्प हो सकता है। ऐसा करने के लिए, इसे इंटरनेट के कुछ हिस्सों या कुछ नेटवर्क से काटना संभव है। ये रोकथाम तंत्र के उदाहरण होंगे। हालाँकि, यह अभी तक ज्ञात नहीं है कि क्या ये विकल्प व्यवहार्य हैं - या क्या मशीन के पास इन सामग्रियों तक इस तरह से पहुंच होगी जिसका खुलासा होना अभी बाकी है।
इसलिए, यदि मानवता कृत्रिम बुद्धि के साथ आगे बढ़ना जारी रखती है, तो इसे किस हद तक स्वायत्त होना चाहिए, इस बारे में बहुत सावधान रहना आवश्यक है।