वैज्ञानिकों का कहना है कि सुपर इंटेलिजेंट आर्टिफिशियल इंटेलिजेंस बेकाबू हो जाएगी

तकनीकी दौड़ के कारण सुपरइंटेलिजेंट सिस्टम पहले से ही दुनिया भर में बनाए और प्रसारित किए जा रहे हैं। इस कारण से, कुछ प्रश्न उठते हैं: क्या यह संभव है कृत्रिम बुद्धि को नियंत्रित करें कितनी दूर? हम लड़ने के लिए कितने तैयार हैं? जो मानव क्षमता से परे काम करता है? ऐसा कार्यक्रम बनाना कितना नैतिक है जिसके परिणामों और प्रभावों को अभी तक मापा नहीं जा सका है? वैज्ञानिकों द्वारा पूछे गए इन सवालों के बारे में अधिक जानकारी अभी देखें।

और पढ़ें: कृत्रिम बुद्धिमत्ता के 7 अनुप्रयोग: कुछ पहले से ही मानव श्रम की जगह ले रहे हैं

और देखें

अलर्ट: इस जहरीले पौधे ने युवक को पहुंचाया अस्पताल!

पत्रकारों की मदद के लिए Google ने AI टूल विकसित किया...

अधीक्षण के साथ कृत्रिम बुद्धिमत्ता

यह एक विज्ञान कथा फिल्म की कहानी की तरह लगता है, लेकिन सच्चाई यह है कि एक कृत्रिम बुद्धिमत्ता वास्तव में आदेशों को सीखने की स्वायत्तता पैदा कर सकती है जो बाद में मनुष्यों के खिलाफ हो सकती है। उदाहरण के लिए, इसकी गारंटी नहीं है कि वे "मानवता को नुकसान न पहुँचाएँ" जैसे नियमों का पालन करेंगे कि उन्हें स्वायत्तता प्राप्त करने के लिए प्रोग्राम किया जाएगा और वे लगाई गई सीमाओं को दरकिनार कर सकते हैं प्रोग्रामर.

एलन ट्यूरिंग रुकने की समस्या

"हॉल्टिंग समस्या" कहा जाता है, यह समस्या कंप्यूटर को दिए गए कमांड के लिए दो विकल्प देती है: या तो यह होगा किसी निष्कर्ष पर पहुंचें और या तो रुककर इसका जवाब दें, या यह समाधान खोजने की कोशिश में एक लूप में जारी रहेगा - जब तक उसे ढूँढो। इस कारण से, यह जानना असंभव है कि क्या कृत्रिम बुद्धिमत्ता बंद हो जाएगी, या क्या यह सभी संभावित निष्कर्षों को खोजकर अपनी स्मृति में संग्रहीत कर लेगी।

इसके साथ समस्या यह है कि कुछ समय बाद यह मापना संभव नहीं है कि मशीन किसी समस्या के लिए कौन सा समाधान या विकल्प अपनाएगी। इस तरह, इसका व्यवहार अप्रत्याशित होगा और रोकथाम एल्गोरिदम बनाना व्यर्थ होगा।

वैज्ञानिकों की राय में मतभेद

कुछ वैज्ञानिकों का तर्क है कि प्रौद्योगिकी में सभी प्रगति को सुरक्षित और नियंत्रित तरीके से आम भलाई को बढ़ावा देने के लिए डिज़ाइन किया जाना चाहिए। इस तरह, किसी भी और सभी प्रकार की खुफिया जानकारी को संग्रहीत करने में सक्षम एक सुपरमशीन, जिसमें अकुशल रोकथाम शक्तियां और विनाश की अभी भी मापी गई क्षमता नहीं है, कुछ खतरनाक लगती है।

इसे ध्यान में रखते हुए, कंप्यूटिंग शोधकर्ताओं का दावा है कि सुपरइंटेलिजेंट मशीनों से लाभ की तुलना में नुकसान हो सकता है, और उनके निर्माण से बचना चाहिए। कई प्रोग्रामर लगातार इस तथ्य से जूझते हैं कि उनकी मशीनों ने वो काम करना सीख लिया है जो वे कभी नहीं कर सकते थे। उन्हें सीखने के लिए सिखाया या बनाया गया आदेश - और यह, वे जो सीखते हैं उसके आधार पर, इसका प्रतीक हो सकता है जोखिम।

नैतिक मुद्दों

अधीक्षण क्षमताओं को सीमित करना एक व्यवहार्य विकल्प हो सकता है। ऐसा करने के लिए, इसे इंटरनेट के कुछ हिस्सों या कुछ नेटवर्क से काटना संभव है। ये रोकथाम तंत्र के उदाहरण होंगे। हालाँकि, यह अभी तक ज्ञात नहीं है कि क्या ये विकल्प व्यवहार्य हैं - या क्या मशीन के पास इन सामग्रियों तक इस तरह से पहुंच होगी जिसका खुलासा होना अभी बाकी है।

इसलिए, यदि मानवता कृत्रिम बुद्धि के साथ आगे बढ़ना जारी रखती है, तो इसे किस हद तक स्वायत्त होना चाहिए, इस बारे में बहुत सावधान रहना आवश्यक है।

क्या मैं अपने माता-पिता की अधिक देखभाल करने के लिए विरासत के अधिकांश हिस्से का दावा कर सकता हूँ?

सुपीरियर कोर्ट ऑफ जस्टिस (एसटीजे) की मंत्री नैन्सी एंड्रीघी ने बताया: "प्यार करना एक संकाय है, दे...

read more

इस स्वादिष्ट केले के हलवे की रेसिपी को देखें

ए केला यह पोटैशियम से भरपूर फल है, जिसमें मानव शरीर को अधिक ताकत और जोश देने वाले गुण होते हैं। इ...

read more

SiSU 2023: शेड्यूल देखें, आवेदन कैसे करें और भी बहुत कुछ

एकीकृत चयन प्रणाली (SiSU) ब्राज़ीलियाई सार्वजनिक विश्वविद्यालयों में प्रवेश के लिए एक चयन मंच है।...

read more