वैज्ञानिकों का कहना है कि सुपर इंटेलिजेंट आर्टिफिशियल इंटेलिजेंस बेकाबू हो जाएगी

तकनीकी दौड़ के कारण सुपरइंटेलिजेंट सिस्टम पहले से ही दुनिया भर में बनाए और प्रसारित किए जा रहे हैं। इस कारण से, कुछ प्रश्न उठते हैं: क्या यह संभव है कृत्रिम बुद्धि को नियंत्रित करें कितनी दूर? हम लड़ने के लिए कितने तैयार हैं? जो मानव क्षमता से परे काम करता है? ऐसा कार्यक्रम बनाना कितना नैतिक है जिसके परिणामों और प्रभावों को अभी तक मापा नहीं जा सका है? वैज्ञानिकों द्वारा पूछे गए इन सवालों के बारे में अधिक जानकारी अभी देखें।

और पढ़ें: कृत्रिम बुद्धिमत्ता के 7 अनुप्रयोग: कुछ पहले से ही मानव श्रम की जगह ले रहे हैं

और देखें

अलर्ट: इस जहरीले पौधे ने युवक को पहुंचाया अस्पताल!

पत्रकारों की मदद के लिए Google ने AI टूल विकसित किया...

अधीक्षण के साथ कृत्रिम बुद्धिमत्ता

यह एक विज्ञान कथा फिल्म की कहानी की तरह लगता है, लेकिन सच्चाई यह है कि एक कृत्रिम बुद्धिमत्ता वास्तव में आदेशों को सीखने की स्वायत्तता पैदा कर सकती है जो बाद में मनुष्यों के खिलाफ हो सकती है। उदाहरण के लिए, इसकी गारंटी नहीं है कि वे "मानवता को नुकसान न पहुँचाएँ" जैसे नियमों का पालन करेंगे कि उन्हें स्वायत्तता प्राप्त करने के लिए प्रोग्राम किया जाएगा और वे लगाई गई सीमाओं को दरकिनार कर सकते हैं प्रोग्रामर.

एलन ट्यूरिंग रुकने की समस्या

"हॉल्टिंग समस्या" कहा जाता है, यह समस्या कंप्यूटर को दिए गए कमांड के लिए दो विकल्प देती है: या तो यह होगा किसी निष्कर्ष पर पहुंचें और या तो रुककर इसका जवाब दें, या यह समाधान खोजने की कोशिश में एक लूप में जारी रहेगा - जब तक उसे ढूँढो। इस कारण से, यह जानना असंभव है कि क्या कृत्रिम बुद्धिमत्ता बंद हो जाएगी, या क्या यह सभी संभावित निष्कर्षों को खोजकर अपनी स्मृति में संग्रहीत कर लेगी।

इसके साथ समस्या यह है कि कुछ समय बाद यह मापना संभव नहीं है कि मशीन किसी समस्या के लिए कौन सा समाधान या विकल्प अपनाएगी। इस तरह, इसका व्यवहार अप्रत्याशित होगा और रोकथाम एल्गोरिदम बनाना व्यर्थ होगा।

वैज्ञानिकों की राय में मतभेद

कुछ वैज्ञानिकों का तर्क है कि प्रौद्योगिकी में सभी प्रगति को सुरक्षित और नियंत्रित तरीके से आम भलाई को बढ़ावा देने के लिए डिज़ाइन किया जाना चाहिए। इस तरह, किसी भी और सभी प्रकार की खुफिया जानकारी को संग्रहीत करने में सक्षम एक सुपरमशीन, जिसमें अकुशल रोकथाम शक्तियां और विनाश की अभी भी मापी गई क्षमता नहीं है, कुछ खतरनाक लगती है।

इसे ध्यान में रखते हुए, कंप्यूटिंग शोधकर्ताओं का दावा है कि सुपरइंटेलिजेंट मशीनों से लाभ की तुलना में नुकसान हो सकता है, और उनके निर्माण से बचना चाहिए। कई प्रोग्रामर लगातार इस तथ्य से जूझते हैं कि उनकी मशीनों ने वो काम करना सीख लिया है जो वे कभी नहीं कर सकते थे। उन्हें सीखने के लिए सिखाया या बनाया गया आदेश - और यह, वे जो सीखते हैं उसके आधार पर, इसका प्रतीक हो सकता है जोखिम।

नैतिक मुद्दों

अधीक्षण क्षमताओं को सीमित करना एक व्यवहार्य विकल्प हो सकता है। ऐसा करने के लिए, इसे इंटरनेट के कुछ हिस्सों या कुछ नेटवर्क से काटना संभव है। ये रोकथाम तंत्र के उदाहरण होंगे। हालाँकि, यह अभी तक ज्ञात नहीं है कि क्या ये विकल्प व्यवहार्य हैं - या क्या मशीन के पास इन सामग्रियों तक इस तरह से पहुंच होगी जिसका खुलासा होना अभी बाकी है।

इसलिए, यदि मानवता कृत्रिम बुद्धि के साथ आगे बढ़ना जारी रखती है, तो इसे किस हद तक स्वायत्त होना चाहिए, इस बारे में बहुत सावधान रहना आवश्यक है।

फीफा ने अपनी स्ट्रीमिंग सेवा पर ब्राजीलियाई लोगों के लिए विश्व कप मैचों का लाइव प्रसारण जारी किया

इंटरनेशनल फेडरेशन ऑफ एसोसिएशन फुटबॉल (फीफा) ने घोषणा की कि वह कतर में विश्व कप के सभी मैचों को ब्...

read more

मजबूत संबंध वाले जोड़ों की आदतें देखें

हर कोई ऐसे जोड़े को जानता है जिन्हें बस एक साथ रहना चाहिए। वे लोग जो एक-दूसरे को समझते हैं और अकथ...

read more

धीरे इंटरनेट? घर पर वाई-फ़ाई सिग्नल को बेहतर बनाने के लिए युक्तियाँ देखें

वर्तमान में इंटरनेट यह दुनिया भर के लोगों के लिए एक बहुत ही महत्वपूर्ण उपकरण बन गया है, चाहे वे म...

read more
instagram viewer