Superintelligent ai cannot be controlled (full information in hindi)
superintelligent ai cannot be controlled |
मान लीजिए कि कोई इंसानों से बेहतर बुद्धिमत्ता वाला AI सिस्टम प्रोग्राम करता है, तो यह स्वतंत्र रूप से खुद से सीख सकता है। इंटरनेट से जुड़ा, AI में मानवता के सभी डेटा तक पहुंच हो सकती है। यह सभी मौजूदा कार्यक्रमों को बदल कर रख सकता है और दुनिया भर में सभी मशीनों को ऑनलाइन नियंत्रित कर सकता है। क्या यह एक यूटोपिया (utopia) या एक डायस्टोपिया (a dystopia) का उत्पादन करेगा? क्या एआई (AI) कैंसर को ठीक करेगा, विश्व शांति लाएगा, और जलवायु आपदा को रोके पायेगा ? या यह मानवता को नष्ट कर देगा और हमारी दुनिया यानि पृथ्वी पर कब्ज़ा कर लेगा ?
कंप्यूटर वैज्ञानिकों और रिसर्चरों ने खुद अध्ययन करके पता करने कि कोशिश की ,कि क्या हम भी एक सुपरिन्टिविजुअल एआई (superintelligent ai) को नियंत्रित करने में सक्षम होंगे, यह सुनिश्चित करने की कोशिश की, कि यह मानवता के लिए खतरा पैदा तो नहीं करेगा। कंप्यूटर वैज्ञानिकों की एक अंतरराष्ट्रीय टीम ने सैद्धांतिक गणना का उपयोग करके यह दिखाया कि सुपर-बुद्धिमान AI (superintelligent AI)को नियंत्रित करना मौलिक रूप से असंभव होगा।
superintelligent ai may be impossible to control
"एक सुपर-बुद्धिमान मशीन जो दुनिया को नियंत्रित करती है, विज्ञान कथा जैसी लगती है। लेकिन पहले से ही ऐसी मशीनें हैं जो प्रोग्रामर के बिना स्वतंत्र रूप से कुछ महत्वपूर्ण कार्य करती हैं, पूरी तरह से समझती हैं कि उन्होंने इसे कैसे सीखा। सवाल इसलिए उठता है कि क्या यह किसी बिंदु पर बेकाबू और खतरनाक हो सकता है। मानवता, "सेंटर फॉर ह्यूमन एंड मशीन, मैक्स प्लैंक इंस्टीट्यूट फॉर ह्यूमन डेवलपमेंट में डिजिटल मोबिलाइजेशन ग्रुप के लीडर सह-लेखक मैनुअल सीब्रियन का अध्ययन करता है।
Hint : superintelligent AI |
वैज्ञानिकों ने दो अलग-अलग विचारों पर अध्ययन किया , कि कैसे एक सुपरिन्टिविजुअल AI (superintelligent AI) को नियंत्रित किया जा सकता है। एक तरफ, अधीक्षक एआई (superintelligent AI) की क्षमताओं को विशेष रूप से सीमित किया जा सकता है, उदाहरण के लिए, इंटरनेट और अन्य सभी तकनीकी उपकरणों से इसे बंद करके, ताकि बाहरी दुनिया के साथ इसका कोई संपर्क नहीं हो सके - फिर भी इससे सुपरिंटिडेंट एआई काफी शक्तिशाली हो जाएगा, मानविकी जवाब देने में सक्षम होगा। उस विकल्प को खोने से, AI को केवल उन लक्ष्यों को आगे बढ़ाने के लिए प्रेरित किया जा सकता है जो मानवता के सर्वोत्तम हित में हैं, उदाहरण के लिए उसमें नैतिक सिद्धांतों को प्रोग्रामिंग करके। हालांकि, शोधकर्ता यह भी बताते हैं कि सुपर-बुद्धिमान एआई (superintelligent AI) को नियंत्रित करने के लिए इन और अन्य समकालीन और ऐतिहासिक विचारों की अपनी सीमाएं हैं।
अपने अध्ययन में, टीम ने एक सैद्धांतिक नियंत्रण एल्गोरिथ्म की कल्पना की, जो सुनिश्चित करता है कि किसी भी परिस्थिति में लोगों को किसी भी परिस्थिति में नुकसान नहीं पहुंचा सकता है, पहले एआई(AI) के व्यवहार का अनुकरण करके और यदि इसे हानिकारक माना जाता है तो इसे रोक दिया जाए। लेकिन विश्लेषण से पता चलता है कि कंप्यूटिंग के हमारे मौजूदा प्रतिमान (paradigm) में, इस तरह के एल्गोरिथ्म का निर्माण नहीं किया जा सकता है।
Superintelligent ai cannot be controlled (full information in hindi)
"यदि आप सैद्धांतिक कंप्यूटर विज्ञान (theoretical computer science) के बुनियादी नियमों द्वारा समस्या का समाधान निकालने की कोशिश करते हैं , तो यह पता चलता है कि वर्तमान डेवेलप एल्गोरिथ्म जो एआई (AI) को आदेश देने में सक्षम नहीं होगा कि दुनिया को नष्ट करने के लिए अनजाने में अपने स्वयं को रोक पायेगा या नहीं । यदि ऐसा हुआ, तो आपको नहीं पता होगा कि क्या कंस्ट्रक्शन एल्गोरिथ्म (containment algorithm) है। यह अभी भी खतरे का विश्लेषण कर रहा है, या क्या यह हानिकारक एआई को रोकने के लिए बंद हो गया है। वास्तव में, यह सेंटर एंड ह्यूमन एंड मशीन के निदेशक इयाद रहवान कहते हैं, "यह एल्गोरिथ्म को अनुपयोगी (unusable) बनाता है।"
इन गणनाओं के आधार पर, समस्या का समाधान विवादास्पद है, अर्थात कोई भी एल्गोरिथम यह निर्धारित करने के लिए कोई समाधान नहीं ढूंढ सकता है कि कोई AI विश्व को हानि पहुंचाएगा या नहीं। इसके अलावा, शोधकर्ता ने यह प्रदर्शित किया हैं कि हम यह भी नहीं जान सकते हैं कि कब अधीक्षण यंत्र (superintelligent machines) आ सकते हैं या फिर हो सकता हो आ भी गए हो , क्योंकि यह तय करना कि क्या मशीन , मनुष्य से बेहतर बुद्धिमत्ता (intelligence) का प्रदर्शन करती है, यह अपने आप में समस्या है।
Superintelligent ai cannot be controlled (full information in hindi)