जब तक आप एक चट्टान के नीचे नहीं रह रहे हैं, आप एआई के विशेषज्ञों द्वारा बमबारी की जा रही चेतावनियों से अवगत हो सकते हैं। यह दावा किया गया है कि एक बार जब मानव एआई को पूरी तरह से विकसित कर लेता है, तो वह खुद को फिर से डिजाइन करेगा और एक घातीय दर से बढ़ेगा। इस बात से इनकार नहीं किया जा सकता है कि हम अभी तक भविष्य के बारे में कुछ नहीं जानते हैं, लेकिन जिस एआई को हमने आज तक डिजाइन और कोड किया है, वह ऐसा करने के लिए पर्याप्त परिपक्व नहीं है। हम शुरुआती चरण में हैं जहां हम उन्हें सरल निर्णय खुद लेना सिखा रहे हैं।
Source:techemergence.com
हमारा मानना है कि ऐसा करने से, हम कुछ सरल कार्य करने में मानवीय भागीदारी को कम कर सकते हैं जैसे कि यह तय करना कि कौन ऋण प्राप्त कर सकता है या कार चला सकता है, अगली वेतन वृद्धि प्राप्त कर सकता है, या कुछ अवलोकन कर सकता है जो मनुष्यों के लिए बहुत तेज़ हैं। लेकिन शोधकर्ता एक सवाल से जूझ रहे हैं कि क्या मशीनों को नैतिकता के बारे में सिखाया जाना चाहिए या नहीं?
पी>
इस प्रश्न का उत्तर देना इतना कठिन क्यों है?
यह निष्कर्ष निकालना एक कठिन कार्य है क्योंकि वास्तविक जीवन के निर्णय प्रोटोटाइप को लागू करने की तुलना में कहीं अधिक जटिल होते हैं। उदाहरण के लिए, सोचिए कि किसी मशीन को किसी भी परिस्थिति में निष्पक्षता के बारे में कैसे पता चलेगा जब तक कि वह पूरे परिदृश्य के बारे में नहीं जानती? हम मनुष्यों के पास परिस्थितियों के विभिन्न पहलुओं को देखने के बाद निष्कर्ष निकालने की महाशक्ति है, लेकिन मशीनें समान कार्य नहीं करेंगी!
Source:datasciencecentral.com
तो तकनीकी रूप से अभी तक हमारी मशीनों में मानवता को प्रेरित करना संभव नहीं है! इसके पीछे कारण यह है कि हम अंतरात्मा की भावना और आंत की भावना को प्रेरित करने से बहुत दूर हैं, जिस पर हम निर्णय लेते समय ज्यादातर समय भरोसा करते हैं। हां, ये मशीनें पोकर खेलने, ऑटोमेशन को संभालने, इसी तरह की गणना करने में हमसे कहीं बेहतर हैं, लेकिन उन्हें मानवीय पर्यवेक्षण की आवश्यकता है। अभी के लिए, यह कृत्रिम बुद्धि के भाग्य का फैसला करने के लिए कभी न खत्म होने वाली बहस चल रही है, हम लड़ने के बजाय निम्नलिखित दिशानिर्देशों पर ध्यान केंद्रित कर सकते हैं:
पी>
स्पष्ट रूप से नैतिक और मानवीय व्यवहार को परिभाषित करना
हमें कुछ विशिष्ट प्रश्नों के स्पष्ट उत्तर देने की आवश्यकता है जब तक कि हम उन्हें ठीक से प्रतिक्रिया करना नहीं सिखाते। हालाँकि, इसके लिए एक उचित पैनल की आवश्यकता होगी क्योंकि हम अभी भी अपनी नैतिकता के बारे में निश्चित नहीं हैं। भले ही हम अपने मतभेदों को एक तरफ रख दें, फिर भी बहुत सी चीजें हैं जिन पर हम एक समझदार और व्यापक रूप से स्वीकार्य समाधान नहीं निकाल सकते हैं।
पी>
मानव नैतिकता की क्राउडसोर्सिंग
यदि हम उत्पन्न होने वाले संघर्षों के लिए एक विकल्प खोजना चाहते हैं, तो भी मशीनें किसी एक चीज़ के प्रति पक्षपाती नहीं होंगी। परिस्थितियों के आधार पर, उनके निर्णय बदल सकते हैं जो फिर से संघर्षों को जन्म देंगे। अब अगर इसकी पहुंच उन मान्यताओं तक है, जिन पर इंसानों ने अपनी आस्था रखी है। इस तरह किसी भी स्थिति से कुछ भी निष्कर्ष निकालना आसान हो जाएगा।
Source:blog.applovin.com
सिस्टम को अधिक पारदर्शी बनाएं
यदि हम वर्तमान परिदृश्य को देखें, तो इन मशीनों के कार्यों को निर्देशित करने वाले तंत्रिका नेटवर्क बिल्कुल समझ में नहीं आते हैं। इसलिए, अगर हम जानते हैं कि इंजीनियरों ने उन्हें नैतिक मूल्यों को कैसे सिखाया है, तो हम आसानी से देख सकते हैं कि किसने गलती की और एल्गोरिथम को दोष नहीं दिया जिसे समझना बहुत कठिन था। यह बुद्धिमान स्व-ड्राइविंग वाहनों के लिए अत्यधिक उपयोगी होगा क्योंकि वे तब अपनी गलतियों और अनुभवों से सीखेंगे।
यह अनुशंसित है क्योंकि मनुष्यों के लिए नैतिक रूप से व्यवहार करने वाली मशीनों पर भरोसा करना आसान होगा। इसके अलावा, मार्गदर्शक सिद्धांत उन कृत्रिम एजेंटों पर बोझ कम करेंगे जो उनके कार्यों को निर्धारित करने के लिए जिम्मेदार हैं। इसके बाद हम इस तथ्य को नजरअंदाज नहीं कर सकते हैं कि यदि मशीनों और मनुष्यों को मिलकर निर्णय लेने की आवश्यकता होती है, तो साझा नैतिक मूल्य आम सहमति और समझौते की सुविधा प्रदान कर सकते हैं।
इसे बेहतर ढंग से समझने के लिए, एक उदाहरण लेते हैं। एक ऑपरेशन थियेटर की कल्पना करें जिसमें विशेषज्ञों के एक समूह को निर्णय लेने में कठिनाई हो रही हो। अब, कल्पना कीजिए कि उनकी मदद करने के लिए एक मशीन है। खैर, मूल रूप से ऐसा करने से हम और अधिक शक्तिशाली बनेंगे! और अब हम ऐसा होने का इंतजार नहीं कर सकते!
तुम क्या सोचते हो? नीचे दिए गए अनुभाग में अपनी टिप्पणी छोड़ें और हमें बताएं!