एआई संरेखण: कृत्रिम बुद्धिमत्ता लक्ष्यों का मिलान मानवीय मूल्यों से मेल खाता है

इमेज क्रेडिट:
छवि क्रेडिट
iStock

एआई संरेखण: कृत्रिम बुद्धिमत्ता लक्ष्यों का मिलान मानवीय मूल्यों से मेल खाता है

एआई संरेखण: कृत्रिम बुद्धिमत्ता लक्ष्यों का मिलान मानवीय मूल्यों से मेल खाता है

उपशीर्षक पाठ
कुछ शोधकर्ताओं का मानना ​​है कि यह सुनिश्चित करने के लिए उपायों को लागू किया जाना चाहिए कि कृत्रिम बुद्धि समाज को नुकसान न पहुंचाए।
    • लेखक:
    • लेखक का नाम
      क्वांटमरन दूरदर्शिता
    • जनवरी ७,२०२१

    आर्टिफिशियल इंटेलिजेंस (एआई) संरेखण तब होता है जब एआई सिस्टम के लक्ष्य मानवीय मूल्यों से मेल खाते हैं। OpenAI, DeepMind, और Anthropic जैसी कंपनियों के पास शोधकर्ताओं की टीमें हैं जिनका एकमात्र ध्यान विभिन्न परिदृश्यों के लिए रेलिंग का अध्ययन करना है जिसमें ऐसा हो सकता है।

    एआई संरेखण संदर्भ

    2021 यूनिवर्सिटी ऑफ कॉर्नेल के शोध अध्ययन के अनुसार, कई अध्ययनों से पता चला है कि एल्गोरिदम द्वारा बनाए गए उपकरण या मॉडल उस डेटा से पूर्वाग्रह प्रदर्शित करते हैं जिस पर उन्हें प्रशिक्षित किया गया था। उदाहरण के लिए, प्राकृतिक भाषा प्रसंस्करण (एनएलपी) में, सीमित डेटा सेट पर प्रशिक्षित एनएलपी मॉडल का चयन किया गया है, जो महिलाओं के खिलाफ हानिकारक लिंग रूढ़िवादिता के आधार पर भविष्यवाणी करते हुए प्रलेखित किया गया है। इसी तरह, अन्य अध्ययनों में पाया गया कि छेड़छाड़ किए गए डेटा सेट पर प्रशिक्षित एल्गोरिदम के परिणामस्वरूप नस्लीय पक्षपाती सिफारिशें हुईं, खासकर पुलिसिंग में।

    ऐसे बहुत सारे उदाहरण हैं जिनमें मशीन लर्निंग सिस्टम ने अल्पसंख्यकों या कई नुकसानों से पीड़ित समूहों के लिए बदतर काम किया है। विशेष रूप से, स्वचालित चेहरे का विश्लेषण और स्वास्थ्य देखभाल निदान आमतौर पर महिलाओं और रंग के लोगों के लिए बहुत अच्छा काम नहीं करते हैं। जब महत्वपूर्ण प्रणाली जो भावना के बजाय तथ्यों और तर्क पर आधारित होनी चाहिए, स्वास्थ्य देखभाल या शिक्षा के आवंटन जैसे संदर्भों में उपयोग की जाती है, तो वे इन सिफारिशों के पीछे तर्क की पहचान करना कठिन बनाकर अधिक नुकसान कर सकते हैं।

    नतीजतन, टेक फर्म एल्गोरिदम को निष्पक्ष और मानवीय बनाए रखने पर ध्यान केंद्रित करने के लिए एआई संरेखण टीमों का निर्माण कर रही हैं। उन्नत एआई सिस्टम की दिशा को समझने के लिए अनुसंधान आवश्यक है, साथ ही साथ एआई क्षमताओं के बढ़ने पर हमें जिन चुनौतियों का सामना करना पड़ सकता है।

    विघटनकारी प्रभाव

    OpenAI (2021) में AI अलाइनमेंट के प्रमुख जन लेइक के अनुसार, यह देखते हुए कि AI सिस्टम केवल 2010 के दशक में ही सक्षम हो गए हैं, यह समझ में आता है कि अधिकांश AI संरेखण अनुसंधान सिद्धांत-भारी रहा है। जब अत्यधिक शक्तिशाली एआई सिस्टम संरेखित होते हैं, तो मनुष्यों के सामने आने वाली चुनौतियों में से एक यह है कि ये मशीनें ऐसे समाधान तैयार कर सकती हैं जो समीक्षा और मूल्यांकन के लिए बहुत जटिल हैं यदि वे नैतिक रूप से समझ में आते हैं।

    लेइक ने इस समस्या को ठीक करने के लिए एक पुनरावर्ती इनाम मॉडलिंग (आरआरएम) रणनीति तैयार की। आरआरएम के साथ, कई "सहायक" एआई को मानव मूल्यांकन में मदद करने के लिए सिखाया जाता है कि एक अधिक जटिल एआई कितना अच्छा प्रदर्शन करता है। वह "संरेखण एमवीपी" के रूप में संदर्भित कुछ बनाने की संभावना के बारे में आशावादी है। स्टार्टअप शर्तों में, एक एमवीपी (या न्यूनतम व्यवहार्य उत्पाद) सबसे आसान संभव उत्पाद है जिसे कंपनी किसी विचार का परीक्षण करने के लिए बना सकती है। आशा यह है कि किसी दिन, एआई शोध में मानव प्रदर्शन से मेल खाता है और कार्यात्मक होने के साथ-साथ मूल्यों के साथ इसका संरेखण भी करता है।

    जबकि एआई संरेखण में बढ़ती रुचि एक शुद्ध सकारात्मक है, क्षेत्र के कई विश्लेषकों का मानना ​​​​है कि प्रमुख एआई प्रयोगशालाओं में "नैतिकता" का अधिकांश कार्य तकनीकी कंपनियों को अच्छा दिखने और नकारात्मक प्रचार से बचने के लिए डिज़ाइन किया गया जनसंपर्क है। ये व्यक्ति जल्द ही इन कंपनियों के लिए नैतिक विकास प्रथाओं को प्राथमिकता बनने की उम्मीद नहीं करते हैं।

    ये अवलोकन मूल्य संरेखण प्रयासों के लिए अंतःविषय दृष्टिकोण के महत्व को उजागर करते हैं, क्योंकि यह नैतिक और तकनीकी जांच का एक अपेक्षाकृत नया क्षेत्र है। ज्ञान की विभिन्न शाखाओं को समावेशी शोध एजेंडे का हिस्सा होना चाहिए। यह पहल प्रौद्योगिकीविदों और नीति निर्माताओं को अपने सामाजिक संदर्भ और हितधारकों के प्रति जागरूक रहने की आवश्यकता की ओर भी इशारा करती है, भले ही एआई सिस्टम अधिक उन्नत हो गए हों।

    एआई संरेखण के निहितार्थ

    एआई संरेखण के व्यापक प्रभावों में शामिल हो सकते हैं: 

    • आर्टिफिशियल इंटेलिजेंस लैब परियोजनाओं की निगरानी और एथिकल एआई दिशानिर्देशों को पूरा करने के लिए विविध नैतिकता बोर्डों को काम पर रखती हैं। 
    • सरकारें ऐसे कानून बनाती हैं जिनके लिए कंपनियों को अपने जिम्मेदार एआई ढांचे को प्रस्तुत करने की आवश्यकता होती है और वे अपनी एआई परियोजनाओं को और विकसित करने की योजना कैसे बनाते हैं।
    • भर्ती, सार्वजनिक निगरानी और कानून प्रवर्तन में एल्गोरिथम के उपयोग पर बढ़ते विवाद।
    • नैतिकता और कॉर्पोरेट लक्ष्यों के बीच हितों के टकराव के कारण बड़ी एआई प्रयोगशालाओं से शोधकर्ताओं को निकाल दिया जा रहा है।
    • उन्नत एआई सिस्टम को विनियमित करने के लिए सरकारों पर अधिक दबाव जो दोनों अविश्वसनीय रूप से शक्तिशाली हैं लेकिन संभावित रूप से मानव अधिकारों का उल्लंघन कर सकते हैं।

    टिप्पणी करने के लिए प्रश्न

    • फर्मों को उनके द्वारा बनाए गए AI सिस्टम के लिए कैसे जवाबदेह बनाया जा सकता है?
    • एआई मिसलिग्न्मेंट होने पर अन्य संभावित खतरे क्या हैं?

    अंतर्दृष्टि संदर्भ

    इस अंतर्दृष्टि के लिए निम्नलिखित लोकप्रिय और संस्थागत लिंक संदर्भित किए गए थे: