AI संरेखन: कृत्रिम बुद्धिमत्तेची उद्दिष्टे मानवी मूल्यांशी जुळतात

इमेज क्रेडिट:
प्रतिमा क्रेडिट
iStock

AI संरेखन: कृत्रिम बुद्धिमत्तेची उद्दिष्टे मानवी मूल्यांशी जुळतात

AI संरेखन: कृत्रिम बुद्धिमत्तेची उद्दिष्टे मानवी मूल्यांशी जुळतात

उपशीर्षक मजकूर
काही संशोधकांचा असा विश्वास आहे की कृत्रिम बुद्धिमत्तेमुळे समाजाला हानी पोहोचणार नाही याची खात्री करण्यासाठी उपाययोजना अंमलात आणल्या पाहिजेत.
    • लेखक बद्दल:
    • लेखक नाव
      Quantumrun दूरदृष्टी
    • जानेवारी 25, 2023

    कृत्रिम बुद्धिमत्ता (AI) संरेखन म्हणजे जेव्हा AI प्रणालीची उद्दिष्टे मानवी मूल्यांशी जुळतात. OpenAI, DeepMind आणि Anthropic सारख्या कंपन्यांकडे संशोधकांचे संघ आहेत ज्यांचे एकमेव लक्ष हे घडू शकते अशा वेगवेगळ्या परिस्थितींसाठी रेलिंगचा अभ्यास करणे आहे.

    AI संरेखन संदर्भ

    कॉर्नेल विद्यापीठाच्या 2021 च्या संशोधन अभ्यासानुसार, अनेक अभ्यासात असे दिसून आले आहे की अल्गोरिदमद्वारे तयार केलेली साधने किंवा मॉडेल्स त्यांना प्रशिक्षित केलेल्या डेटावरून पूर्वाग्रह दाखवतात. उदाहरणार्थ, नॅचरल लँग्वेज प्रोसेसिंग (NLP) मध्ये, मर्यादित डेटा सेटवर प्रशिक्षित निवडक NLP मॉडेल्सचे दस्तऐवजीकरण केले गेले आहे जे स्त्रियांच्या विरूद्ध हानिकारक लिंग स्टिरियोटाइपवर आधारित भविष्यवाणी करतात. त्याचप्रमाणे, इतर अभ्यासांमध्ये असे आढळून आले की छेडछाड केलेल्या डेटा सेटवर प्रशिक्षित अल्गोरिदमचा परिणाम वांशिकदृष्ट्या पक्षपाती शिफारसी, विशेषतः पोलिसिंगमध्ये झाला.

    अशी पुष्कळ उदाहरणे आहेत ज्यात मशीन लर्निंग सिस्टमने अल्पसंख्याकांसाठी किंवा अनेक गैरसोयींनी ग्रस्त असलेल्या गटांसाठी वाईट केले आहे. विशेषतः, स्वयंचलित चेहर्याचे विश्लेषण आणि हेल्थकेअर डायग्नोस्टिक्स सामान्यत: महिला आणि रंगाच्या लोकांसाठी फार चांगले काम करत नाहीत. जेव्हा भावनांऐवजी तथ्ये आणि तर्कावर आधारित गंभीर प्रणालींचा वापर आरोग्यसेवा किंवा शिक्षण वाटप करण्यासारख्या संदर्भांमध्ये केला जातो, तेव्हा या शिफारशींमागील तर्क ओळखणे कठीण करून ते अधिक नुकसान करू शकतात.

    परिणामी, टेक कंपन्या अल्गोरिदम न्याय्य आणि मानवीय ठेवण्यावर लक्ष केंद्रित करण्यासाठी AI संरेखन संघ तयार करत आहेत. प्रगत AI सिस्टीमची दिशा समजून घेण्यासाठी तसेच AI क्षमतांमध्ये वाढ होत असताना आपल्यासमोर येणारी आव्हाने समजून घेण्यासाठी संशोधन आवश्यक आहे.

    व्यत्यय आणणारा प्रभाव

    ओपनएआय (२०२१) मधील एआय अलाइनमेंटचे प्रमुख जॅन लीके यांच्या मते, २०१० च्या दशकात एआय सिस्टम सक्षम झाल्या आहेत, हे समजण्यासारखे आहे की बहुतेक एआय संरेखन संशोधन सिद्धांत-भारी आहे. जेव्हा प्रचंड शक्तिशाली AI प्रणाली संरेखित केल्या जातात, तेव्हा मानवांसमोरील आव्हानांपैकी एक म्हणजे ही यंत्रे असे उपाय तयार करू शकतात ज्यांचे पुनरावलोकन करणे आणि नैतिकदृष्ट्या अर्थपूर्ण आहे की नाही याचे मूल्यांकन करणे खूप क्लिष्ट आहे.

    लीकेने या समस्येचे निराकरण करण्यासाठी रिकर्सिव रिवॉर्ड मॉडेलिंग (RRM) धोरण तयार केले. RRM सह, अधिक जटिल AI किती चांगले कार्य करते याचे मूल्यमापन करण्यात मानवाला मदत करण्यासाठी अनेक "मदतनीस" AI शिकवले जातात. तो "संरेखन MVP" म्हणून संदर्भित काहीतरी तयार करण्याच्या शक्यतेबद्दल आशावादी आहे. स्टार्टअप अटींमध्ये, एक MVP (किंवा किमान व्यवहार्य उत्पादन) हे सर्वात सोपे उत्पादन आहे जे कंपनी एखाद्या कल्पनेची चाचणी घेण्यासाठी तयार करू शकते. आशा आहे की एखाद्या दिवशी, AI AI चे संशोधन करण्याच्या मानवी कामगिरीशी आणि त्याचे मूल्यांसह संरेखन कार्यशील असताना देखील जुळेल.

    AI संरेखन मधील वाढती स्वारस्य निव्वळ सकारात्मक असली तरी, क्षेत्रातील अनेक विश्लेषकांना वाटते की अग्रगण्य AI लॅबमध्ये "नीतीमत्तेचे" कार्य हे तंत्रज्ञान कंपन्या चांगले दिसण्यासाठी आणि नकारात्मक प्रसिद्धी टाळण्यासाठी डिझाइन केलेले जनसंपर्क आहे. नैतिक विकास पद्धती या कंपन्यांसाठी लवकरच प्राधान्यक्रम बनतील अशी या व्यक्तींची अपेक्षा नाही.

    ही निरीक्षणे मूल्य संरेखन प्रयत्नांसाठी आंतरशाखीय दृष्टिकोनाचे महत्त्व अधोरेखित करतात, कारण हे नैतिक आणि तांत्रिक चौकशीचे तुलनेने नवीन क्षेत्र आहे. ज्ञानाच्या विविध शाखा सर्वसमावेशक संशोधन कार्यक्रमाचा भाग असायला हव्यात. हा उपक्रम तंत्रज्ञानशास्त्रज्ञ आणि धोरणकर्त्यांनी त्यांच्या सामाजिक संदर्भ आणि भागधारकांबद्दल जागरूक राहण्याची गरज देखील दर्शवितो, जरी AI प्रणाली अधिक प्रगत होत आहेत.

    AI संरेखनाचे परिणाम

    AI संरेखनाच्या व्यापक परिणामांमध्ये हे समाविष्ट असू शकते: 

    • कृत्रिम बुद्धिमत्ता प्रयोगशाळा प्रकल्पांवर देखरेख ठेवण्यासाठी आणि नैतिक AI मार्गदर्शक तत्त्वांची पूर्तता करण्यासाठी विविध नैतिक मंडळांची नियुक्ती करतात. 
    • सरकारे असे कायदे तयार करतात ज्यात कंपन्यांना त्यांचे जबाबदार AI फ्रेमवर्क सादर करावे लागते आणि ते त्यांचे AI प्रकल्प पुढे कसे विकसित करायचे ठरवतात.
    • भर्ती, सार्वजनिक पाळत ठेवणे आणि कायद्याची अंमलबजावणी यामध्ये अल्गोरिदमच्या वापरावरील वाढलेले विवाद.
    • नैतिकता आणि कॉर्पोरेट उद्दिष्टांमधील हितसंबंधांच्या संघर्षामुळे संशोधकांना मोठ्या AI लॅबमधून काढून टाकले जात आहे.
    • दोन्ही आश्चर्यकारकपणे शक्तिशाली असलेल्या परंतु मानवी हक्कांचे संभाव्य उल्लंघन करू शकणार्‍या प्रगत AI प्रणालींचे नियमन करण्यासाठी सरकारांवर अधिक दबाव.

    टिप्पणी करण्यासाठी प्रश्न

    • कंपन्यांना त्यांनी तयार केलेल्या AI प्रणालींसाठी जबाबदार कसे ठरवता येईल?
    • AI चुकीचे संरेखन असल्यास इतर संभाव्य धोके कोणते आहेत?

    अंतर्दृष्टी संदर्भ

    या अंतर्दृष्टीसाठी खालील लोकप्रिय आणि संस्थात्मक दुवे संदर्भित केले गेले: