AI संरेखन: कृत्रिम बुद्धिमत्तेची उद्दिष्टे मानवी मूल्यांशी जुळतात
AI संरेखन: कृत्रिम बुद्धिमत्तेची उद्दिष्टे मानवी मूल्यांशी जुळतात
AI संरेखन: कृत्रिम बुद्धिमत्तेची उद्दिष्टे मानवी मूल्यांशी जुळतात
- लेखक बद्दल:
- जानेवारी 25, 2023
कृत्रिम बुद्धिमत्ता (AI) संरेखन म्हणजे जेव्हा AI प्रणालीची उद्दिष्टे मानवी मूल्यांशी जुळतात. OpenAI, DeepMind आणि Anthropic सारख्या कंपन्यांकडे संशोधकांचे संघ आहेत ज्यांचे एकमेव लक्ष हे घडू शकते अशा वेगवेगळ्या परिस्थितींसाठी रेलिंगचा अभ्यास करणे आहे.
AI संरेखन संदर्भ
कॉर्नेल विद्यापीठाच्या 2021 च्या संशोधन अभ्यासानुसार, अनेक अभ्यासात असे दिसून आले आहे की अल्गोरिदमद्वारे तयार केलेली साधने किंवा मॉडेल्स त्यांना प्रशिक्षित केलेल्या डेटावरून पूर्वाग्रह दाखवतात. उदाहरणार्थ, नॅचरल लँग्वेज प्रोसेसिंग (NLP) मध्ये, मर्यादित डेटा सेटवर प्रशिक्षित निवडक NLP मॉडेल्सचे दस्तऐवजीकरण केले गेले आहे जे स्त्रियांच्या विरूद्ध हानिकारक लिंग स्टिरियोटाइपवर आधारित भविष्यवाणी करतात. त्याचप्रमाणे, इतर अभ्यासांमध्ये असे आढळून आले की छेडछाड केलेल्या डेटा सेटवर प्रशिक्षित अल्गोरिदमचा परिणाम वांशिकदृष्ट्या पक्षपाती शिफारसी, विशेषतः पोलिसिंगमध्ये झाला.
अशी पुष्कळ उदाहरणे आहेत ज्यात मशीन लर्निंग सिस्टमने अल्पसंख्याकांसाठी किंवा अनेक गैरसोयींनी ग्रस्त असलेल्या गटांसाठी वाईट केले आहे. विशेषतः, स्वयंचलित चेहर्याचे विश्लेषण आणि हेल्थकेअर डायग्नोस्टिक्स सामान्यत: महिला आणि रंगाच्या लोकांसाठी फार चांगले काम करत नाहीत. जेव्हा भावनांऐवजी तथ्ये आणि तर्कावर आधारित गंभीर प्रणालींचा वापर आरोग्यसेवा किंवा शिक्षण वाटप करण्यासारख्या संदर्भांमध्ये केला जातो, तेव्हा या शिफारशींमागील तर्क ओळखणे कठीण करून ते अधिक नुकसान करू शकतात.
परिणामी, टेक कंपन्या अल्गोरिदम न्याय्य आणि मानवीय ठेवण्यावर लक्ष केंद्रित करण्यासाठी AI संरेखन संघ तयार करत आहेत. प्रगत AI सिस्टीमची दिशा समजून घेण्यासाठी तसेच AI क्षमतांमध्ये वाढ होत असताना आपल्यासमोर येणारी आव्हाने समजून घेण्यासाठी संशोधन आवश्यक आहे.
व्यत्यय आणणारा प्रभाव
ओपनएआय (२०२१) मधील एआय अलाइनमेंटचे प्रमुख जॅन लीके यांच्या मते, २०१० च्या दशकात एआय सिस्टम सक्षम झाल्या आहेत, हे समजण्यासारखे आहे की बहुतेक एआय संरेखन संशोधन सिद्धांत-भारी आहे. जेव्हा प्रचंड शक्तिशाली AI प्रणाली संरेखित केल्या जातात, तेव्हा मानवांसमोरील आव्हानांपैकी एक म्हणजे ही यंत्रे असे उपाय तयार करू शकतात ज्यांचे पुनरावलोकन करणे आणि नैतिकदृष्ट्या अर्थपूर्ण आहे की नाही याचे मूल्यांकन करणे खूप क्लिष्ट आहे.
लीकेने या समस्येचे निराकरण करण्यासाठी रिकर्सिव रिवॉर्ड मॉडेलिंग (RRM) धोरण तयार केले. RRM सह, अधिक जटिल AI किती चांगले कार्य करते याचे मूल्यमापन करण्यात मानवाला मदत करण्यासाठी अनेक "मदतनीस" AI शिकवले जातात. तो "संरेखन MVP" म्हणून संदर्भित काहीतरी तयार करण्याच्या शक्यतेबद्दल आशावादी आहे. स्टार्टअप अटींमध्ये, एक MVP (किंवा किमान व्यवहार्य उत्पादन) हे सर्वात सोपे उत्पादन आहे जे कंपनी एखाद्या कल्पनेची चाचणी घेण्यासाठी तयार करू शकते. आशा आहे की एखाद्या दिवशी, AI AI चे संशोधन करण्याच्या मानवी कामगिरीशी आणि त्याचे मूल्यांसह संरेखन कार्यशील असताना देखील जुळेल.
AI संरेखन मधील वाढती स्वारस्य निव्वळ सकारात्मक असली तरी, क्षेत्रातील अनेक विश्लेषकांना वाटते की अग्रगण्य AI लॅबमध्ये "नीतीमत्तेचे" कार्य हे तंत्रज्ञान कंपन्या चांगले दिसण्यासाठी आणि नकारात्मक प्रसिद्धी टाळण्यासाठी डिझाइन केलेले जनसंपर्क आहे. नैतिक विकास पद्धती या कंपन्यांसाठी लवकरच प्राधान्यक्रम बनतील अशी या व्यक्तींची अपेक्षा नाही.
ही निरीक्षणे मूल्य संरेखन प्रयत्नांसाठी आंतरशाखीय दृष्टिकोनाचे महत्त्व अधोरेखित करतात, कारण हे नैतिक आणि तांत्रिक चौकशीचे तुलनेने नवीन क्षेत्र आहे. ज्ञानाच्या विविध शाखा सर्वसमावेशक संशोधन कार्यक्रमाचा भाग असायला हव्यात. हा उपक्रम तंत्रज्ञानशास्त्रज्ञ आणि धोरणकर्त्यांनी त्यांच्या सामाजिक संदर्भ आणि भागधारकांबद्दल जागरूक राहण्याची गरज देखील दर्शवितो, जरी AI प्रणाली अधिक प्रगत होत आहेत.
AI संरेखनाचे परिणाम
AI संरेखनाच्या व्यापक परिणामांमध्ये हे समाविष्ट असू शकते:
- कृत्रिम बुद्धिमत्ता प्रयोगशाळा प्रकल्पांवर देखरेख ठेवण्यासाठी आणि नैतिक AI मार्गदर्शक तत्त्वांची पूर्तता करण्यासाठी विविध नैतिक मंडळांची नियुक्ती करतात.
- सरकारे असे कायदे तयार करतात ज्यात कंपन्यांना त्यांचे जबाबदार AI फ्रेमवर्क सादर करावे लागते आणि ते त्यांचे AI प्रकल्प पुढे कसे विकसित करायचे ठरवतात.
- भर्ती, सार्वजनिक पाळत ठेवणे आणि कायद्याची अंमलबजावणी यामध्ये अल्गोरिदमच्या वापरावरील वाढलेले विवाद.
- नैतिकता आणि कॉर्पोरेट उद्दिष्टांमधील हितसंबंधांच्या संघर्षामुळे संशोधकांना मोठ्या AI लॅबमधून काढून टाकले जात आहे.
- दोन्ही आश्चर्यकारकपणे शक्तिशाली असलेल्या परंतु मानवी हक्कांचे संभाव्य उल्लंघन करू शकणार्या प्रगत AI प्रणालींचे नियमन करण्यासाठी सरकारांवर अधिक दबाव.
टिप्पणी करण्यासाठी प्रश्न
- कंपन्यांना त्यांनी तयार केलेल्या AI प्रणालींसाठी जबाबदार कसे ठरवता येईल?
- AI चुकीचे संरेखन असल्यास इतर संभाव्य धोके कोणते आहेत?
अंतर्दृष्टी संदर्भ
या अंतर्दृष्टीसाठी खालील लोकप्रिय आणि संस्थात्मक दुवे संदर्भित केले गेले: