AI સંરેખણ: કૃત્રિમ બુદ્ધિમત્તાના લક્ષ્યો માનવ મૂલ્યો સાથે મેળ ખાય છે

ઇમેજ ક્રેડિટ:
છબી ક્રેડિટ
iStock

AI સંરેખણ: કૃત્રિમ બુદ્ધિમત્તાના લક્ષ્યો માનવ મૂલ્યો સાથે મેળ ખાય છે

AI સંરેખણ: કૃત્રિમ બુદ્ધિમત્તાના લક્ષ્યો માનવ મૂલ્યો સાથે મેળ ખાય છે

સબહેડિંગ ટેક્સ્ટ
કેટલાક સંશોધકો માને છે કે આર્ટિફિશિયલ ઈન્ટેલિજન્સ સમાજને નુકસાન ન પહોંચાડે તે માટે પગલાં અમલમાં મૂકવા જોઈએ.
    • લેખક:
    • લેખક નામ
      ક્વોન્ટમરુન અગમચેતી
    • જાન્યુઆરી ૫, ૨૦૨૧

    આર્ટિફિશિયલ ઇન્ટેલિજન્સ (AI) સંરેખણ એ છે જ્યારે AI સિસ્ટમના લક્ષ્યો માનવ મૂલ્યો સાથે મેળ ખાય છે. ઓપનએઆઈ, ડીપમાઇન્ડ અને એન્થ્રોપિક જેવી કંપનીઓ પાસે સંશોધકોની ટીમો છે જેનું એકમાત્ર ધ્યાન અલગ-અલગ દૃશ્યો માટે ચોકઠાનો અભ્યાસ કરવાનું છે જેમાં આવું થઈ શકે છે.

    AI સંરેખણ સંદર્ભ

    2021 યુનિવર્સિટી ઓફ કોર્નેલ સંશોધન અભ્યાસ અનુસાર, ઘણા અભ્યાસોએ દર્શાવ્યું છે કે અલ્ગોરિધમ્સ દ્વારા બનાવવામાં આવેલ ટૂલ્સ અથવા મોડલ્સ તેઓને તાલીમ આપવામાં આવેલ ડેટામાંથી મેળવેલ પૂર્વગ્રહ દર્શાવે છે. ઉદાહરણ તરીકે, નેચરલ લેંગ્વેજ પ્રોસેસિંગ (NLP)માં, મર્યાદિત ડેટા સેટ પર પ્રશિક્ષિત NLP મોડલ્સનું દસ્તાવેજીકરણ કરવામાં આવ્યું છે જે મહિલાઓ સામે હાનિકારક લિંગ સ્ટીરિયોટાઇપ્સના આધારે આગાહી કરે છે. એ જ રીતે, અન્ય અભ્યાસોમાં જાણવા મળ્યું છે કે છેડછાડ કરેલા ડેટા સેટ પર પ્રશિક્ષિત અલ્ગોરિધમ્સ વંશીય રીતે પક્ષપાતી ભલામણોમાં પરિણમે છે, ખાસ કરીને પોલીસિંગમાં.

    એવા પુષ્કળ ઉદાહરણો છે જેમાં મશીન લર્નિંગ સિસ્ટમોએ લઘુમતીઓ અથવા બહુવિધ ગેરફાયદાથી પીડિત જૂથો માટે વધુ ખરાબ કર્યું છે. ખાસ કરીને, ઓટોમેટેડ ફેશિયલ એનાલિસિસ અને હેલ્થકેર ડાયગ્નોસ્ટિક્સ સામાન્ય રીતે સ્ત્રીઓ અને રંગીન લોકો માટે બહુ સારી રીતે કામ કરતા નથી. જ્યારે મહત્વની સિસ્ટમો કે જે લાગણીને બદલે તથ્યો અને તર્ક પર આધારિત હોવી જોઈએ તેનો ઉપયોગ આરોગ્યસંભાળ અથવા શિક્ષણની ફાળવણી જેવા સંદર્ભોમાં કરવામાં આવે છે, ત્યારે તેઓ આ ભલામણો પાછળના તર્કને ઓળખવાનું મુશ્કેલ બનાવીને વધુ નુકસાન કરી શકે છે.

    પરિણામે, ટેક કંપનીઓ એલ્ગોરિધમ્સને ન્યાયી અને માનવીય રાખવા પર ધ્યાન કેન્દ્રિત કરવા માટે AI સંરેખણ ટીમો બનાવી રહી છે. અદ્યતન AI સિસ્ટમ્સની દિશા સમજવા માટે સંશોધન જરૂરી છે, તેમજ AI ક્ષમતાઓ વધવાથી આપણે જે પડકારોનો સામનો કરી શકીએ છીએ.

    વિક્ષેપકારક અસર

    OpenAI (2021) ખાતે AI સંરેખણના વડા, જાન લેઇકના જણાવ્યા અનુસાર, AI સિસ્ટમો માત્ર 2010 માં જ સક્ષમ બની છે, તે સમજી શકાય તેવું છે કે મોટાભાગના AI સંરેખણ સંશોધન થિયરી-ભારે છે. જ્યારે અતિશય શક્તિશાળી AI સિસ્ટમો ગોઠવવામાં આવે છે, ત્યારે માનવીઓ જે પડકારોનો સામનો કરે છે તે પૈકી એક એ છે કે આ મશીનો એવા ઉકેલો બનાવી શકે છે જે સમીક્ષા કરવા અને મૂલ્યાંકન કરવા માટે ખૂબ જટિલ હોય કે શું તેઓ નૈતિક રીતે અર્થપૂર્ણ છે.

    લેઇકે આ સમસ્યાને ઠીક કરવા માટે પુનરાવર્તિત પુરસ્કાર મોડેલિંગ (RRM) વ્યૂહરચના ઘડી. RRM સાથે, વધુ જટિલ AI કેટલું સારું પ્રદર્શન કરે છે તેનું મૂલ્યાંકન કરવામાં મદદ કરવા માટે ઘણા "સહાયક" AI ને શીખવવામાં આવે છે. તે કંઈક બનાવવાની સંભાવના વિશે આશાવાદી છે જેનો તે "સંરેખણ MVP" તરીકે ઉલ્લેખ કરે છે. સ્ટાર્ટઅપની શરતોમાં, એક MVP (અથવા લઘુત્તમ વ્યવહારુ ઉત્પાદન) એ સૌથી સરળ શક્ય ઉત્પાદન છે જે કંપની કોઈ વિચારને ચકાસવા માટે બનાવી શકે છે. આશા છે કે કોઈ દિવસ, AI AI સંશોધનમાં માનવ પ્રદર્શન સાથે મેળ ખાય છે અને મૂલ્યો સાથે તેનું સંરેખણ કાર્યશીલ પણ છે.

    AI સંરેખણમાં રસ વધવો એ ચોખ્ખી સકારાત્મક બાબત છે, પરંતુ આ ક્ષેત્રના ઘણા વિશ્લેષકો માને છે કે અગ્રણી AI લેબ્સમાં મોટાભાગની "નૈતિકતા" કામ માત્ર ટેક કંપનીઓને સારી દેખાડવા અને નકારાત્મક પ્રચારને ટાળવા માટે રચાયેલ જાહેર સંબંધો છે. આ વ્યક્તિઓ અપેક્ષા રાખતા નથી કે નૈતિક વિકાસ પ્રથાઓ આ કંપનીઓ માટે ગમે ત્યારે જલ્દી પ્રાથમિકતા બની જાય.

    આ અવલોકનો મૂલ્ય સંરેખણના પ્રયાસો માટે આંતરશાખાકીય અભિગમોના મહત્વને પ્રકાશિત કરે છે, કારણ કે આ નૈતિક અને તકનીકી તપાસનું પ્રમાણમાં નવું ક્ષેત્ર છે. જ્ઞાનની વિવિધ શાખાઓ સર્વસમાવેશક સંશોધન કાર્યસૂચિનો ભાગ હોવી જોઈએ. આ પહેલ ટેક્નોલોજિસ્ટ્સ અને નીતિ નિર્માતાઓને તેમના સામાજિક સંદર્ભ અને હિતધારકો વિશે જાગૃત રહેવાની જરૂરિયાત તરફ પણ નિર્દેશ કરે છે, ભલે AI સિસ્ટમ્સ વધુ અદ્યતન બની જાય.

    AI સંરેખણની અસરો

    AI સંરેખણની વ્યાપક અસરોમાં નીચેનાનો સમાવેશ થઈ શકે છે: 

    • આર્ટિફિશિયલ ઇન્ટેલિજન્સ લેબ પ્રોજેક્ટ્સની દેખરેખ રાખવા અને નૈતિક AI માર્ગદર્શિકાઓને પરિપૂર્ણ કરવા માટે વિવિધ એથિક્સ બોર્ડની ભરતી કરે છે. 
    • સરકારો એવા કાયદાઓ બનાવે છે કે જેના માટે કંપનીઓને તેમના જવાબદાર AI ફ્રેમવર્ક સબમિટ કરવાની જરૂર પડે છે અને તેઓ તેમના AI પ્રોજેક્ટને આગળ કેવી રીતે વિકસાવવાની યોજના બનાવે છે.
    • ભરતી, જાહેર દેખરેખ અને કાયદાના અમલીકરણમાં અલ્ગોરિધમ્સના ઉપયોગ પર વિવાદોમાં વધારો.
    • નૈતિકતા અને કોર્પોરેટ ધ્યેયો વચ્ચેના હિતોના સંઘર્ષને કારણે સંશોધકોને મોટી AI લેબમાંથી કાઢી મૂકવામાં આવે છે.
    • સરકારો માટે અદ્યતન AI સિસ્ટમ્સનું નિયમન કરવા માટે વધુ દબાણ કે જે બંને અતિશય શક્તિશાળી છે પરંતુ માનવ અધિકારોનું સંભવિત ઉલ્લંઘન કરી શકે છે.

    ટિપ્પણી કરવા માટેના પ્રશ્નો

    • તેઓ બનાવેલી AI સિસ્ટમ્સ માટે કંપનીઓને કેવી રીતે જવાબદાર બનાવી શકાય?
    • જો AI ખોટી ગોઠવણી હોય તો અન્ય સંભવિત જોખમો શું છે?

    આંતરદૃષ્ટિ સંદર્ભો

    આ આંતરદૃષ્ટિ માટે નીચેની લોકપ્રિય અને સંસ્થાકીય લિંક્સનો સંદર્ભ આપવામાં આવ્યો હતો: