AI சீரமைப்பு: செயற்கை நுண்ணறிவு இலக்குகளை பொருத்துவது மனித மதிப்புகளுடன் பொருந்துகிறது

பட கடன்:
பட கடன்
கசய்துள்ைது

AI சீரமைப்பு: செயற்கை நுண்ணறிவு இலக்குகளை பொருத்துவது மனித மதிப்புகளுடன் பொருந்துகிறது

AI சீரமைப்பு: செயற்கை நுண்ணறிவு இலக்குகளை பொருத்துவது மனித மதிப்புகளுடன் பொருந்துகிறது

உபதலைப்பு உரை
சில ஆராய்ச்சியாளர்கள் செயற்கை நுண்ணறிவு சமூகத்திற்கு தீங்கு விளைவிக்காமல் இருக்க நடவடிக்கை எடுக்க வேண்டும் என்று நம்புகின்றனர்.
    • ஆசிரியர் பற்றி:
    • ஆசிரியர் பெயர்
      குவாண்டம்ரன் தொலைநோக்கு
    • ஜனவரி 25, 2023

    செயற்கை நுண்ணறிவு (AI) சீரமைப்பு என்பது ஒரு AI அமைப்பின் குறிக்கோள்கள் மனித மதிப்புகளுடன் பொருந்துவதாகும். OpenAI, DeepMind மற்றும் Anthropic போன்ற நிறுவனங்களில் ஆராய்ச்சியாளர்களின் குழுக்கள் உள்ளன, அவற்றின் ஒரே கவனம் இது நிகழக்கூடிய பல்வேறு சூழ்நிலைகளுக்கான காவலாளிகளைப் படிப்பதாகும்.

    AI சீரமைப்பு சூழல்

    2021 ஆம் ஆண்டு கார்னெல் பல்கலைக்கழக ஆராய்ச்சி ஆய்வின்படி, அல்காரிதம்களால் உருவாக்கப்பட்ட கருவிகள் அல்லது மாதிரிகள் அவர்கள் பயிற்சி பெற்ற தரவுகளிலிருந்து பெறப்பட்ட சார்புகளைக் காட்டுகின்றன என்று பல ஆய்வுகள் காட்டுகின்றன. எடுத்துக்காட்டாக, இயற்கை மொழி செயலாக்கத்தில் (NLP), வரையறுக்கப்பட்ட தரவுத் தொகுப்புகளில் பயிற்சியளிக்கப்பட்ட தேர்ந்தெடுக்கப்பட்ட NLP மாதிரிகள், பெண்களுக்கு எதிரான தீங்கு விளைவிக்கும் பாலின நிலைப்பாடுகளின் அடிப்படையில் கணிப்புகளைச் செய்து ஆவணப்படுத்தப்பட்டுள்ளன. இதேபோல், பிற ஆய்வுகள் சிதைக்கப்பட்ட தரவுத் தொகுப்பில் பயிற்சியளிக்கப்பட்ட வழிமுறைகள் இனரீதியாகப் பரிந்துரைக்கப்பட்ட பரிந்துரைகளை, குறிப்பாக காவல்துறையில் விளைவித்தன.

    சிறுபான்மையினர் அல்லது பல குறைபாடுகளால் பாதிக்கப்பட்ட குழுக்களுக்கு இயந்திர கற்றல் அமைப்புகள் மோசமாகச் செய்ததற்கு ஏராளமான எடுத்துக்காட்டுகள் உள்ளன. குறிப்பாக, தானியங்கி முகப் பகுப்பாய்வு மற்றும் உடல்நலக் கண்டறிதல் பொதுவாக பெண்கள் மற்றும் நிறமுள்ளவர்களுக்கு நன்றாக வேலை செய்யாது. உடல்நலம் அல்லது கல்வியை ஒதுக்குவது போன்ற சூழல்களில் உணர்ச்சிக்கு பதிலாக உண்மைகள் மற்றும் தர்க்கத்தின் அடிப்படையிலான முக்கியமான அமைப்புகள் பயன்படுத்தப்படும்போது, ​​​​இந்த பரிந்துரைகளுக்குப் பின்னால் உள்ள காரணத்தை அடையாளம் காண்பதை கடினமாக்குவதன் மூலம் அவை அதிக சேதத்தை ஏற்படுத்தும்.

    இதன் விளைவாக, தொழில்நுட்ப நிறுவனங்கள் AI சீரமைப்பு குழுக்களை உருவாக்கி, வழிமுறைகளை நியாயமானதாகவும் மனிதாபிமானமாகவும் வைத்திருப்பதில் கவனம் செலுத்துகின்றன. மேம்பட்ட AI அமைப்புகளின் திசையையும், AI திறன்கள் வளரும்போது நாம் எதிர்கொள்ளும் சவால்களையும் புரிந்துகொள்வதற்கு ஆராய்ச்சி அவசியம்.

    சீர்குலைக்கும் தாக்கம்

    OpenAI (2021) இன் AI சீரமைப்புத் தலைவரான Jan Leike கருத்துப்படி, AI அமைப்புகள் 2010 களில் மட்டுமே திறன் பெற்றுள்ளன, பெரும்பாலான AI சீரமைப்பு ஆராய்ச்சிகள் கோட்பாடு-கடுமையாக இருந்தன என்பது புரிந்துகொள்ளத்தக்கது. அபரிமிதமான சக்திவாய்ந்த AI அமைப்புகள் சீரமைக்கப்படும் போது, ​​மனிதர்கள் எதிர்கொள்ளும் சவால்களில் ஒன்று, இந்த இயந்திரங்கள் மிகவும் சிக்கலான தீர்வுகளை உருவாக்கலாம்.

    இந்தச் சிக்கலைச் சரிசெய்ய லீக் ஒரு ரிகர்சிவ் ரிவார்டு மாடலிங் (ஆர்ஆர்எம்) உத்தியை வகுத்தார். RRM உடன், பல "உதவி" AI கள் ஒரு மனிதனுக்கு மிகவும் சிக்கலான AI எவ்வளவு சிறப்பாக செயல்படுகிறது என்பதை மதிப்பிட உதவும் வகையில் கற்பிக்கப்படுகிறது. "சீரமைப்பு எம்விபி" என்று அவர் குறிப்பிடும் ஒன்றை உருவாக்கும் சாத்தியம் குறித்து அவர் நம்பிக்கையுடன் இருக்கிறார். தொடக்க விதிமுறைகளில், ஒரு MVP (அல்லது குறைந்தபட்ச சாத்தியமான தயாரிப்பு) என்பது ஒரு யோசனையை சோதிக்க ஒரு நிறுவனம் உருவாக்கக்கூடிய எளிய தயாரிப்பு ஆகும். நம்பிக்கை என்னவென்றால், AI மனித செயல்திறனுடன் ஒத்துப்போகும் போது AI மற்றும் அதன் மதிப்புகளுடன் அதன் சீரமைப்பை ஆராய்கிறது.

    AI சீரமைப்பில் ஆர்வத்தை அதிகரிப்பது நிகர நேர்மறையாக இருந்தாலும், முன்னணி AI ஆய்வகங்களில் "நெறிமுறைகள்" பணிகளில் பெரும்பாலானவை தொழில்நுட்ப நிறுவனங்களை அழகாக்குவதற்கும் எதிர்மறையான விளம்பரத்தைத் தவிர்ப்பதற்கும் வடிவமைக்கப்பட்ட பொது உறவுகள் என்று பல ஆய்வாளர்கள் கருதுகின்றனர். எந்த நேரத்திலும் இந்த நிறுவனங்களுக்கு நெறிமுறை மேம்பாட்டு நடைமுறைகள் முன்னுரிமையாக மாறும் என்று இந்த நபர்கள் எதிர்பார்க்கவில்லை.

    இந்த அவதானிப்புகள் மதிப்பு சீரமைப்பு முயற்சிகளுக்கான இடைநிலை அணுகுமுறைகளின் முக்கியத்துவத்தை எடுத்துக்காட்டுகின்றன, ஏனெனில் இது தார்மீக மற்றும் தொழில்நுட்ப விசாரணையின் ஒப்பீட்டளவில் புதிய பகுதி. அறிவின் பல்வேறு பிரிவுகள் உள்ளடக்கிய ஆராய்ச்சி நிகழ்ச்சி நிரலின் ஒரு பகுதியாக இருக்க வேண்டும். AI அமைப்புகள் மிகவும் மேம்பட்டதாக இருந்தாலும், தொழில்நுட்பவியலாளர்கள் மற்றும் கொள்கை வகுப்பாளர்கள் தங்கள் சமூக சூழல் மற்றும் பங்குதாரர்கள் குறித்து விழிப்புடன் இருக்க வேண்டியதன் அவசியத்தையும் இந்த முயற்சி சுட்டிக்காட்டுகிறது.

    AI சீரமைப்பின் தாக்கங்கள்

    AI சீரமைப்பின் பரந்த தாக்கங்கள் பின்வருமாறு: 

    • செயற்கை நுண்ணறிவு ஆய்வகங்கள் திட்டங்களை மேற்பார்வையிடவும் நெறிமுறை AI வழிகாட்டுதல்களை நிறைவேற்றவும் பல்வேறு நெறிமுறைகள் பலகைகளை பணியமர்த்துகின்றன. 
    • நிறுவனங்கள் தங்கள் பொறுப்பான AI கட்டமைப்பை சமர்ப்பிக்க வேண்டிய சட்டங்களை உருவாக்கும் அரசாங்கங்கள் மற்றும் அவர்கள் தங்கள் AI திட்டங்களை மேலும் எவ்வாறு மேம்படுத்த திட்டமிட்டுள்ளனர்.
    • ஆட்சேர்ப்பு, பொது கண்காணிப்பு மற்றும் சட்ட அமலாக்கத்தில் அல்காரிதம்களைப் பயன்படுத்துவது பற்றிய சர்ச்சைகள் அதிகரித்துள்ளன.
    • நெறிமுறைகள் மற்றும் கார்ப்பரேட் இலக்குகளுக்கு இடையிலான ஆர்வத்தின் முரண்பாடுகள் காரணமாக பெரிய AI ஆய்வகங்களில் இருந்து ஆராய்ச்சியாளர்கள் நீக்கப்பட்டனர்.
    • நம்பமுடியாத சக்திவாய்ந்த ஆனால் மனித உரிமைகளை மீறக்கூடிய மேம்பட்ட AI அமைப்புகளை ஒழுங்குபடுத்த அரசாங்கங்களுக்கு அதிக அழுத்தம்.

    கருத்து தெரிவிக்க வேண்டிய கேள்விகள்

    • நிறுவனங்கள் உருவாக்கும் AI அமைப்புகளுக்கு எவ்வாறு பொறுப்புக் கூற முடியும்?
    • AI தவறான சீரமைப்பு இருந்தால் மற்ற சாத்தியமான ஆபத்துகள் என்ன?

    நுண்ணறிவு குறிப்புகள்

    இந்த நுண்ணறிவுக்கு பின்வரும் பிரபலமான மற்றும் நிறுவன இணைப்புகள் குறிப்பிடப்பட்டுள்ளன: