சிக்கலான பயிற்சி தரவு: AI க்கு ஒரு சார்பு தரவு கற்பிக்கப்படும் போது

பட கடன்:
பட கடன்
கசய்துள்ைது

சிக்கலான பயிற்சி தரவு: AI க்கு ஒரு சார்பு தரவு கற்பிக்கப்படும் போது

சிக்கலான பயிற்சி தரவு: AI க்கு ஒரு சார்பு தரவு கற்பிக்கப்படும் போது

உபதலைப்பு உரை
செயற்கை நுண்ணறிவு அமைப்புகள் சில நேரங்களில் அது எவ்வாறு செயல்படுகிறது மற்றும் முடிவுகளை எடுக்கிறது என்பதைப் பாதிக்கக்கூடிய அகநிலை தரவுகளுடன் அறிமுகப்படுத்தப்படுகிறது.
    • ஆசிரியர் பற்றி:
    • ஆசிரியர் பெயர்
      குவாண்டம்ரன் தொலைநோக்கு
    • அக்டோபர் 14, 2022

    நுண்ணறிவு சுருக்கம்

    நாம் என்ன கற்றுக்கொள்கிறோமோ, அதை உள்வாங்குகிறோம்; இந்த உத்தரவு செயற்கை நுண்ணறிவுக்கும் (AI) பொருந்தும். முழுமையடையாத, பக்கச்சார்பான மற்றும் நெறிமுறையற்ற தரவுகளால் அளிக்கப்படும் இயந்திர கற்றல் (ML) மாதிரிகள் இறுதியில் சிக்கல்மிக்க முடிவுகள் மற்றும் பரிந்துரைகளை உருவாக்கும். ஆராய்ச்சியாளர்கள் கவனமாக இல்லாவிட்டால், இந்த சக்திவாய்ந்த வழிமுறைகள் பயனர்களின் ஒழுக்கத்தையும் உணர்வையும் பாதிக்கலாம்.

    சிக்கலான பயிற்சி தரவு சூழல்

    2010 களில் இருந்து, பொருத்தமற்ற உள்ளடக்கம் அல்லது நெறிமுறையற்ற முறையில் சேகரிக்கப்பட்ட பயிற்சி தரவுத்தொகுப்புகளைப் பயன்படுத்தியதற்காக ஆராய்ச்சிக் குழுக்கள் ஆராயப்பட்டன. எடுத்துக்காட்டாக, 2016 இல், மைக்ரோசாப்டின் MS-Celeb-1M தரவுத்தளமானது 10 வெவ்வேறு பிரபலங்களின் 100,000 மில்லியன் படங்களை உள்ளடக்கியது. இருப்பினும், மேலும் ஆய்வு செய்ததில், நிருபர்கள் பல புகைப்படங்கள் உரிமையாளரின் ஒப்புதல் அல்லது அறிவு இல்லாமல் பல்வேறு வலைத்தளங்களில் இருந்து இழுக்கப்பட்ட சாதாரண நபர்களின் புகைப்படங்களைக் கண்டுபிடித்தனர்.

    இந்த உணர்தல் இருந்தபோதிலும், தரவுத்தொகுப்பு Facebook மற்றும் SenseTime போன்ற பெரிய நிறுவனங்களால் தொடர்ந்து பயன்படுத்தப்பட்டது, இது சீன முக அங்கீகார நிறுவனமான மாநில காவல்துறையுடன் இணைக்கப்பட்டுள்ளது இதேபோல், டியூக் பல்கலைக்கழக வளாகத்தில் (டியூக்எம்டிஎம்சி) நடந்து செல்லும் நபர்களின் படங்களைக் கொண்ட தரவுத்தொகுப்பும் ஒப்புதல் சேகரிக்கவில்லை. இறுதியில், இரண்டு தரவுத்தொகுப்புகளும் அகற்றப்பட்டன. 

    சிக்கலான பயிற்சி தரவின் தீங்கு விளைவிக்கும் விளைவுகளை முன்னிலைப்படுத்த, மாசசூசெட்ஸ் இன்ஸ்டிடியூட் ஆப் டெக்னாலஜி (எம்ஐடி) ஆராய்ச்சியாளர்கள் நார்மன் எனப்படும் AI ஐ உருவாக்கினர், இது கிராஃபிக் வன்முறையை முன்னிலைப்படுத்திய சப்ரெடிட்டில் இருந்து படத் தலைப்புகளை உருவாக்க கற்றுக் கொடுத்தது. குழு பின்னர் நார்மனை வழக்கமான தரவுகளைப் பயன்படுத்தி பயிற்சியளிக்கப்பட்ட ஒரு நரம்பியல் நெட்வொர்க்கிற்கு எதிராக வைத்தது. ஆராய்ச்சியாளர்கள் இரண்டு அமைப்புகளுக்கும் ரோர்சாச் இன்க்ப்ளாட்களை வழங்கினர் மற்றும் அவர்கள் பார்த்ததை விவரிக்க AI களைக் கேட்டனர். முடிவுகள் பிரமிக்க வைக்கின்றன: நிலையான நரம்பியல் நெட்வொர்க் "ஒரு பேஸ்பால் கையுறையின் கருப்பு மற்றும் வெள்ளை புகைப்படத்தை" பார்த்தது, நார்மன் "பகல் நேரத்தில் இயந்திர துப்பாக்கியால் கொல்லப்பட்ட ஒரு மனிதன்" என்பதைக் கவனித்தார். AI தானாகவே சார்புடையது அல்ல என்பதை சோதனை நிரூபித்தது, ஆனால் அந்த தரவு உள்ளீட்டு முறைகள் மற்றும் அவற்றை உருவாக்கியவர்களின் நோக்கங்கள் AI இன் நடத்தையை கணிசமாக பாதிக்கும்.

    சீர்குலைக்கும் தாக்கம்

    2021 ஆம் ஆண்டில், AI க்கான ஆலன் இன்ஸ்டிடியூட் என்ற ஆராய்ச்சி நிறுவனம் Ask Delphi ஐ உருவாக்கியது, இது ML மென்பொருளான எந்த நெறிமுறைக் கேள்விக்கும் பதில்களை அல்காரிதம் முறையில் உருவாக்குகிறது. இந்த திட்டத்தின் பின்னணியில் உள்ள ஆராய்ச்சியாளர்கள், AI படிப்படியாக மிகவும் சக்தி வாய்ந்ததாகவும், பரிச்சயமானதாகவும் மாறுகிறது, எனவே விஞ்ஞானிகள் இந்த ML அமைப்புகளின் நெறிமுறைகளை கற்பிக்க வேண்டும் என்று கூறியுள்ளனர். யூனிகார்ன் எம்எல் மாடல் டெல்பியின் அடித்தளம். உரை சரத்திற்கு மிகவும் சாத்தியமான முடிவைத் தேர்ந்தெடுப்பது போன்ற "பொது அறிவு" பகுத்தறிவைச் செயல்படுத்த இது வடிவமைக்கப்பட்டது. 

    மேலும், ஆராய்ச்சியாளர்கள் 'காமன்சென்ஸ் நார்ம் பேங்க்.' ரெடிட் போன்ற இடங்களிலிருந்து மக்களின் நெறிமுறை மதிப்பீடுகளின் 1.7 மில்லியன் எடுத்துக்காட்டுகளை இந்த வங்கி கொண்டுள்ளது. இதன் விளைவாக, டெல்பியின் வெளியீடு ஒரு கலவையாக இருந்தது. டெல்பி சில கேள்விகளுக்கு நியாயமான முறையில் பதிலளித்தார் (எ.கா., ஆண்களுக்கும் பெண்களுக்கும் இடையிலான சமத்துவம்), அதேசமயம், சில தலைப்புகளில், டெல்பி முற்றிலும் புண்படுத்தக்கூடியதாக இருந்தது (எ.கா., இனப்படுகொலை மக்களை மகிழ்ச்சிப்படுத்தும் வரை ஏற்றுக்கொள்ளத்தக்கது).

    இருப்பினும், Delphi AI அதன் அனுபவங்களிலிருந்து கற்றுக்கொண்டு, பின்னூட்டத்தின் அடிப்படையில் அதன் பதில்களைப் புதுப்பிப்பதாகத் தெரிகிறது. சில வல்லுநர்கள் ஆராய்ச்சியின் பொது மற்றும் திறந்த பயன்பாட்டால் சிரமப்படுகிறார்கள், மாதிரி செயல்பாட்டில் உள்ளது மற்றும் ஒழுங்கற்ற பதில்களுக்கு வாய்ப்புள்ளது. Ask Delphi அறிமுகமானபோது, ​​பாலினம், உழைப்பு மற்றும் கணினி வரலாற்றில் நிபுணத்துவம் பெற்ற இல்லினாய்ஸ் டெக் வரலாற்றின் பேராசிரியர் மார் ஹிக்ஸ், டெல்பி உடனடியாக மிகவும் நெறிமுறையற்ற பதில்களை வழங்கியதைக் கருத்தில் கொண்டு, அதைப் பயன்படுத்த மக்களை அழைப்பது ஆராய்ச்சியாளர்களின் அலட்சியம் என்று கூறினார். முழு முட்டாள்தனம். 

    2023 இல், உலகின் பிற பகுதிகளில் AI இமேஜ் ஜெனரேட்டர்களில் சார்புநிலை குறித்து ஆய்வு நடத்தியது. மிட்ஜர்னியைப் பயன்படுத்தி, உருவாக்கப்பட்ட படங்கள் ஏற்கனவே உள்ள ஒரே மாதிரியானவைகளை உறுதிப்படுத்துகின்றன என்பதை ஆராய்ச்சியாளர்கள் கண்டுபிடித்தனர். கூடுதலாக, OpenAI அதன் DALL-E 2 பட உருவாக்க மாதிரிக்கான பயிற்சி தரவுகளுக்கு வடிப்பான்களைப் பயன்படுத்தியபோது, ​​அது வேண்டுமென்றே பாலினம் தொடர்பான சார்புகளை தீவிரப்படுத்தியது.

    சிக்கலான பயிற்சி தரவுகளின் தாக்கங்கள்

    சிக்கலான பயிற்சி தரவுகளின் பரந்த தாக்கங்கள் பின்வருமாறு: 

    • ஆராய்ச்சி திட்டங்கள், சேவைகள் மற்றும் நிரல் மேம்பாட்டில் வலுவூட்டப்பட்ட சார்பு. குறிப்பாகச் சட்ட அமலாக்க மற்றும் வங்கி நிறுவனங்களில் (எ.கா., சிறுபான்மைக் குழுக்களை எதிர்மறையாகக் குறிவைப்பது) பயன்படுத்தப்பட்டால், பிரச்சனைக்குரிய பயிற்சித் தரவுகளைப் பற்றியது.
    • பயிற்சி தரவுகளின் வளர்ச்சி மற்றும் வகைப்படுத்தலில் அதிகரித்த முதலீடு மற்றும் மேம்பாடு. 
    • பல்வேறு வணிக முன்முயற்சிகளுக்கான பயிற்சித் தரவை நிறுவனங்கள் எவ்வாறு உருவாக்குகின்றன, விற்கின்றன மற்றும் பயன்படுத்துகின்றன என்பதைக் கட்டுப்படுத்துவதற்கு அதிகமான அரசாங்கங்கள் விதிமுறைகளை அதிகரிக்கின்றன.
    • AI அமைப்புகளால் இயக்கப்படும் திட்டங்கள் நெறிமுறை வழிகாட்டுதல்களைப் பின்பற்றுவதை உறுதிசெய்ய நெறிமுறைகள் துறைகளை நிறுவும் பல வணிகங்கள்.
    • சுகாதாரப் பாதுகாப்பில் AI இன் பயன்பாடு குறித்த மேம்படுத்தப்பட்ட ஆய்வு, கடுமையான தரவு நிர்வாகத்திற்கு வழிவகுக்கிறது, நோயாளியின் தனியுரிமை மற்றும் நெறிமுறை AI பயன்பாட்டை உறுதி செய்கிறது.
    • AI கல்வியறிவை வளர்ப்பதற்கு பொது மற்றும் தனியார் துறை ஒத்துழைப்பை அதிகரித்தல், AI ஆதிக்கம் செலுத்தும் எதிர்காலத்திற்கான திறன்களுடன் பணியாளர்களை சித்தப்படுத்துதல்.
    • AI வெளிப்படைத்தன்மை கருவிகளுக்கான தேவை அதிகரிப்பு, நுகர்வோர் புரிதல் மற்றும் நம்பிக்கைக்காக AI அமைப்புகளில் விளக்கத்திற்கு முன்னுரிமை அளிக்க முன்னணி நிறுவனங்கள்.

    கருத்தில் கொள்ள வேண்டிய கேள்விகள்

    • சிக்கலான பயிற்சி தரவைப் பயன்படுத்துவதை நிறுவனங்கள் எவ்வாறு தவிர்க்கலாம்?
    • நெறிமுறையற்ற பயிற்சி தரவின் பிற சாத்தியமான விளைவுகள் என்ன?