AI පෙළගැස්ම: කෘත්‍රිම බුද්ධි ඉලක්ක ගැලපීම මානව වටිනාකම් වලට ගැලපේ

රූප ණය:
පින්තූර ණය
iStock

AI පෙළගැස්ම: කෘත්‍රිම බුද්ධි ඉලක්ක ගැලපීම මානව වටිනාකම් වලට ගැලපේ

AI පෙළගැස්ම: කෘත්‍රිම බුද්ධි ඉලක්ක ගැලපීම මානව වටිනාකම් වලට ගැලපේ

උපමාතෘකා පාඨය
සමහර පර්යේෂකයන් විශ්වාස කරන්නේ කෘතිම බුද්ධිය සමාජයට හානියක් නොවන බව සහතික කිරීමට පියවර ගත යුතු බවයි.
    • කර්තෘ:
    • කර්තෘගේ නම
      Quantumrun Foresight
    • ජනවාරි 25, 2023

    කෘත්‍රිම බුද්ධිය (AI) පෙළගැස්ම යනු AI පද්ධතියක ඉලක්ක මානව වටිනාකම්වලට ගැළපෙන විටය. OpenAI, DeepMind, සහ Anthropic වැනි සමාගම්වල පර්යේෂක කණ්ඩායම් ඇත, ඔවුන්ගේ එකම අවධානය මෙය සිදුවිය හැකි විවිධ අවස්ථා සඳහා ආරක්ෂක වැටවල් අධ්‍යයනය කිරීමයි.

    AI පෙළගැස්වීමේ සන්දර්භය

    2021 Cornell විශ්ව විද්‍යාලයේ පර්යේෂණ අධ්‍යයනයකට අනුව, අධ්‍යයන කිහිපයකින් පෙන්නුම් කර ඇත්තේ ඇල්ගොරිතම මගින් නිර්මාණය කරන ලද මෙවලම් හෝ ආකෘති ඔවුන් පුහුණු කරන ලද දත්ත වලින් ලබාගත් පක්ෂග්‍රාහීත්වය පෙන්නුම් කරන බවයි. නිදසුනක් ලෙස, ස්වභාවික භාෂා සැකසීමේදී (NLP), සීමිත දත්ත කට්ටල මත පුහුණු කරන ලද තෝරාගත් NLP ආකෘති, කාන්තාවන්ට එරෙහි හානිකර ස්ත්‍රී පුරුෂ සමාජභාවය මත පදනම් වූ අනාවැකි කරමින් ලේඛනගත කර ඇත. ඒ හා සමානව, වෙනත් අධ්‍යයනයන් විසින් විකෘති කරන ලද දත්ත කට්ටලය මත පුහුණු කරන ලද ඇල්ගොරිතමයන් වාර්ගික පක්ෂග්‍රාහී නිර්දේශයන් ඇති කරන බව සොයා ගන්නා ලදී, විශේෂයෙන් පොලිස් සේවයේ.

    යන්ත්‍ර ඉගෙනීමේ පද්ධති සුළු ජාතීන්ට හෝ බහුවිධ අවාසි වලින් පෙළෙන කණ්ඩායම්වලට වඩාත් නරක අතට හැරී ඇති බවට උදාහරණ ඕනෑ තරම් තිබේ. විශේෂයෙන්, ස්වයංක්‍රීය මුහුණු විශ්ලේෂණය සහ සෞඛ්‍ය ආරක්ෂණ රෝග විනිශ්චය සාමාන්‍යයෙන් කාන්තාවන් සහ වර්ණ සහිත පුද්ගලයින් සඳහා ඉතා හොඳින් ක්‍රියා නොකරයි. සෞඛ්‍ය සේවා හෝ අධ්‍යාපනය වෙන් කිරීම වැනි සන්දර්භයන්හිදී හැඟීම් වෙනුවට කරුණු සහ තර්කය මත පදනම් විය යුතු විවේචනාත්මක පද්ධති භාවිතා කරන විට, මෙම නිර්දේශ පිටුපස ඇති තර්කය හඳුනා ගැනීම අපහසු කරවීමෙන් ඔවුන්ට වැඩි හානියක් කළ හැකිය.

    එහි ප්‍රතිඵලයක් ලෙස, තාක්‍ෂණ සමාගම් ඇල්ගොරිතම සාධාරණ හා මානුෂීය ලෙස තබා ගැනීම කෙරෙහි අවධානය යොමු කිරීම සඳහා AI පෙළගැස්වීමේ කණ්ඩායම් නිර්මාණය කරයි. උසස් AI පද්ධතිවල දිශානතිය මෙන්ම AI හැකියාවන් වර්ධනය වන විට අපට මුහුණ දීමට සිදු විය හැකි අභියෝග තේරුම් ගැනීමට පර්යේෂණ අත්‍යවශ්‍ය වේ.

    කඩාකප්පල්කාරී බලපෑම

    OpenAI (2021) හි AI පෙළගැස්වීමේ ප්‍රධානියා වන Jan Leike ට අනුව, AI පද්ධති 2010 ගණන්වල පමණක් හැකියාව ලබා ඇති බැවින්, බොහෝ AI පෙළගැස්වීමේ පර්යේෂණ න්‍යායට බර වී ඇති බව තේරුම් ගත හැකිය. අතිමහත් බලවත් AI පද්ධති පෙළගස්වා ඇති විට, මිනිසුන් මුහුණ දෙන එක් අභියෝගයක් නම්, මෙම යන්ත්‍ර සදාචාරාත්මකව අර්ථවත් වේද යන්න සමාලෝචනය කිරීමට සහ තක්සේරු කිරීමට නොහැකි තරම් සංකීර්ණ විසඳුම් නිර්මාණය කළ හැකි වීමයි.

    මෙම ගැටළුව විසඳීම සඳහා Leike විසින් පුනරාවර්තන විපාක ආකෘතිකරණ (RRM) උපාය මාර්ගයක් නිර්මාණය කරන ලදී. RRM සමඟින්, වඩාත් සංකීර්ණ AI ක්‍රියාකරන ආකාරය මැන බැලීමට මිනිසාට උපකාර කිරීම සඳහා "උපකාරක" AI කිහිපයක් උගන්වනු ලැබේ. ඔහු "පෙළගැස්වීමේ MVP" ලෙස හඳුන්වන යමක් නිර්මාණය කිරීමේ හැකියාව ගැන ඔහු ශුභවාදී ය. ආරම්භක කොන්දේසි අනුව, MVP (හෝ අවම ශක්‍ය නිෂ්පාදනයක්) යනු අදහසක් පරීක්ෂා කිරීම සඳහා සමාගමකට ගොඩනගා ගත හැකි සරලම නිෂ්පාදනයයි. බලාපොරොත්තුව වන්නේ යම් දිනක, AI AI පර්යේෂණ කිරීමේදී මානව ක්‍රියාකාරිත්වයට ගැලපෙන අතර ක්‍රියාකාරී වන අතරම අගයන් සමඟ එය පෙළගැස්වීමයි.

    AI පෙළගැස්ම කෙරෙහි ඇති උනන්දුව වැඩි කිරීම ශුද්ධ ධනාත්මක වන අතර, ක්ෂේත්‍රයේ බොහෝ විශ්ලේෂකයින් සිතන්නේ ප්‍රමුඛ AI විද්‍යාගාරවල "ආචාර ධර්ම" වැඩ බොහෝමයක් තාක්‍ෂණ සමාගම් හොඳ පෙනුමක් සහ ඍණාත්මක ප්‍රචාරණයක් වළක්වා ගැනීම සඳහා නිර්මාණය කර ඇති මහජන සම්බන්ධතා පමණක් බවයි. මෙම පුද්ගලයන් ඉක්මනින්ම මෙම සමාගම් සඳහා සදාචාරාත්මක සංවර්ධන භාවිතයන් ප්‍රමුඛතාවයක් වනු ඇතැයි අපේක්ෂා නොකරයි.

    මෙය සාපේක්ෂ වශයෙන් සදාචාරාත්මක හා තාක්ෂණික විමර්ශන ක්ෂේත්‍රයක් වන බැවින්, වටිනාකම් පෙළගැස්වීමේ ප්‍රයත්නයන් සඳහා අන්තර් විනයානුකූල ප්‍රවේශයන්ගේ වැදගත්කම මෙම නිරීක්ෂණ මගින් ඉස්මතු කරයි. දැනුමේ විවිධ ශාඛා ඇතුළත් පර්යේෂණ න්‍යාය පත්‍රයක කොටසක් විය යුතුය. AI පද්ධති වඩාත් දියුණු වන විට පවා, තාක්‍ෂණවේදීන් සහ ප්‍රතිපත්ති සම්පාදකයින් ඔවුන්ගේ සමාජ සන්දර්භය සහ පාර්ශවකරුවන් පිළිබඳව දැනුවත්ව සිටීමේ අවශ්‍යතාවය මෙම මුලපිරීම පෙන්වා දෙයි.

    AI පෙළගැස්වීමේ ඇඟවුම්

    AI පෙළගැස්වීමේ පුළුල් ඇඟවුම් ඇතුළත් විය හැකිය: 

    • කෘත්‍රිම බුද්ධි විද්‍යාගාර ව්‍යාපෘති අධීක්‍ෂණය කිරීමට සහ සදාචාරාත්මක AI මාර්ගෝපදේශ සපුරාලීමට විවිධ ආචාර ධර්ම පුවරු බඳවා ගනී. 
    • සමාගම්වලට ඔවුන්ගේ වගකිවයුතු AI රාමුව ඉදිරිපත් කිරීමට අවශ්‍ය වන නීති නිර්මාණය කරන රජයන් සහ ඔවුන්ගේ AI ව්‍යාපෘති තවදුරටත් සංවර්ධනය කිරීමට සැලසුම් කරන ආකාරය.
    • බඳවා ගැනීම්, මහජන නිරීක්ෂණ සහ නීතිය බලාත්මක කිරීමේදී ඇල්ගොරිතම භාවිතය පිළිබඳ මතභේදයන් වැඩි වීම.
    • ආචාර ධර්ම සහ ආයතනික ඉලක්ක අතර ඇති උනන්දුව පිළිබඳ ගැටුම් හේතුවෙන් පර්යේෂකයන් විශාල AI රසායනාගාරවලින් නෙරපා හරිනු ලැබේ.
    • ඇදහිය නොහැකි තරම් බලවත් නමුත් මානව හිමිකම් උල්ලංඝනය කළ හැකි උසස් AI පද්ධති නියාමනය කිරීමට රජයන්ට වැඩි පීඩනයක්.

    අදහස් දැක්වීමට ප්රශ්න

    • ඔවුන් නිර්මාණය කරන AI පද්ධති සඳහා සමාගම් වගකිව යුත්තේ කෙසේද?
    • AI නොගැලපීම තිබේ නම් ඇති විය හැකි වෙනත් අන්තරායන් මොනවාද?