AI туралау: жасанды интеллект мақсаттарының сәйкес келуі адами құндылықтарға сәйкес келеді

Кредит суреті:
Сурет несиесі
iStock

AI туралау: жасанды интеллект мақсаттарының сәйкес келуі адами құндылықтарға сәйкес келеді

AI туралау: жасанды интеллект мақсаттарының сәйкес келуі адами құндылықтарға сәйкес келеді

Тақырып мәтіні
Кейбір зерттеушілер жасанды интеллект қоғамға зиян тигізбеуі үшін шаралар қолдану керек деп санайды.
    • автор:
    • Автордың аты-жөні
      Кванттық болжау
    • Қаңтар 25, 2023

    Жасанды интеллектті (AI) теңестіру - бұл AI жүйесінің мақсаттары адам құндылықтарына сәйкес келетін кезде. OpenAI, DeepMind және Anthropic сияқты компанияларда зерттеушілер тобы бар, олардың басты мақсаты әртүрлі сценарийлер үшін тосқауылдарды зерттеу болып табылады.

    AI туралау контексі

    Корнелл университетінің 2021 жылғы зерттеуіне сәйкес, бірнеше зерттеулер алгоритмдер арқылы жасалған құралдар немесе модельдер олар оқытылған деректерден алынған ауытқуды көрсететінін көрсетті. Мысалы, табиғи тілді өңдеуде (NLP) шектеулі деректер жинақтарында оқытылған таңдаулы NLP үлгілері әйелдерге қатысты зиянды гендерлік стереотиптерге негізделген болжамдар жасау құжатталған. Сол сияқты, басқа зерттеулер бұрмаланған деректер жинағында оқытылған алгоритмдер нәсілдік көзқарасқа негізделген ұсыныстарға, әсіресе полиция қызметіне әкелетінін анықтады.

    Көптеген кемшіліктерден зардап шегетін азшылықтар немесе топтар үшін машиналық оқыту жүйелері нашарлаған мысалдар көп. Атап айтқанда, автоматтандырылған бет талдауы және денсаулық сақтау диагностикасы әдетте әйелдер мен түрлі-түсті адамдар үшін жақсы жұмыс істемейді. Денсаулық сақтау немесе білім беруді бөлу сияқты контексттерде эмоцияның орнына фактілер мен логикаға негізделуі керек сыни жүйелер пайдаланылса, олар осы ұсыныстардың астарлы себебін анықтауды қиындатып, көбірек зиян келтіруі мүмкін.

    Нәтижесінде, технологиялық фирмалар алгоритмдерді әділ және адамгершілікті сақтауға назар аудару үшін AI теңестіру топтарын құруда. Зерттеу жетілдірілген AI жүйелерінің бағытын, сондай-ақ AI мүмкіндіктерінің өсуіне байланысты туындауы мүмкін қиындықтарды түсіну үшін өте маңызды.

    Деструктивті әсер

    OpenAI (2021) компаниясының AI-ді теңестіру бөлімінің басшысы Ян Лейктің айтуынша, AI жүйелері 2010-шы жылдары ғана қабілетті бола бастағанын ескерсек, AI-ны теңестіру бойынша зерттеулердің көпшілігі теориялық тұрғыдан ауыр болғаны түсінікті. Күшті AI жүйелерін теңестіргенде, адамдар кездесетін қиындықтардың бірі - бұл машиналар этикалық тұрғыдан мағынасы бар-жоғын тексеру және бағалау үшін тым күрделі шешімдер жасауы мүмкін.

    Лейк бұл мәселені шешу үшін рекурсивті сыйақыны модельдеу (RRM) стратегиясын ойлап тапты. RRM көмегімен адамға күрделі AI қаншалықты жақсы жұмыс істейтінін бағалауға көмектесу үшін бірнеше «көмекші» АИ үйретіледі. Ол «теңестіру MVP» деп атайтын нәрсені жасау мүмкіндігіне оптимистік көзқараспен қарайды. Іске қосу тұрғысынан алғанда, MVP (немесе минималды өміршең өнім) - бұл идеяны сынау үшін компания жасай алатын ең қарапайым өнім. Бір күні AI адамның AI-ны зерттеудегі өнімділігі мен оның құндылықтарға сәйкес келуіне сәйкес келеді, сонымен бірге функционалды болады.

    Жасанды интеллектіні теңестіруге қызығушылықтың артуы оң нәтиже болса да, осы саладағы көптеген сарапшылар жетекші AI зертханаларындағы «этика» жұмысының көп бөлігі технологиялық компанияларға жақсы көрінуге және жағымсыз жарнамаларды болдырмауға арналған қоғаммен байланыс деп ойлайды. Бұл адамдар этикалық даму тәжірибесі жақын арада осы компаниялар үшін басымдыққа айналады деп күтпейді.

    Бұл бақылаулар құндылықтарды теңестіру әрекеттері үшін пәнаралық тәсілдердің маңыздылығын көрсетеді, өйткені бұл моральдық және техникалық зерттеулердің салыстырмалы түрде жаңа саласы. Білімнің әртүрлі салалары инклюзивті зерттеу күн тәртібінің бөлігі болуы керек. Бұл бастама сонымен қатар технологтар мен саясаткерлердің AI жүйелері жетілдірілгеніне қарамастан, өздерінің әлеуметтік контексттері мен мүдделі тараптары туралы хабардар болу қажеттілігін көрсетеді.

    AI теңестірудің салдары

    AI теңестірудің кеңірек салдары мыналарды қамтуы мүмкін: 

    • Жасанды интеллект зертханалары жобаларды бақылау және AI этикалық нұсқауларын орындау үшін әртүрлі этикалық кеңестерді жалдайды. 
    • Үкімет компаниялардан AI жобаларын әрі қарай дамытуды жоспарлап, жауапты AI құрылымын ұсынуды талап ететін заңдарды жасайды.
    • Жұмысқа қабылдауда, қоғамдық бақылауда және құқық қорғау органдарында алгоритмдерді пайдалану бойынша қайшылықтардың артуы.
    • Зерттеушілер этика мен корпоративтік мақсаттар арасындағы мүдделер қақтығысына байланысты ірі AI зертханаларынан жұмыстан шығарылды.
    • Күшті күшті, бірақ адам құқықтарын бұзуы мүмкін озық AI жүйелерін реттеу үшін үкіметтерге көбірек қысым.

    Түсініктеме беруге арналған сұрақтар

    • Фирмаларды өздері жасаған AI жүйелері үшін қалай жауапкершілікке тартуға болады?
    • AI тураланбауы болса, басқа қандай ықтимал қауіптер болуы мүмкін?

    Инсайт сілтемелері

    Бұл түсінік үшін келесі танымал және институционалдық сілтемелерге сілтеме жасалды: