AI అమరిక: కృత్రిమ మేధస్సు లక్ష్యాలను సరిపోల్చడం మానవ విలువలతో సరిపోలుతుంది

చిత్రం క్రెడిట్:
చిత్రం క్రెడిట్
iStock

AI అమరిక: కృత్రిమ మేధస్సు లక్ష్యాలను సరిపోల్చడం మానవ విలువలతో సరిపోలుతుంది

AI అమరిక: కృత్రిమ మేధస్సు లక్ష్యాలను సరిపోల్చడం మానవ విలువలతో సరిపోలుతుంది

ఉపశీర్షిక వచనం
కృత్రిమ మేధస్సు సమాజానికి హాని కలిగించకుండా ఉండేలా చర్యలు తీసుకోవాలని కొందరు పరిశోధకులు విశ్వసిస్తున్నారు.
    • రచయిత గురించి:
    • రచయిత పేరు
      క్వాంటమ్రన్ దూరదృష్టి
    • జనవరి 25, 2023

    కృత్రిమ మేధస్సు (AI) అమరిక అనేది AI వ్యవస్థ యొక్క లక్ష్యాలు మానవ విలువలతో సరిపోలినప్పుడు. OpenAI, DeepMind మరియు Anthropic వంటి కంపెనీలు పరిశోధకుల బృందాలను కలిగి ఉన్నాయి, దీని ఏకైక దృష్టి ఇది జరిగే వివిధ దృశ్యాల కోసం గార్డ్‌రైల్‌లను అధ్యయనం చేయడం.

    AI అమరిక సందర్భం

    2021 యూనివర్సిటీ ఆఫ్ కార్నెల్ పరిశోధనా అధ్యయనం ప్రకారం, అల్గారిథమ్‌ల ద్వారా సృష్టించబడిన సాధనాలు లేదా నమూనాలు వారు శిక్షణ పొందిన డేటా నుండి పక్షపాతాన్ని ప్రదర్శిస్తాయని అనేక అధ్యయనాలు చూపించాయి. ఉదాహరణకు, నేచురల్ లాంగ్వేజ్ ప్రాసెసింగ్ (NLP)లో, పరిమిత డేటా సెట్‌లపై శిక్షణ పొందిన ఎంపిక చేసిన NLP మోడల్‌లు మహిళలపై హానికరమైన లింగ మూస పద్ధతుల ఆధారంగా అంచనాలను రూపొందించడం ద్వారా నమోదు చేయబడ్డాయి. అదేవిధంగా, ఇతర అధ్యయనాలు టాంపర్డ్ డేటా సెట్‌పై శిక్షణ పొందిన అల్గారిథమ్‌లు జాతిపరంగా పక్షపాత సిఫార్సులకు దారితీశాయని కనుగొన్నాయి, ముఖ్యంగా పోలీసింగ్‌లో.

    మెషిన్ లెర్నింగ్ సిస్టమ్స్ మైనారిటీలు లేదా బహుళ ప్రతికూలతలతో బాధపడుతున్న సమూహాలకు అధ్వాన్నంగా చేసిన ఉదాహరణలు పుష్కలంగా ఉన్నాయి. ప్రత్యేకించి, ఆటోమేటెడ్ ఫేషియల్ అనాలిసిస్ మరియు హెల్త్‌కేర్ డయాగ్నోస్టిక్‌లు సాధారణంగా మహిళలు మరియు రంగుల వ్యక్తులకు బాగా పని చేయవు. ఆరోగ్య సంరక్షణ లేదా విద్యను కేటాయించడం వంటి సందర్భాలలో భావోద్వేగాలకు బదులుగా వాస్తవాలు మరియు తర్కం ఆధారంగా ఉండే క్లిష్టమైన వ్యవస్థలను ఉపయోగించినప్పుడు, ఈ సిఫార్సుల వెనుక ఉన్న కారణాన్ని గుర్తించడం కష్టతరం చేయడం ద్వారా అవి మరింత నష్టాన్ని కలిగిస్తాయి.

    ఫలితంగా, టెక్ సంస్థలు అల్గారిథమ్‌లను సరసమైన మరియు మానవీయంగా ఉంచడంపై దృష్టి పెట్టడానికి AI అమరిక బృందాలను సృష్టిస్తున్నాయి. అధునాతన AI సిస్టమ్‌ల దిశను అర్థం చేసుకోవడానికి, అలాగే AI సామర్థ్యాలు పెరిగేకొద్దీ మనం ఎదుర్కొనే సవాళ్లను అర్థం చేసుకోవడానికి పరిశోధన అవసరం.

    విఘాతం కలిగించే ప్రభావం

    OpenAI (2021)లో AI అలైన్‌మెంట్ అధిపతి Jan Leike ప్రకారం, AI సిస్టమ్‌లు 2010లలో మాత్రమే సామర్థ్యం పొందాయి కాబట్టి, చాలా AI అమరిక పరిశోధనలు చాలా థియరీ-హెవీగా ఉన్నాయని అర్థం చేసుకోవచ్చు. అపారమైన శక్తివంతమైన AI వ్యవస్థలు సమలేఖనం చేయబడినప్పుడు, మానవులు ఎదుర్కొనే సవాళ్లలో ఒకటి, ఈ యంత్రాలు నైతికంగా అర్థం చేసుకుంటే సమీక్షించడానికి మరియు అంచనా వేయడానికి చాలా క్లిష్టమైన పరిష్కారాలను సృష్టించవచ్చు.

    ఈ సమస్యను పరిష్కరించడానికి Leike ఒక పునరావృత రివార్డ్ మోడలింగ్ (RRM) వ్యూహాన్ని రూపొందించింది. RRMతో, అనేక "సహాయక" AIలు మరింత సంక్లిష్టమైన AI ఎంత బాగా పనిచేస్తుందో అంచనా వేయడానికి మానవునికి సహాయపడటానికి బోధించబడతాయి. అతను "అలైన్‌మెంట్ MVP"గా సూచించేదాన్ని సృష్టించే అవకాశం గురించి అతను ఆశాజనకంగా ఉన్నాడు. స్టార్టప్ పరంగా, ఒక MVP (లేదా కనీస ఆచరణీయ ఉత్పత్తి) అనేది ఒక ఆలోచనను పరీక్షించడానికి ఒక కంపెనీ నిర్మించగల సులభమైన ఉత్పత్తి. ఏదో ఒక రోజు, AI పరిశోధనలో మానవ పనితీరును మరియు క్రియాత్మకంగా ఉన్నప్పుడు విలువలతో దాని అమరికను సరిపోల్చుతుందని ఆశ.

    AI అలైన్‌మెంట్‌పై ఆసక్తిని పెంచడం నికర సానుకూలమైనప్పటికీ, ప్రముఖ AI ల్యాబ్‌లలో చాలా "నైతికత" పని కేవలం టెక్ కంపెనీలను అందంగా కనిపించేలా చేయడానికి మరియు ప్రతికూల ప్రచారాన్ని నివారించడానికి రూపొందించబడిన ప్రజా సంబంధాలే అని ఫీల్డ్‌లోని చాలా మంది విశ్లేషకులు భావిస్తున్నారు. ఈ వ్యక్తులు ఎప్పుడైనా ఈ కంపెనీలకు నైతిక అభివృద్ధి పద్ధతులు ప్రాధాన్యతనిస్తాయని ఆశించరు.

    ఈ పరిశీలనలు విలువ అమరిక ప్రయత్నాల కోసం ఇంటర్ డిసిప్లినరీ విధానాల యొక్క ప్రాముఖ్యతను హైలైట్ చేస్తాయి, ఎందుకంటే ఇది నైతిక మరియు సాంకేతిక విచారణ యొక్క సాపేక్షంగా కొత్త ప్రాంతం. విజ్ఞానంలోని వివిధ శాఖలు సమగ్ర పరిశోధనా ఎజెండాలో భాగంగా ఉండాలి. AI వ్యవస్థలు మరింత అభివృద్ధి చెందినప్పటికీ, సాంకేతిక నిపుణులు మరియు విధాన రూపకర్తలు తమ సామాజిక సందర్భం మరియు వాటాదారుల గురించి తెలుసుకోవాల్సిన అవసరాన్ని కూడా ఈ చొరవ చూపుతుంది.

    AI అమరిక యొక్క చిక్కులు

    AI అమరిక యొక్క విస్తృత చిక్కులు వీటిని కలిగి ఉండవచ్చు: 

    • ఆర్టిఫిషియల్ ఇంటెలిజెన్స్ ల్యాబ్‌లు ప్రాజెక్ట్‌లను పర్యవేక్షించడానికి మరియు నైతిక AI మార్గదర్శకాలను నెరవేర్చడానికి విభిన్న ఎథిక్స్ బోర్డులను నియమించుకుంటాయి. 
    • కంపెనీలు తమ బాధ్యతాయుతమైన AI ఫ్రేమ్‌వర్క్‌ను సమర్పించాలని మరియు వారి AI ప్రాజెక్ట్‌లను మరింత అభివృద్ధి చేయడానికి ఎలా ప్లాన్ చేస్తున్నాయని ప్రభుత్వాలు చట్టాలను రూపొందిస్తున్నాయి.
    • రిక్రూట్‌మెంట్, పబ్లిక్ నిఘా మరియు చట్ట అమలులో అల్గారిథమ్‌ల వినియోగంపై వివాదాలు పెరిగాయి.
    • నైతికత మరియు కార్పొరేట్ లక్ష్యాల మధ్య ఆసక్తి వైరుధ్యాల కారణంగా పరిశోధకులు పెద్ద AI ల్యాబ్‌ల నుండి తొలగించబడ్డారు.
    • అత్యాధునిక AI సిస్టమ్‌లను నియంత్రించేందుకు ప్రభుత్వాలకు మరింత ఒత్తిడి ఉంటుంది, ఇవి రెండూ నమ్మశక్యం కాని శక్తివంతమైనవి కానీ మానవ హక్కులను ఉల్లంఘించగలవు.

    వ్యాఖ్యానించడానికి ప్రశ్నలు

    • వారు సృష్టించిన AI సిస్టమ్‌లకు సంస్థలను ఎలా జవాబుదారీగా చేయవచ్చు?
    • AI తప్పుగా అమర్చబడినట్లయితే ఇతర సంభావ్య ప్రమాదాలు ఏమిటి?

    అంతర్దృష్టి సూచనలు

    ఈ అంతర్దృష్టి కోసం క్రింది ప్రసిద్ధ మరియు సంస్థాగత లింక్‌లు సూచించబడ్డాయి: