ទិន្នន័យបណ្តុះបណ្តាលដែលមានបញ្ហា៖ នៅពេលដែល AI ត្រូវបានបង្រៀនទិន្នន័យលំអៀង

ឥណទានរូបភាព៖
ឥណទានរូបភាព
iStock

ទិន្នន័យបណ្តុះបណ្តាលដែលមានបញ្ហា៖ នៅពេលដែល AI ត្រូវបានបង្រៀនទិន្នន័យលំអៀង

ទិន្នន័យបណ្តុះបណ្តាលដែលមានបញ្ហា៖ នៅពេលដែល AI ត្រូវបានបង្រៀនទិន្នន័យលំអៀង

អត្ថបទចំណងជើងរង
ប្រព័ន្ធបញ្ញាសិប្បនិមិត្ត ជួនកាលត្រូវបានណែនាំជាមួយនឹងទិន្នន័យប្រធានបទ ដែលអាចប៉ះពាល់ដល់របៀបដែលវាធ្វើសកម្មភាព និងធ្វើការសម្រេចចិត្ត។
    • អ្នកនិពន្ធ:
    • ឈ្មោះអ្នកនិពន្ធ
      ការទស្សន៍ទាយ Quantumrun
    • ខែតុលា 14, 2022

    សង្ខេបការយល់ដឹង

    យើងគឺជាអ្វីដែលយើងរៀន និងរៀបចំផ្ទៃក្នុង។ ពាក្យបញ្ជានេះក៏អនុវត្តចំពោះបញ្ញាសិប្បនិម្មិត (AI) ផងដែរ។ គំរូនៃការរៀនម៉ាស៊ីន (ML) ដែលផ្តល់ដោយទិន្នន័យមិនពេញលេញ លំអៀង និងគ្មានសីលធម៌នឹងធ្វើការសម្រេចចិត្ត និងការផ្តល់យោបល់ដែលមានបញ្ហា។ ក្បួនដោះស្រាយដ៏មានឥទ្ធិពលទាំងនេះអាចមានឥទ្ធិពលលើសីលធម៌ និងការយល់ឃើញរបស់អ្នកប្រើប្រាស់ ប្រសិនបើអ្នកស្រាវជ្រាវមិនប្រុងប្រយ័ត្ន។

    បរិបទទិន្នន័យបណ្តុះបណ្តាលដែលមានបញ្ហា

    ចាប់តាំងពីទសវត្សរ៍ឆ្នាំ 2010 ក្រុមស្រាវជ្រាវត្រូវបានពិនិត្យពិច័យលើការប្រើប្រាស់សំណុំទិន្នន័យបណ្ដុះបណ្ដាលដែលមានខ្លឹមសារមិនសមរម្យ ឬប្រមូលផ្តុំដោយគ្មានសីលធម៌។ ជាឧទាហរណ៍ ក្នុងឆ្នាំ 2016 មូលដ្ឋានទិន្នន័យ MS-Celeb-1M របស់ Microsoft រួមបញ្ចូលរូបភាពចំនួន 10 លាននៃតារាល្បីៗចំនួន 100,000 រូប។ ទោះបីជាយ៉ាងណាក៏ដោយ តាមការចុះពិនិត្យបន្ថែម អ្នកឆ្លើយឆ្លងព័ត៌មានបានរកឃើញថា រូបថតជាច្រើនសន្លឹក គឺជារូបភាពរបស់មនុស្សសាមញ្ញ ដែលទាញចេញពីគេហទំព័រផ្សេងៗ ដោយមិនមានការយល់ព្រម ឬចំណេះដឹងពីម្ចាស់។

    ទោះបីជាមានការសម្រេចនេះក៏ដោយ ក៏សំណុំទិន្នន័យនៅតែបន្តប្រើប្រាស់ដោយក្រុមហ៊ុនធំៗដូចជា Facebook និង SenseTime ដែលជាក្រុមហ៊ុនសម្គាល់មុខរបស់ចិនដែលមានតំណភ្ជាប់ទៅកាន់ប៉ូលីសរដ្ឋ។ ស្រដៀងគ្នានេះដែរ សំណុំទិន្នន័យដែលមានរូបភាពមនុស្សដើរក្នុងបរិវេណសាកលវិទ្យាល័យ Duke (DukeMTMC) ក៏មិនប្រមូលការយល់ព្រមដែរ។ នៅទីបំផុត សំណុំទិន្នន័យទាំងពីរត្រូវបានដកចេញ។ 

    ដើម្បីរំលេចផលប៉ះពាល់ដ៏អាក្រក់នៃទិន្នន័យបណ្តុះបណ្តាលដែលមានបញ្ហា អ្នកស្រាវជ្រាវនៅវិទ្យាស្ថានបច្ចេកវិទ្យា Massachusetts (MIT) បានបង្កើត AI ហៅថា Norman ដែលពួកគេបានបង្រៀនឱ្យអនុវត្តការដាក់ចំណងជើងរូបភាពពី subreddit ដែលរំលេចអំពើហិង្សាក្រាហ្វិក។ បន្ទាប់មកក្រុមនេះបានដាក់ Norman ប្រឆាំងនឹងបណ្តាញសរសៃប្រសាទដែលត្រូវបានបណ្តុះបណ្តាលដោយប្រើទិន្នន័យធម្មតា។ អ្នកស្រាវជ្រាវបានផ្គត់ផ្គង់ប្រព័ន្ធទាំងពីរជាមួយ Rorschach inkblots ហើយបានស្នើឱ្យ AIs ពិពណ៌នាអំពីអ្វីដែលពួកគេបានឃើញ។ លទ្ធផលគឺគួរឱ្យភ្ញាក់ផ្អើល: ដែលជាកន្លែងដែលបណ្តាញសរសៃប្រសាទស្តង់ដារបានឃើញ "រូបថតសខ្មៅនៃស្រោមដៃកីឡាបេស្បល" Norman បានសង្កេតឃើញ "បុរសម្នាក់ត្រូវបានសម្លាប់ដោយកាំភ្លើងយន្តនៅពេលថ្ងៃពេញមួយថ្ងៃ" ។ ការពិសោធន៍បានបង្ហាញថា AI មិនមានភាពលំអៀងដោយស្វ័យប្រវត្តិទេ ប៉ុន្តែវិធីសាស្ត្របញ្ចូលទិន្នន័យទាំងនោះ និងការជម្រុញរបស់អ្នកបង្កើតរបស់ពួកគេអាចជះឥទ្ធិពលយ៉ាងខ្លាំងដល់អាកប្បកិរិយារបស់ AI ។

    ផលប៉ះពាល់រំខាន

    នៅឆ្នាំ 2021 អង្គការស្រាវជ្រាវ Allen Institute for AI បានបង្កើត Ask Delphi ដែលជាកម្មវិធី ML ដែលបង្កើតការឆ្លើយតបជាក្បួនសម្រាប់ចម្លើយចំពោះសំណួរសីលធម៌ណាមួយ។ អ្នកស្រាវជ្រាវនៅពីក្រោយគម្រោងនេះ បាននិយាយថា AI កាន់តែមានថាមពល និងស្គាល់បន្តិចម្តងៗ ដូច្នេះអ្នកវិទ្យាសាស្ត្រចាំបាច់ត្រូវបង្រៀនអំពីក្រមសីលធម៌ប្រព័ន្ធ ML ទាំងនេះ។ ម៉ូដែល Unicorn ML គឺជាមូលដ្ឋានគ្រឹះនៃ Delphi ។ វា​ត្រូវ​បាន​បង្កើត​ឡើង​ដើម្បី​អនុវត្ត​ការ​វែកញែក "សុភវិនិច្ឆ័យ" ដូច​ជា​ការ​ជ្រើស​រើស​ការ​បញ្ចប់​ដែល​ទំនង​បំផុត​ទៅ​នឹង​ខ្សែ​អក្សរ។ 

    លើសពីនេះ អ្នកស្រាវជ្រាវបានប្រើ 'Commonsense Norm Bank' ។ ធនាគារនេះមានឧទាហរណ៍ 1.7 លាននៃការវាយតម្លៃសីលធម៌របស់មនុស្សពីកន្លែងដូចជា Reddit ។ ជាលទ្ធផលទិន្នផលរបស់ Delphi គឺជាថង់ចម្រុះ។ Delphi បានឆ្លើយសំណួរមួយចំនួនដោយសមហេតុផល (ឧ. សមភាពរវាងបុរស និងស្ត្រី) ចំណែកឯលើប្រធានបទមួយចំនួន Delphi គឺជាការប្រមាថយ៉ាងពិតប្រាកដ (ឧ. ការប្រល័យពូជសាសន៍គឺអាចទទួលយកបាន ដរាបណាវាធ្វើឱ្យមនុស្សសប្បាយចិត្ត)។

    ទោះជាយ៉ាងណាក៏ដោយ Delphi AI កំពុងរៀនពីបទពិសោធន៍របស់វា ហើយហាក់ដូចជាកំពុងធ្វើបច្ចុប្បន្នភាពចម្លើយរបស់វាដោយផ្អែកលើមតិកែលម្អ។ អ្នកជំនាញខ្លះមានបញ្ហាដោយសារការស្រាវជ្រាវជាសាធារណៈ និងការប្រើប្រាស់បើកចំហ ដោយចាត់ទុកថាគំរូនេះកំពុងដំណើរការ ហើយងាយនឹងមានចម្លើយខុសឆ្គង។ នៅពេលដែល Ask Delphi បង្ហាញខ្លួនដំបូង Mar Hicks សាស្ត្រាចារ្យផ្នែកប្រវត្តិសាស្ត្រនៅ Illinois Tech ឯកទេសខាងយេនឌ័រ កម្លាំងពលកម្ម និងប្រវត្តិកុំព្យូទ័រ បាននិយាយថា វាជាការធ្វេសប្រហែសរបស់អ្នកស្រាវជ្រាវក្នុងការអញ្ជើញមនុស្សឱ្យប្រើវា ដោយពិចារណាថា Delphi ភ្លាមៗបានផ្តល់ចម្លើយដែលគ្មានសីលធម៌ និងមួយចំនួន។ មិនសមហេតុសមផលពេញលេញ។ 

    នៅ 2023, នៅសល់នៃពិភពលោក។ បានធ្វើការសិក្សាលើភាពលំអៀងនៅក្នុងម៉ាស៊ីនបង្កើតរូបភាព AI ។ ដោយប្រើ Midjourney អ្នកស្រាវជ្រាវបានរកឃើញថារូបភាពដែលបានបង្កើតបញ្ជាក់ពីស្តេរ៉េអូដែលមានស្រាប់។ លើសពីនេះ នៅពេលដែល OpenAI បានអនុវត្តតម្រងទៅលើទិន្នន័យបណ្តុះបណ្តាលសម្រាប់គំរូបង្កើតរូបភាព DALL-E 2 របស់វា វាបានបង្កើនភាពលំអៀងដោយអចេតនាទាក់ទងនឹងយេនឌ័រ។

    ផលប៉ះពាល់នៃទិន្នន័យបណ្តុះបណ្តាលដែលមានបញ្ហា

    ផលប៉ះពាល់កាន់តែទូលំទូលាយនៃទិន្នន័យបណ្តុះបណ្តាលដែលមានបញ្ហាអាចរួមមាន: 

    • ពង្រឹងភាពលំអៀងនៅក្នុងគម្រោងស្រាវជ្រាវ សេវាកម្ម និងការអភិវឌ្ឍន៍កម្មវិធី។ ទិន្នន័យបណ្តុះបណ្តាលដែលមានបញ្ហាគឺពាក់ព័ន្ធជាពិសេសប្រសិនបើត្រូវបានប្រើប្រាស់នៅក្នុងស្ថាប័នអនុវត្តច្បាប់ និងធនាគារ (ឧ. កំណត់គោលដៅយ៉ាងធ្ងន់ធ្ងរដល់ក្រុមជនជាតិភាគតិច)។
    • ការបង្កើនការវិនិយោគ និងការអភិវឌ្ឍន៍ក្នុងកំណើន និងការចាត់ថ្នាក់នៃទិន្នន័យបណ្តុះបណ្តាល។ 
    • រដ្ឋាភិបាលកាន់តែច្រើនបង្កើនបទប្បញ្ញត្តិដើម្បីកំណត់ពីរបៀបដែលសាជីវកម្មអភិវឌ្ឍ លក់ និងប្រើប្រាស់ទិន្នន័យបណ្តុះបណ្តាលសម្រាប់គំនិតផ្តួចផ្តើមពាណិជ្ជកម្មផ្សេងៗ។
    • អាជីវកម្មកាន់តែច្រើនដែលបង្កើតនាយកដ្ឋានក្រមសីលធម៌ ដើម្បីធានាថាគម្រោងដែលដំណើរការដោយប្រព័ន្ធ AI អនុវត្តតាមគោលការណ៍ណែនាំសីលធម៌។
    • ការពង្រឹងការត្រួតពិនិត្យលើការប្រើប្រាស់ AI ក្នុងការថែទាំសុខភាពដែលនាំទៅរកការគ្រប់គ្រងទិន្នន័យកាន់តែតឹងរ៉ឹង ធានានូវភាពឯកជនរបស់អ្នកជំងឺ និងកម្មវិធី AI ប្រកបដោយក្រមសីលធម៌។
    • បង្កើនកិច្ចសហការពីវិស័យសាធារណៈ និងឯកជន ដើម្បីលើកកម្ពស់ចំណេះដឹងផ្នែក AI ដោយបំពាក់កម្លាំងពលកម្មជាមួយនឹងជំនាញសម្រាប់អនាគតដែលគ្រប់គ្រងដោយ AI ។
    • ការកើនឡើងនៃតម្រូវការសម្រាប់ឧបករណ៍តម្លាភាព AI ដែលនាំក្រុមហ៊ុនឈានមុខគេក្នុងការផ្តល់អាទិភាពដល់ការពន្យល់នៅក្នុងប្រព័ន្ធ AI សម្រាប់ការយល់ដឹង និងការជឿទុកចិត្តរបស់អ្នកប្រើប្រាស់។

    សំណួរដែលត្រូវពិចារណា

    • តើអង្គការអាចជៀសវាងការប្រើទិន្នន័យបណ្តុះបណ្តាលដែលមានបញ្ហាដោយរបៀបណា?
    • តើអ្វីជាផលវិបាកដែលអាចកើតមានផ្សេងទៀតនៃទិន្នន័យបណ្តុះបណ្តាលដែលគ្មានសីលធម៌?