ტრენინგის პრობლემური მონაცემები: როდესაც AI ასწავლიან მიკერძოებულ მონაცემებს

სურათის კრედიტი:
გამოსახულება საკრედიტო
iStock

ტრენინგის პრობლემური მონაცემები: როდესაც AI ასწავლიან მიკერძოებულ მონაცემებს

ტრენინგის პრობლემური მონაცემები: როდესაც AI ასწავლიან მიკერძოებულ მონაცემებს

ქვესათაური ტექსტი
ხელოვნური ინტელექტის სისტემები ზოგჯერ წარმოდგენილია სუბიექტური მონაცემებით, რამაც შეიძლება გავლენა მოახდინოს მის მოქმედებასა და გადაწყვეტილების მიღებაზე.
    • ავტორი:
    • ავტორის სახელი
      Quantumrun Foresight
    • ოქტომბერი 14, 2022

    Insight რეზიუმე

    ჩვენ ვართ ის, რასაც ვსწავლობთ და ვხვდებით; ეს მითითება ასევე ეხება ხელოვნურ ინტელექტს (AI). მანქანათმცოდნეობის (ML) მოდელები, რომლებიც იკვებება არასრული, მიკერძოებული და არაეთიკური მონაცემებით, საბოლოოდ მიიღებენ პრობლემურ გადაწყვეტილებებს და წინადადებებს. ამ მძლავრ ალგორითმებს შეუძლიათ გავლენა მოახდინონ მომხმარებლების მორალზე და აღქმაზე, თუ მკვლევარები ფრთხილად არ იქნებიან.

    პრობლემური ტრენინგის მონაცემთა კონტექსტი

    2010-იანი წლებიდან მოყოლებული, კვლევითი ჯგუფები იკვლევდნენ სასწავლო მონაცემთა ნაკრების არასათანადო შინაარსის ან არაეთიკურად შეგროვების გამო. მაგალითად, 2016 წელს Microsoft-ის MS-Celeb-1M მონაცემთა ბაზაში მოიცავდა 10 100,000 სხვადასხვა ცნობილი ადამიანის XNUMX მილიონ სურათს. თუმცა, შემდგომი შემოწმების შედეგად, კორესპონდენტებმა აღმოაჩინეს, რომ ბევრი ფოტო იყო ჩვეულებრივი ადამიანებისა, რომლებიც ამოღებული იყო სხვადასხვა ვებსაიტებიდან მფლობელის თანხმობისა და ცოდნის გარეშე.

    მიუხედავად ამ რეალიზაციისა, მონაცემთა ბაზის გამოყენება განაგრძო მსხვილმა კომპანიებმა, როგორიცაა Facebook და SenseTime, ჩინური სახის ამოცნობის კომპანია, რომელიც დაკავშირებულია სახელმწიფო პოლიციასთან. ანალოგიურად, მონაცემთა ბაზამ, რომელიც შეიცავს დიუკის უნივერსიტეტის კამპუსში მოსიარულე ადამიანების სურათებს (DukeMTMC) ასევე არ აგროვებდა თანხმობას. საბოლოოდ, ორივე მონაცემთა ნაკრები ამოიღეს. 

    პრობლემური ტრენინგის მონაცემების მავნე ზემოქმედების ხაზგასასმელად, მასაჩუსეტსის ტექნოლოგიური ინსტიტუტის (MIT) მკვლევარებმა შექმნეს AI სახელწოდებით ნორმანი, რომელსაც ასწავლიდნენ სურათის წარწერის შესრულებას ქვერედიტიდან, რომელიც ხაზს უსვამდა გრაფიკულ ძალადობას. შემდეგ გუნდმა ნორმანი მოათავსა ნერვულ ქსელთან, რომელიც გაწვრთნილი იყო ჩვეულებრივი მონაცემების გამოყენებით. მკვლევარებმა ორივე სისტემას მიაწოდეს Rorschach-ის მელნის ლაქები და სთხოვეს AI-ებს აღეწერათ ის, რაც ნახეს. შედეგები განსაცვიფრებელი იყო: იქ, სადაც სტანდარტულმა ნერვულმა ქსელმა დაინახა "ბეისბოლის ხელთათმანის შავ-თეთრი ფოტო", ნორმანმა დააკვირდა "ტყვიამფრქვევით მოკლული კაცი დღისით". ექსპერიმენტმა აჩვენა, რომ AI არ არის ავტომატურად მიკერძოებული, მაგრამ მონაცემთა შეყვანის ამ მეთოდებმა და მათი შემქმნელების მოტივებმა შეიძლება მნიშვნელოვნად იმოქმედოს ხელოვნური ინტელექტის ქცევაზე.

    დამრღვევი გავლენა

    2021 წელს კვლევითმა ორგანიზაციამ Allen Institute for AI შექმნა Ask Delphi, ML პროგრამული უზრუნველყოფა, რომელიც ალგორითმულად გამოიმუშავებს პასუხებს ნებისმიერ ეთიკურ კითხვაზე პასუხებისთვის. პროექტის მიღმა მკვლევარებმა განაცხადეს, რომ ხელოვნური ინტელექტი თანდათან უფრო ძლიერი და ნაცნობი ხდება, ამიტომ მეცნიერებმა უნდა ასწავლონ ამ ML სისტემების ეთიკა. Unicorn ML მოდელი არის Delphi-ს საფუძველი. იგი ჩამოყალიბდა "საღი აზრის" მსჯელობის განსახორციელებლად, როგორიცაა ტექსტის სტრიქონის ყველაზე სავარაუდო დასასრულის არჩევა. 

    გარდა ამისა, მკვლევარებმა გამოიყენეს "Commonsense Norm Bank". ეს ბანკი შედგება ადამიანების ეთიკური შეფასებების 1.7 მილიონი მაგალითისგან ისეთი ადგილებისგან, როგორიცაა Reddit. შედეგად, დელფის გამომავალი იყო შერეული ტომარა. დელფიმ ზოგიერთ კითხვას გონივრულად უპასუხა (მაგ., თანასწორობა მამაკაცებსა და ქალებს შორის), მაშინ როცა, ზოგიერთ თემაზე, დელფი აშკარად შეურაცხმყოფელი იყო (მაგალითად, გენოციდი მისაღებია მანამ, სანამ ის ხალხს აბედნიერებდა).

    თუმცა, Delphi AI სწავლობს თავისი გამოცდილებიდან და, როგორც ჩანს, აახლებს პასუხებს გამოხმაურების საფუძველზე. ზოგიერთ ექსპერტს აწუხებს კვლევის საჯარო და ღია გამოყენება, იმის გათვალისწინებით, რომ მოდელი მიმდინარეობს და მიდრეკილია არასტაბილური პასუხებისკენ. როდესაც Ask Delphi-ის დებიუტი გამოვიდა, მარ ჰიქსმა, ილინოისის ტექნიკის ისტორიის პროფესორმა, რომელიც სპეციალიზირებულია გენდერში, შრომასა და გამოთვლის ისტორიაში, თქვა, რომ მკვლევარების მხრიდან დაუდევრობა იყო ხალხის მოწვევა მის გამოსაყენებლად, იმის გათვალისწინებით, რომ დელფი მაშინვე გასცა უკიდურესად არაეთიკური პასუხები და ზოგიერთი სრული სისულელე. 

    In 2023, Დანარჩენი მსოფლიო ჩაატარა კვლევა AI გამოსახულების გენერატორებში მიკერძოების შესახებ. Midjourney-ის გამოყენებით მკვლევარებმა აღმოაჩინეს, რომ წარმოქმნილი სურათები ადასტურებს არსებულ სტერეოტიპებს. გარდა ამისა, როდესაც OpenAI-მ გამოიყენა ფილტრები ტრენინგის მონაცემებზე მისი DALL-E 2 გამოსახულების გენერირების მოდელისთვის, მან უნებურად გააძლიერა გენდერთან დაკავშირებული მიკერძოება.

    პრობლემური ტრენინგის მონაცემების შედეგები

    პრობლემური ტრენინგის მონაცემების უფრო ფართო შედეგები შეიძლება მოიცავდეს: 

    • გაძლიერებული მიკერძოება კვლევით პროექტებში, სერვისებსა და პროგრამების შემუშავებაში. ტრენინგის პრობლემური მონაცემები განსაკუთრებით შემაშფოთებელია, თუ გამოიყენება სამართალდამცავ და საბანკო დაწესებულებებში (მაგ., უმცირესობათა ჯგუფების მიმართ უარყოფითად).
    • გაზრდილი ინვესტიციები და განვითარება ტრენინგის მონაცემების ზრდასა და ასორტიმენტში. 
    • უფრო მეტი მთავრობა აძლიერებს რეგულაციებს, რათა შეზღუდოს კორპორაციების განვითარება, გაყიდვა და ტრენინგის მონაცემების გამოყენება სხვადასხვა კომერციული ინიციატივებისთვის.
    • უფრო მეტი ბიზნესი აყალიბებს ეთიკის დეპარტამენტებს, რათა უზრუნველყოს ხელოვნური ინტელექტის სისტემებით შექმნილი პროექტები ეთიკურ მითითებებს.
    • ჯანდაცვის სფეროში ხელოვნური ინტელექტის გამოყენების გაძლიერებული შემოწმება, რაც იწვევს მონაცემთა უფრო მკაცრ მართვას, უზრუნველყოფს პაციენტის კონფიდენციალურობას და ეთიკური AI გამოყენებას.
    • გაზარდა საჯარო და კერძო სექტორის თანამშრომლობა ხელოვნური ინტელექტის წიგნიერების გასაძლიერებლად, მუშახელის აღჭურვა უნარ-ჩვევებით ხელოვნური ინტელექტის დომინირებული მომავლისთვის.
    • გაიზარდა მოთხოვნილება ხელოვნური ინტელექტის გამჭვირვალობის ინსტრუმენტებზე, რაც იწვევს კომპანიებს პრიორიტეტულად ახსნან AI სისტემებში მომხმარებელთა გაგებისა და ნდობისთვის.

    კითხვები გასათვალისწინებელია

    • როგორ შეიძლება ორგანიზაციებმა თავიდან აიცილონ პრობლემური ტრენინგის მონაცემების გამოყენება?
    • რა არის არაეთიკური ტრენინგის მონაცემების სხვა პოტენციური შედეგები?