ხელოვნური ინტელექტის განლაგება: ხელოვნური ინტელექტის მიზნების შესატყვისი ემთხვევა ადამიანის ღირებულებებს

სურათის კრედიტი:
გამოსახულება საკრედიტო
iStock

ხელოვნური ინტელექტის განლაგება: ხელოვნური ინტელექტის მიზნების შესატყვისი ემთხვევა ადამიანის ღირებულებებს

ხელოვნური ინტელექტის განლაგება: ხელოვნური ინტელექტის მიზნების შესატყვისი ემთხვევა ადამიანის ღირებულებებს

ქვესათაური ტექსტი
ზოგიერთი მკვლევარი თვლის, რომ უნდა განხორციელდეს ზომები, რათა ხელოვნური ინტელექტი არ დააზარალოს საზოგადოებას.
    • ავტორი:
    • ავტორის სახელი
      Quantumrun Foresight
    • იანვარი 25, 2023

    ხელოვნური ინტელექტის (AI) გასწორება არის ის, როდესაც AI სისტემის მიზნები ემთხვევა ადამიანის ღირებულებებს. კომპანიებს, როგორიცაა OpenAI, DeepMind და Anthropic, ჰყავთ მკვლევართა გუნდები, რომელთა ერთადერთი აქცენტი არის დამცავი რელსების შესწავლა სხვადასხვა სცენარისთვის, რომლებშიც ეს შეიძლება მოხდეს.

    AI გასწორების კონტექსტი

    კორნელის უნივერსიტეტის 2021 წლის კვლევის მიხედვით, რამდენიმე კვლევამ აჩვენა, რომ ალგორითმების მიერ შექმნილი ხელსაწყოები ან მოდელები აჩვენებენ მიკერძოებას, რომელიც მიღებულია იმ მონაცემებიდან, რომლებზეც ისინი სწავლობდნენ. მაგალითად, ბუნებრივი ენის დამუშავებაში (NLP), შერჩეული NLP მოდელები, რომლებიც გაწვრთნილი იყო მონაცემთა შეზღუდულ კომპლექტებზე, დოკუმენტირებულია ქალების მიმართ მავნე გენდერულ სტერეოტიპებზე დაფუძნებული პროგნოზების გაკეთების მიზნით. ანალოგიურად, სხვა კვლევებმა აჩვენა, რომ ალგორითმები, რომლებიც გაწვრთნილ იქნა გაყალბებულ მონაცემთა ნაკრებზე, იწვევდა რასობრივად მიკერძოებულ რეკომენდაციებს, განსაკუთრებით პოლიციურ საქმიანობაში.

    არსებობს უამრავი მაგალითი, როდესაც მანქანათმცოდნეობის სისტემები უარესად მუშაობენ უმცირესობებისთვის ან ჯგუფებისთვის, რომლებიც განიცდიან მრავალ მინუსს. კერძოდ, სახის ავტომატური ანალიზი და ჯანდაცვის დიაგნოსტიკა, როგორც წესი, არ მუშაობს კარგად ქალებსა და ფერადკანიან ადამიანებს. როდესაც კრიტიკული სისტემები, რომლებიც ემოციების ნაცვლად ფაქტებსა და ლოგიკას უნდა ეფუძნებოდეს, გამოიყენება ისეთ კონტექსტებში, როგორიცაა ჯანდაცვის ან განათლების განაწილება, მათ შეუძლიათ მეტი ზიანი მიაყენონ ამ რეკომენდაციების მსჯელობის იდენტიფიცირებას.

    შედეგად, ტექნიკური ფირმები ქმნიან AI-ის გასწორების გუნდებს, რომლებიც ფოკუსირდებიან ალგორითმების სამართლიან და ჰუმანურ შენარჩუნებაზე. კვლევა არსებითია იმისთვის, რომ გავიგოთ მოწინავე ხელოვნური ინტელექტის სისტემების მიმართულება, ისევე როგორც გამოწვევები, რომელთა წინაშეც შეიძლება აღმოვჩნდეთ ხელოვნური ინტელექტის შესაძლებლობების ზრდისას.

    დამრღვევი გავლენა

    იან ლეიკის, OpenAI-ის (2021) AI განლაგების ხელმძღვანელის თქმით, იმის გათვალისწინებით, რომ ხელოვნური ინტელექტის სისტემები მხოლოდ 2010-იან წლებში გახდა შესაძლებელი, გასაგებია, რომ AI განლაგების კვლევების უმეტესობა თეორიულად მძიმე იყო. როდესაც უზომოდ მძლავრი ხელოვნური ინტელექტის სისტემები ერთმანეთს ემთხვევა, ერთ-ერთი გამოწვევა, რომელსაც ადამიანები აწყდებიან, არის ის, რომ ამ მანქანებმა შეიძლება შექმნან გადაწყვეტილებები, რომლებიც ძალიან რთულია განსახილველად და შესაფასებლად, აქვთ თუ არა ეთიკურად აზრი.

    ლეიკმა შეიმუშავა რეკურსიული ჯილდოს მოდელირების (RRM) სტრატეგია ამ პრობლემის გადასაჭრელად. RRM-ით რამდენიმე „დამხმარე“ AI-ს ასწავლიან, რათა დაეხმარონ ადამიანს შეაფასოს რამდენად კარგად მუშაობს უფრო რთული AI. ის ოპტიმისტურად არის განწყობილი იმის თაობაზე, რომ შექმნას ის, რასაც მას "განრიგის MVP" უწოდებს. სტარტაპის თვალსაზრისით, MVP (ან მინიმალური სიცოცხლისუნარიანი პროდუქტი) არის უმარტივესი შესაძლო პროდუქტი, რომელსაც კომპანია შეუძლია შექმნას იდეის შესამოწმებლად. იმედია, რომ ოდესმე, AI დაემთხვევა ადამიანის ეფექტურობას ხელოვნური ინტელექტის შესწავლაში და მის ღირებულებებთან შესაბამისობაში, თანაც ფუნქციონალური.

    მიუხედავად იმისა, რომ AI-ის გათანაბრებისადმი ინტერესის ზრდა დადებითია, ამ სფეროში ბევრი ანალიტიკოსი ფიქრობს, რომ AI-ის წამყვან ლაბორატორიებში მუშაობის „ეთიკის“ უმეტესი ნაწილი მხოლოდ საზოგადოებასთან ურთიერთობაა, რომელიც შექმნილია იმისთვის, რომ ტექნიკური კომპანიები კარგად გამოიყურებოდნენ და თავიდან აიცილონ უარყოფითი საჯაროობა. ეს ადამიანები არ ელოდებიან, რომ ეთიკური განვითარების პრაქტიკა ამ კომპანიებისთვის პრიორიტეტი გახდება უახლოეს მომავალში.

    ეს დაკვირვებები ხაზს უსვამს ინტერდისციპლინური მიდგომების მნიშვნელობას ღირებულების გასწორების მცდელობებისთვის, რადგან ეს არის მორალური და ტექნიკური კვლევის შედარებით ახალი სფერო. ცოდნის სხვადასხვა დარგები უნდა იყოს ინკლუზიური კვლევის დღის წესრიგის ნაწილი. ეს ინიციატივა ასევე მიუთითებს ტექნოლოგებისა და პოლიტიკის შემქმნელების აუცილებლობაზე, რომ შეინარჩუნონ თავიანთი სოციალური კონტექსტი და დაინტერესებული მხარეები, მიუხედავად იმისა, რომ ხელოვნური ინტელექტის სისტემები უფრო მოწინავე ხდება.

    AI გასწორების შედეგები

    ხელოვნური ინტელექტის გასწორების უფრო ფართო შედეგები შეიძლება მოიცავდეს: 

    • ხელოვნური ინტელექტის ლაბორატორიები ქირაობენ მრავალფეროვან ეთიკის დაფებს, რათა გააკონტროლონ პროექტები და შეასრულონ ეთიკური AI სახელმძღვანელო პრინციპები. 
    • მთავრობები ქმნიან კანონებს, რომლებიც კომპანიებს ავალდებულებენ წარადგინონ თავიანთი პასუხისმგებელი AI ჩარჩო და როგორ გეგმავენ შემდგომ განავითარონ AI პროექტები.
    • გაიზარდა წინააღმდეგობები ალგორითმების გამოყენებასთან დაკავშირებით დაქირავების, საზოგადოებრივი მეთვალყურეობისა და სამართალდამცავ ორგანოებში.
    • მკვლევარები გაათავისუფლეს ხელოვნური ინტელექტის დიდი ლაბორატორიებიდან ეთიკასა და კორპორატიულ მიზნებს შორის ინტერესთა კონფლიქტის გამო.
    • მეტი ზეწოლა მთავრობებზე, რათა მოაწესრიგონ მოწინავე ხელოვნური ინტელექტის სისტემები, რომლებიც ორივე წარმოუდგენლად ძლიერია, მაგრამ პოტენციურად შეიძლება არღვევდეს ადამიანის უფლებებს.

    კითხვები კომენტარისთვის

    • როგორ შეიძლება ფირმები იყოს პასუხისმგებელი ხელოვნური ინტელექტის სისტემებზე, რომლებსაც ისინი ქმნიან?
    • რა არის სხვა პოტენციური საფრთხეები, თუ არსებობს ხელოვნური ინტელექტის არასწორი განლაგება?