ევროპის ხელოვნური ინტელექტის რეგულაცია: ხელოვნური ინტელექტის ჰუმანური შენარჩუნების მცდელობა

სურათის კრედიტი:
გამოსახულება საკრედიტო
iStock

ევროპის ხელოვნური ინტელექტის რეგულაცია: ხელოვნური ინტელექტის ჰუმანური შენარჩუნების მცდელობა

აშენდა ხვალინდელი ფუტურისტისთვის

Quantumrun Trends პლატფორმა მოგცემთ შეხედულებებს, ინსტრუმენტებსა და საზოგადოებას, რათა გამოიკვლიოთ და აყვავდეთ მომავალი ტენდენციებიდან.

სპეც შეთავაზება

$5 თვეში

ევროპის ხელოვნური ინტელექტის რეგულაცია: ხელოვნური ინტელექტის ჰუმანური შენარჩუნების მცდელობა

ქვესათაური ტექსტი
ევროკომისიის ხელოვნური ინტელექტის მარეგულირებელი წინადადება მიზნად ისახავს ხელოვნური ინტელექტის ეთიკური გამოყენების ხელშეწყობას.
    • ავტორი:
    • ავტორის სახელი
      Quantumrun Foresight
    • ივნისი 13, 2022

    Insight რეზიუმე

    ევროკომისია (EC) ნაბიჯებს დგამს ხელოვნური ინტელექტის (AI) ეთიკური სტანდარტების დასაყენებლად, ფოკუსირებულია ბოროტად გამოყენების თავიდან აცილებაზე ისეთ სფეროებში, როგორიცაა მეთვალყურეობა და მომხმარებელთა მონაცემები. ამ ნაბიჯმა გამოიწვია დებატები ტექნოლოგიურ ინდუსტრიაში და შეიძლება გამოიწვიოს შეერთებული შტატების ერთიანი მიდგომა, რომელიც მიზნად ისახავს გლობალურ გავლენას. თუმცა, რეგულაციებს ასევე შეიძლება მოჰყვეს არასასურველი შედეგები, როგორიცაა საბაზრო კონკურენციის შეზღუდვა და ტექნიკის სექტორში სამუშაო შესაძლებლობებზე ზემოქმედება.

    ევროპული ხელოვნური ინტელექტის რეგულირების კონტექსტი

    EC აქტიურად იყო ფოკუსირებული მონაცემთა კონფიდენციალურობისა და ონლაინ უფლებების დაცვის პოლიტიკის შექმნაზე. ცოტა ხნის წინ, ეს აქცენტი გაფართოვდა და მოიცავს AI ტექნოლოგიების ეთიკურ გამოყენებას. ევროკომისია შეშფოთებულია ხელოვნური ინტელექტის პოტენციური ბოროტად გამოყენების გამო სხვადასხვა სექტორში, მომხმარებელთა მონაცემების შეგროვებიდან მეთვალყურეობამდე. ამით კომისია მიზნად ისახავს დააწესოს ხელოვნური ინტელექტის ეთიკის სტანდარტი, არა მხოლოდ ევროკავშირის ფარგლებში, არამედ პოტენციურად, როგორც მოდელი დანარჩენი მსოფლიოსთვის.

    2021 წლის აპრილში, ევროკომისიამ გადადგა მნიშვნელოვანი ნაბიჯი, გამოაქვეყნა წესები, რომლებიც მიზნად ისახავს ხელოვნური ინტელექტის აპლიკაციების მონიტორინგს. ეს წესები შექმნილია იმისთვის, რომ თავიდან აიცილოს ხელოვნური ინტელექტის გამოყენება თვალთვალისთვის, მიკერძოებულობის ან რეპრესიული ქმედებებისთვის მთავრობების ან ორგანიზაციების მიერ. კერძოდ, რეგულაციები კრძალავს AI სისტემებს, რომლებმაც შეიძლება ზიანი მიაყენონ ინდივიდებს ფიზიკურად ან ფსიქოლოგიურად. მაგალითად, ხელოვნური ინტელექტის სისტემები, რომლებიც მანიპულირებენ ადამიანების ქცევით ფარული შეტყობინებების საშუალებით, დაუშვებელია და არც ისეთი სისტემები, რომლებიც იყენებენ ადამიანების ფიზიკურ ან გონებრივ დაუცველობას.

    ამას გარდა, ევროკომისიამ ასევე შეიმუშავა უფრო მკაცრი პოლიტიკა იმ სისტემებისთვის, რასაც ის „მაღალი რისკის“ AI სისტემებს თვლის. ეს არის ხელოვნური ინტელექტის აპლიკაციები, რომლებიც გამოიყენება სექტორებში, რომლებსაც აქვთ მნიშვნელოვანი გავლენა საზოგადოებრივ უსაფრთხოებასა და კეთილდღეობაზე, როგორიცაა სამედიცინო მოწყობილობები, უსაფრთხოების აღჭურვილობა და სამართალდამცავი ინსტრუმენტები. პოლიტიკა ასახავს აუდიტის უფრო მკაცრ მოთხოვნებს, დამტკიცების პროცესს და მიმდინარე მონიტორინგს ამ სისტემების დანერგვის შემდეგ. ინდუსტრიები, როგორიცაა ბიომეტრიული იდენტიფიკაცია, კრიტიკული ინფრასტრუქტურა და განათლება, ასევე ამ ქოლგის ქვეშაა. კომპანიებს, რომლებიც ვერ შეასრულებენ ამ რეგულაციას, შეიძლება დაეკისრონ სერიოზული ჯარიმები, $32 მილიონ აშშ დოლარამდე ან მათი გლობალური წლიური შემოსავლის 6 პროცენტი.

    დამრღვევი გავლენა

    ტექნოლოგიურმა ინდუსტრიამ გამოთქვა შეშფოთება EC-ის მარეგულირებელი ჩარჩოს შესახებ ხელოვნური ინტელექტის შესახებ და ამტკიცებს, რომ ასეთმა წესებმა შეიძლება შეაფერხოს ტექნოლოგიური პროგრესი. კრიტიკოსები აღნიშნავენ, რომ ჩარჩოში „მაღალი რისკის“ AI სისტემების განმარტება მკაფიო არ არის. მაგალითად, მსხვილი ტექნიკური კომპანიები, რომლებიც იყენებენ ხელოვნურ ინტელექტს სოციალური მედიის ალგორითმებისთვის ან მიზნობრივი რეკლამისთვის, არ არის კლასიფიცირებული, როგორც "მაღალი რისკი", მიუხედავად იმისა, რომ ეს აპლიკაციები დაკავშირებულია სხვადასხვა სოციალურ საკითხებთან, როგორიცაა დეზინფორმაცია და პოლარიზაცია. EC უპირისპირდება ამას იმით, რომ ევროკავშირის თითოეული ქვეყნის ეროვნული საზედამხედველო სააგენტოები იტყვიან საბოლოო სიტყვას იმაზე, თუ რა წარმოადგენს მაღალი რისკის განაცხადს, მაგრამ ამ მიდგომამ შეიძლება გამოიწვიოს შეუსაბამობები წევრ ქვეყნებში.

    ევროკავშირი (EU) არ მოქმედებს იზოლირებულად; ის მიზნად ისახავს შეერთებულ შტატებთან თანამშრომლობას ხელოვნური ინტელექტის ეთიკის გლობალური სტანდარტის დასამკვიდრებლად. აშშ-ს სენატის სტრატეგიული კონკურენციის აქტი, რომელიც გამოქვეყნდა 2021 წლის აპრილში, ასევე მოუწოდებს საერთაშორისო თანამშრომლობას "ციფრული ავტორიტარიზმის" წინააღმდეგ, ფარული მითითება პრაქტიკაზე, როგორიცაა ჩინეთის მიერ ბიომეტრიის გამოყენება მასობრივი მეთვალყურეობისთვის. ამ ტრანსატლანტიკურ პარტნიორობას შეუძლია შექმნას ტონი გლობალური ხელოვნური ინტელექტის ეთიკისთვის, მაგრამ ის ასევე აჩენს კითხვებს იმის შესახებ, თუ როგორ განხორციელდება ასეთი სტანდარტები მთელ მსოფლიოში. დაიცავენ თუ არა ქვეყნები, რომლებსაც განსხვავებული შეხედულებები აქვთ მონაცემთა კონფიდენციალურობასა და ინდივიდუალურ უფლებებზე, როგორიცაა ჩინეთი და რუსეთი, ამ სახელმძღვანელო პრინციპებს, თუ ეს შექმნის ხელოვნური ინტელექტის ეთიკის ფრაგმენტულ ლანდშაფტს?

    თუ ეს რეგულაციები კანონი გახდება 2020-იანი წლების შუა და ბოლოს, მათ შეიძლება ჰქონდეს ტალღოვანი ეფექტი ევროკავშირის ტექნოლოგიურ ინდუსტრიასა და სამუშაო ძალაზე. ევროკავშირში მოქმედ კომპანიებს შეუძლიათ აირჩიონ ამ მარეგულირებელი ცვლილებების გლობალური გამოყენება, რაც მთელი მათი ფუნქციონირების ახალ სტანდარტებთან შესაბამისობაშია. თუმცა, ზოგიერთმა ორგანიზაციამ შესაძლოა რეგულაციები ძალიან მძიმედ მიიჩნიოს და ევროკავშირის ბაზრიდან საერთოდ გასვლა არჩიოს. ორივე სცენარი გავლენას მოახდენს ევროკავშირის ტექნიკურ სექტორში დასაქმებაზე. მაგალითად, კომპანიების მასობრივმა გასვლამ შეიძლება გამოიწვიოს სამუშაო ადგილების დაკარგვა, ხოლო გლობალურმა შესაბამისობამ ევროკავშირის სტანდარტებთან შეიძლება გახადოს ევროკავშირზე დაფუძნებული ტექნიკური როლები უფრო სპეციალიზებული და პოტენციურად უფრო ღირებული.

    გავლენა ევროპაში ხელოვნური ინტელექტის რეგულირების გაზრდაზე

    EC-ს უფრო ფართო გავლენა, რომელსაც არეგულირებს ხელოვნური ინტელექტი, შეიძლება მოიცავდეს:

    • ევროკავშირი და აშშ აფორმებენ ორმხრივი სერტიფიცირების შეთანხმებას ხელოვნური ინტელექტის მქონე კომპანიებისთვის, რაც იწვევს ეთიკური სტანდარტების ჰარმონიზებულ კომპლექტს, რომელიც კომპანიებმა უნდა დაიცვან, მიუხედავად მათი გეოგრაფიული მდებარეობისა.
    • ზრდა ხელოვნური ინტელექტის აუდიტის სპეციალიზებულ სფეროში, რაც გამოწვეულია კერძო ფირმებსა და საჯარო სექტორებს შორის გაზრდილი თანამშრომლობით ახალ რეგულაციების შესაბამისობის უზრუნველსაყოფად.
    • განვითარებადი სამყაროს ქვეყნები და ბიზნესები იღებენ წვდომას ციფრულ სერვისებზე, რომლებიც იცავენ დასავლური ქვეყნების მიერ დადგენილ ეთიკურ AI სტანდარტებს, რაც პოტენციურად ამაღლებს ამ სერვისების ხარისხსა და უსაფრთხოებას.
    • ბიზნეს მოდელების ცვლილება ეთიკური ხელოვნური ინტელექტის პრაქტიკის პრიორიტეტებისთვის, მომხმარებელთა მოზიდვა, რომლებიც სულ უფრო მეტად აწუხებენ მონაცემთა კონფიდენციალურობას და ეთიკური ტექნოლოგიების გამოყენებას.
    • მთავრობები უფრო თავდაჯერებულად იღებენ AI-ს საჯარო სერვისებში, როგორიცაა ჯანდაცვა და ტრანსპორტი, რადგან იციან, რომ ეს ტექნოლოგიები აკმაყოფილებს მკაცრ ეთიკურ სტანდარტებს.
    • გაიზარდა ინვესტიციები საგანმანათლებლო პროგრამებში, რომლებიც ორიენტირებულია ეთიკურ AI-ზე, შექმნა ტექნოლოგების ახალი თაობა, რომლებიც კარგად ერკვევიან როგორც ხელოვნური ინტელექტის შესაძლებლობებში, ასევე ეთიკურ მოსაზრებებში.
    • მცირე ტექნიკური სტარტაპები შესვლის ბარიერებს აწყდებიან მარეგულირებელი წესების დაცვის მაღალი ხარჯების გამო, პოტენციურად ახშობს კონკურენციას და იწვევს ბაზრის კონსოლიდაციას.

    კითხვები გასათვალისწინებელია

    • გჯერათ, რომ მთავრობებმა უნდა დაარეგულირონ ხელოვნური ინტელექტის ტექნოლოგიები და როგორ გამოიყენება ისინი?
    • სხვაგვარად როგორ შეიძლება გავლენა იქონიოს ტექნოლოგიების ინდუსტრიაში გაზრდილმა რეგულაციამ სექტორის კომპანიების ფუნქციონირებაზე?