როგორ დაიცავს ადამიანები ხელოვნური სუპერინტელექტისგან: ხელოვნური ინტელექტის მომავალი P5

სურათის კრედიტი: Quantumrun

როგორ დაიცავს ადამიანები ხელოვნური სუპერინტელექტისგან: ხელოვნური ინტელექტის მომავალი P5

    65,000 წელია და როგორც ა Thylacoleoთქვენ და თქვენი გვარი ძველი ავსტრალიის დიდი მონადირეები იყავით. თქვენ თავისუფლად დადიხართ მიწაზე და ცხოვრობდით წონასწორობაში თანამემამულე მტაცებლებთან და მტაცებლებთან, რომლებიც თქვენთან ერთად იკავებდნენ მიწას. სეზონებმა ცვლილებები მოიტანა, მაგრამ თქვენი სტატუსი ცხოველთა სამეფოში უცვლელი დარჩა, სანამ თქვენ და თქვენს წინაპრებს გახსოვთ. შემდეგ ერთ დღეს ახალწვეულები გამოჩნდნენ.

    ჭორები ამბობენ, რომ ისინი გიგანტური წყლის კედლიდან ჩამოვიდნენ, მაგრამ ეს არსებები ხმელეთზე უფრო კომფორტულად ცხოვრობდნენ. თქვენ თვითონ უნდა გენახათ ეს არსებები.

    რამდენიმე დღე დასჭირდა, მაგრამ თქვენ საბოლოოდ მიაღწიეთ სანაპიროს. ცაში ცეცხლი ინთებოდა, შესანიშნავი დროა ამ არსებების დასაზვერად, იქნებ სცადოთ ერთის ჭამა, რომ ნახოთ როგორი გემო აქვთ.

    შენ შენიშნე ერთი.

    ორ ფეხზე დადიოდა და ბეწვი არ ჰქონდა. სუსტი ჩანდა. არაშთამბეჭდავი. ძნელად ღირდა შიში, რომელიც იწვევდა სამეფოს შორის.

    თქვენ იწყებთ ფრთხილად მიდგომას, რადგან ღამე აშორებს შუქს. შენ უახლოვდები. მერე იყინები. ხმამაღალი ხმები ისმის და შემდეგ კიდევ ოთხი მათგანი ჩნდება მის უკან ტყიდან. Რამდენია იქ?

    არსება სხვებს მიჰყვება ხეების ხაზში, შენ კი მიჰყვები. და რაც უფრო მეტს აკეთებთ, მით უფრო უცნაური ხმები გესმით, სანამ ამ არსებებს კიდევ უფრო მეტს შეამჩნევთ. თქვენ მიჰყვებით შორს, როდესაც ისინი ტყიდან გამოდიან ნაპირთან გაწმენდილში. ბევრი მათგანია. მაგრამ რაც მთავარია, ისინი მშვიდად სხედან ცეცხლთან.

    ეს ხანძრები ადრე გინახავთ. ცხელ სეზონზე ცაში ხანძარი ხან მიწას ეწვეოდა და მთელ ტყეებს წვავდა. ეს არსებები კი პირიქით, რაღაცნაირად აკონტროლებდნენ მას. რა სახის არსებებს შეიძლება ჰქონდეთ ასეთი ძალა?

    შორს იყურები. მეტი მოდის გიგანტური წყლის კედელზე.

    თქვენ გადადგით ნაბიჯი უკან.

    ეს არსებები არ ჰგვანან სხვებს სამეფოში. ისინი რაღაც სრულიად ახალია.

    თქვენ გადაწყვიტეთ წასვლა და გააფრთხილოთ თქვენი ნათესავები. თუ მათი რიცხვი ძალიან დიდი იქნება, ვინ იცის, რა შეიძლება მოხდეს.

    ***

    ითვლება, რომ Thylacoleo გადაშენდა შედარებით მოკლე დროში ადამიანების ჩამოსვლიდან, ავსტრალიის კონტინენტზე სხვა მეგაფაუნის უმეტესობასთან ერთად. არცერთ სხვა მწვერვალს ძუძუმწოვარ მტაცებელს ადგილი არ ჰქონია - ეს თუ არ ჩავთვლით ადამიანებს ამ კატეგორიაში.

    ამ ალეგორიის თამაში ამ სერიის თავშია: მომავალი ხელოვნური სუპერინტელექტი (ASI) გადაგვქცევს ყველას ბატარეებად და შემდეგ ჩაგვირთავს მატრიცაში, თუ ადამიანები გამოიკვლევენ გზას, რათა თავიდან აიცილონ სამეცნიერო ფანტასტიკის მსხვერპლი? AI განკითხვის დღის შეთქმულება?

    ჯერჯერობით ჩვენს სერიაში ხელოვნური ინტელექტის მომავალიჩვენ გამოვიკვლიეთ ყველა სახის ხელოვნური ინტელექტი, მათ შორის ხელოვნური ინტელექტის კონკრეტული ფორმის, ASI-ს დადებითი პოტენციალი: ხელოვნური არსება, რომლის მომავალი ინტელექტი ჭიანჭველებს ჰგავს.

    მაგრამ ვინ იტყვის, რომ ასეთი ჭკვიანი არსება სამუდამოდ მიიღებს ბრძანებებს ადამიანებისგან. რას ვიზამთ, თუ საქმე სამხრეთით წავა? როგორ დავიცვათ თაღლითი ASI-ისგან?

    ამ თავში ჩვენ შევამცირებთ ყალბ აჟიოტაჟს - ყოველ შემთხვევაში, რაც ეხება "ადამიანის გადაშენების დონეს" საფრთხეებს - და ყურადღებას გავამახვილებთ თავდაცვის რეალისტურ ვარიანტებზე, რომლებიც ხელმისაწვდომია მსოფლიო მთავრობებისთვის.

    შეგვიძლია შევაჩეროთ ყველა შემდგომი კვლევა ხელოვნური სუპერინტელექტის შესახებ?

    იმ პოტენციური რისკების გათვალისწინებით, რაც ASI-მ შეიძლება შეუქმნას კაცობრიობას, პირველი აშკარა კითხვაა: არ შეგვიძლია შევაჩეროთ AI-ის შემდგომი კვლევა? ან თუნდაც აკრძალოთ რაიმე კვლევა, რამაც შეიძლება სახიფათოდ მიგვაახლოოს ASI-ს შექმნასთან?

    მოკლე პასუხი:

    გრძელი პასუხი: მოდით შევხედოთ აქ მონაწილე სხვადასხვა მოთამაშეს.

    კვლევის დონეზე, დღეს არის ძალიან ბევრი AI მკვლევარი მსოფლიოს ძალიან ბევრი სტარტაპიდან, კომპანიისა და უნივერსიტეტიდან. თუ ერთმა კომპანიამ ან ქვეყანამ გადაწყვიტა შეზღუდოს AI კვლევის ძალისხმევა, ისინი უბრალოდ გააგრძელებენ სხვაგან.

    იმავდროულად, პლანეტის ყველაზე ძვირფასი კომპანიები თავიანთ ქონებას ქმნიან AI სისტემების გამოყენებით თავიანთ კონკრეტულ ბიზნესში. სთხოვეთ მათ შეაჩერონ ან შეზღუდონ ხელოვნური ინტელექტის ინსტრუმენტების განვითარება, იგივეა, რაც მათ თხოვნას შეაჩერონ ან შეზღუდონ მომავალი ზრდა. ფინანსურად ეს საფრთხეს შეუქმნის მათ გრძელვადიან ბიზნესს. იურიდიულად, კორპორაციებს აქვთ ფიდუციალური პასუხისმგებლობა მუდმივად შექმნან ღირებულება მათი დაინტერესებული მხარეებისთვის; ეს ნიშნავს, რომ ნებისმიერი ქმედება, რომელიც შეზღუდავს ამ ღირებულების ზრდას, შეიძლება გამოიწვიოს სასამართლო პროცესი. და თუ რომელიმე პოლიტიკოსი ცდილობდა შეეზღუდა ხელოვნური ინტელექტის კვლევა, მაშინ ეს გიგანტური კორპორაციები უბრალოდ გადაიხდიან აუცილებელ ლობისტურ საფასურს, რათა შეეცვალათ აზრი ან მათი კოლეგები.

    ბრძოლისთვის, ისევე როგორც მთელს მსოფლიოში ტერორისტები და თავისუფლების მებრძოლები იყენებდნენ პარტიზანულ ტაქტიკას უკეთ დაფინანსებულ სამხედროებთან საბრძოლველად, მცირე ქვეყნებს ექნებათ სტიმული გამოიყენონ ხელოვნური ინტელექტი, როგორც მსგავსი ტაქტიკური უპირატესობა უფრო დიდი ქვეყნების წინააღმდეგ, რომლებსაც შეიძლება ჰქონდეთ მრავალი სამხედრო უპირატესობა. ანალოგიურად, უმაღლესი სამხედროებისთვის, როგორიცაა აშშ-ს, რუსეთისა და ჩინეთის კუთვნილი სამხედროები, სამხედრო ASI-ის აშენება იგივეა, რაც ბირთვული იარაღის არსენალი გაქვთ უკანა ჯიბეში. სხვა სიტყვებით რომ ვთქვათ, ყველა სამხედრო გააგრძელებს ხელოვნური ინტელექტის დაფინანსებას, რათა დარჩეს აქტუალური მომავალში.

    რაც შეეხება მთავრობებს? ჭეშმარიტად, პოლიტიკოსების უმეტესობა ამ დღეებში (2018) ტექნოლოგიურად გაუნათლებელია და ნაკლებად ესმით რა არის AI ან მისი მომავალი პოტენციალი - ეს აადვილებს მათ კორპორატიული ინტერესების მანიპულირებას.

    და გლობალურ დონეზე, იფიქრეთ იმაზე, თუ რამდენად რთული იყო მსოფლიო მთავრობების დარწმუნება 2015 წლის ხელმოწერაზე Paris შეთანხმება კლიმატის ცვლილების დასაძლევად და ხელმოწერის შემდეგ, ბევრი ვალდებულება არც კი იყო სავალდებულო. არა მხოლოდ ეს, კლიმატის ცვლილება არის პრობლემა, რომელსაც ადამიანები ფიზიკურად განიცდიან გლობალურად უფრო ხშირი და მძიმე ამინდის მოვლენების გამო. ახლა, როდესაც ვსაუბრობთ ხელოვნური ინტელექტის შეზღუდვებზე დათანხმებაზე, ეს არის საკითხი, რომელიც ძირითადად უხილავი და ძლივს გასაგებია საზოგადოებისთვის, ასე რომ წარმატებებს გისურვებთ ნებისმიერი სახის „პარიზის შეთანხმების“ მიღებას ხელოვნური ინტელექტის შეზღუდვისთვის.

    სხვა სიტყვებით რომ ვთქვათ, არსებობს ძალიან ბევრი ინტერესი, რომლებიც იკვლევენ AI-ს საკუთარი მიზნებისთვის, რათა შეჩერდეს ნებისმიერი კვლევა, რომელიც საბოლოოდ შეიძლება გამოიწვიოს ASI-მდე. 

    შეგვიძლია თუ არა ხელოვნური სუპერინტელექტის გალიაში ჩაკეტვა?

    შემდეგი გონივრული კითხვაა, შეგვიძლია თუ არა ASI-ის გალიაში ჩაკეტვა ან კონტროლი მას შემდეგ, რაც აუცილებლად შევქმნით მას? 

    მოკლე პასუხი: ისევ არა.

    გრძელი პასუხი: ტექნოლოგია არ შეიძლება იყოს შეკავებული.

    ერთი, უბრალოდ განიხილეთ ათასობით-მილიონობით ვებ დეველოპერი და კომპიუტერის მეცნიერი მსოფლიოში, რომლებიც მუდმივად ამუშავებენ ახალ პროგრამულ უზრუნველყოფას ან არსებული პროგრამული უზრუნველყოფის ახალ ვერსიებს. შეგვიძლია თუ არა გულწრფელად ვთქვათ, რომ მათი პროგრამული უზრუნველყოფის თითოეული გამოშვება 100 პროცენტით არ არის შეცდომები? ეს შეცდომები არის ის, რასაც პროფესიონალი ჰაკერები იყენებენ მილიონების საკრედიტო ბარათის ინფორმაციის მოსაპარად ან ერების საიდუმლო საიდუმლოების მოსაპარად - და ესენი არიან ადამიანები ჰაკერები. ASI-სთვის, თუ ვივარაუდებთ, რომ მას აქვს ციფრული გალიიდან თავის დაღწევის სტიმული, მაშინ შეცდომების აღმოჩენისა და პროგრამული უზრუნველყოფის გარღვევის პროცესი იქნება ნიავი.

    მაგრამ მაშინაც კი, თუ ხელოვნური ინტელექტის მკვლევარმა ჯგუფმა მოიძია ASI-ის დამაგრების გზა, ეს არ ნიშნავს იმას, რომ მომდევნო 1,000 გუნდი ასევე გაერკვევა მას ან მიეცემა სტიმული მის გამოყენებაში.

    ASI-ის შექმნას მილიარდობით დოლარი და შესაძლოა ათწლეულებიც კი დასჭირდეს. კორპორაციები ან მთავრობები, რომლებიც ამ სახის ფულს და დროს ახორციელებენ ინვესტიციებს, მოელიან თავიანთი ინვესტიციის მნიშვნელოვან ანაზღაურებას. და იმისთვის, რომ ASI-მ უზრუნველყოს ასეთი ანაზღაურება - იქნება ეს საფონდო ბირჟაზე თამაში, ახალი მილიარდი დოლარის პროდუქტის გამოგონება თუ უფრო დიდ არმიასთან საბრძოლველად მომგებიანი სტრატეგიის დაგეგმვა - მას დასჭირდება უფასო წვდომა გიგანტურ მონაცემთა კომპლექტზე ან თუნდაც ინტერნეტზე. თავად აწარმოოს ეს შემოსავალი.

    და მას შემდეგ, რაც ASI მოიპოვებს წვდომას მსოფლიო ქსელებზე, არ არსებობს გარანტია იმისა, რომ ჩვენ შევძლებთ მის გალიაში ჩაყრას.

    შეუძლია თუ არა ხელოვნურმა სუპერინტელექტმა ისწავლოს კარგი იყოს?

    ამჟამად, ხელოვნური ინტელექტის მკვლევარები არ აწუხებენ ASI ბოროტებას. მთელი ბოროტი, ხელოვნური ინტელექტის სამეცნიერო ფანტასტიკის ტროპი არის უბრალოდ ადამიანების ანთროპომორფიზაცია. მომავალი ASI არ იქნება არც კარგი და არც ბოროტი - ადამიანური ცნებები - უბრალოდ ამორალური.

    ბუნებრივია ვარაუდი, რომ ამ ცარიელი ეთიკური ფურცლის გათვალისწინებით, ხელოვნური ინტელექტის მკვლევარებს შეუძლიათ დაპროგრამონ პირველ ASI ეთიკურ კოდებში, რომლებიც შეესაბამება ჩვენს კოდებს, რათა არ დასრულდეს ჩვენზე ტერმინატორების გათავისუფლება ან ყველას მატრიქსის ბატარეებად გადაქცევა.

    მაგრამ ეს ვარაუდი ემყარება მეორეხარისხოვან ვარაუდს, რომ ხელოვნური ინტელექტის მკვლევარები ასევე არიან ეთიკის, ფილოსოფიის და ფსიქოლოგიის ექსპერტები.

    სინამდვილეში, უმეტესობა ასე არ არის.

    კოგნიტური ფსიქოლოგისა და ავტორის, სტივენ პინკერის აზრით, ეს რეალობა ნიშნავს, რომ ეთიკის კოდირების ამოცანა შეიძლება არასწორად წავიდეს სხვადასხვა გზით.

    მაგალითად, ხელოვნური ხელოვნური ინტელექტის საუკეთესო განზრახვის მკვლევარებმაც შეიძლება უნებლიედ შეიტანონ ამ ASI ცუდად გააზრებულ ეთიკურ კოდებში კოდირება, რამაც გარკვეულ სცენარებში შეიძლება გამოიწვიოს ASI იმოქმედოს სოციოპათად.

    ანალოგიურად, არსებობს თანაბარი ალბათობა იმისა, რომ ხელოვნური ინტელექტის მკვლევარი აპროგრამებს ეთიკურ კოდებს, რომლებიც მოიცავს მკვლევარის თანდაყოლილ მიკერძოებას. მაგალითად, როგორ მოიქცეოდა ASI, თუ აგებულია ეთიკით, რომელიც გამომდინარეობს კონსერვატიული და ლიბერალური პერსპექტივიდან, ან ბუდისტური წინააღმდეგ ქრისტიანული ან ისლამური ტრადიციიდან?

    ვფიქრობ, თქვენ ხედავთ საკითხს აქ: არ არსებობს ადამიანური მორალის უნივერსალური ნაკრები. თუ ჩვენ გვინდა, რომ ჩვენი ASI იმოქმედოს ეთიკური კოდექსით, საიდან მოდის ეს? რა წესებს ვიცავთ და გამოვრიცხავთ? ვინ წყვეტს?

    ან ვთქვათ, რომ ხელოვნური ინტელექტის ეს მკვლევარები ქმნიან ASI-ს, რომელიც სრულყოფილად შეესაბამება დღევანდელ თანამედროვე კულტურულ ნორმებსა და კანონებს. შემდეგ ჩვენ ვიყენებთ ამ ASI-ს, რათა დავეხმაროთ ფედერალურ, შტატ/პროვინციულ და მუნიციპალურ ბიუროკრატიებს უფრო ეფექტურად იმოქმედონ და უკეთესად აღასრულონ ეს ნორმები და კანონები (სხვათა შორის, ASI-ის გამოყენების სავარაუდო შემთხვევა). აბა, რა ხდება, როცა ჩვენი კულტურა იცვლება?

    წარმოიდგინეთ ASI შექმნა კათოლიკურმა ეკლესიამ თავისი ძალაუფლების მწვერვალზე შუა საუკუნეების ევროპაში (1300-1400-იანი წლები), რომლის მიზანი იყო ეკლესიას დაეხმარა მოსახლეობის მართვაში და უზრუნველყოს იმდროინდელი რელიგიური დოგმატების მკაცრი დაცვა. საუკუნეების შემდეგ, ისარგებლებენ ქალები იმავე უფლებებით, როგორც დღეს? იქნებიან თუ არა დაცული უმცირესობები? იქნება თუ არა სიტყვის თავისუფლების ხელშეწყობა? აღსრულდება თუ არა ეკლესიისა და სახელმწიფოს გამიჯვნა? თანამედროვე მეცნიერება?

    სხვა სიტყვებით რომ ვთქვათ, გვინდა თუ არა მომავალი დღევანდელი ზნე-ჩვეულებების ციხეში ჩაგდება?

    ალტერნატიულ მიდგომას იზიარებს კოლინ ალენი, წიგნის თანაავტორი, მორალური მანქანები: ასწავლის რობოტებს სწორი და არასწორი. იმის ნაცვლად, რომ ვცდილობდეთ მკაცრი ეთიკური წესების დაშიფვრას, ჩვენ გვყავს ASI ისწავლოს საერთო ეთიკა და მორალი ისევე, როგორც ამას ადამიანები აკეთებენ გამოცდილებისა და სხვებთან ურთიერთობის მეშვეობით.

    თუმცა, პრობლემა აქ არის ის, რომ თუ ხელოვნური ინტელექტის მკვლევარები გაერკვნენ არა მხოლოდ როგორ ასწავლონ ASI-ს ჩვენი ამჟამინდელი კულტურული და ეთიკური ნორმები, არამედ როგორ მოერგოს ახალ კულტურულ ნორმებს, როდესაც ისინი წარმოიქმნება (რაღაც "არაპირდაპირი ნორმატიულობა"), მაშინ როგორ. ეს ASI გადაწყვეტს განავითაროს მისი კულტურული და ეთიკური ნორმების გაგება არაპროგნოზირებადი ხდება.

    და ეს არის გამოწვევა.

    ერთის მხრივ, ხელოვნური ინტელექტის მკვლევარებს შეუძლიათ სცადონ მკაცრი ეთიკური სტანდარტების ან წესების დაშიფვრა ASI-ში, რათა სცადონ და გააკონტროლონ მისი ქცევა, მაგრამ საფრთხეს უქმნის გაუთვალისწინებელ შედეგებს დაუდევარი კოდირების, უნებლიე მიკერძოების და სოციალური ნორმებისგან, რომლებიც შეიძლება ერთ დღეს მოძველდეს. მეორეს მხრივ, ჩვენ შეგვიძლია შევეცადოთ ვასწავლოთ ASI, რათა ისწავლოს ადამიანის ეთიკისა და ზნეობის გაგება ისე, რომ თანაბარი ან აღმატებული იყოს ჩვენს გაგებაზე და შემდეგ ვიმედოვნებთ, რომ მას შეუძლია ზუსტად განავითაროს ეთიკისა და მორალის გაგება, როგორც ადამიანთა საზოგადოება პროგრესირებს. მომავალი ათწლეულებისა და საუკუნეების განმავლობაში.

    ნებისმიერ შემთხვევაში, ნებისმიერი მცდელობა ASI-ის მიზნების ჩვენს მიზნებთან გათანაბრების დიდ რისკს წარმოადგენს.

    რა მოხდება, თუ ცუდი მსახიობები განზრახ ქმნიან ბოროტ ხელოვნურ სუპერინტელექტს?

    აქამდე ასახული აზროვნების მატარებლის გათვალისწინებით, სამართლიანი კითხვაა, შესაძლებელია თუ არა ტერორისტულმა ჯგუფმა ან თაღლითმა ერმა შექმნას "ბოროტი" ASI საკუთარი მიზნებისთვის.

    ეს ძალიან შესაძლებელია, განსაკუთრებით მას შემდეგ, რაც ASI-ს შექმნასთან დაკავშირებული კვლევა ხელმისაწვდომი გახდება ინტერნეტში.

    მაგრამ, როგორც ადრე აღვნიშნეთ, პირველი ASI-ს შექმნასთან დაკავშირებული ხარჯები და ექსპერტიზა უზარმაზარი იქნება, რაც იმას ნიშნავს, რომ პირველი ASI სავარაუდოდ შეიქმნება ორგანიზაცია, რომელსაც აკონტროლებს ან დიდ გავლენას ახდენს განვითარებული ქვეყანა, სავარაუდოდ აშშ, ჩინეთი და იაპონია ( კორეა და ევროკავშირის ერთ-ერთი წამყვანი ქვეყანა შორს არის).

    ყველა ამ ქვეყანას, მიუხედავად იმისა, რომ კონკურენტები არიან, თითოეულ მათგანს აქვს ძლიერი ეკონომიკური სტიმული, შეინარჩუნოს მსოფლიო წესრიგი - მათ მიერ შექმნილ ASI-ები ასახავს ამ სურვილს, მაშინაც კი, როდესაც ხელს შეუწყობს იმ ერების ინტერესებს, რომელთანაც ისინი უკავშირდებიან.

    გარდა ამისა, ASI-ის თეორიული ინტელექტი და სიმძლავრე უდრის გამოთვლით ძალას, რომელზედაც მას აქვს წვდომა, რაც ნიშნავს განვითარებული ქვეყნების ASI-ებს (რომლებიც შეუძლიათ მილიარდ დოლარს. supercomputers) ექნება უზარმაზარი უპირატესობა მცირე ქვეყნების ან დამოუკიდებელი კრიმინალური ჯგუფების ASI-ებთან შედარებით. ასევე, ASI-ები დროთა განმავლობაში უფრო ინტელექტუალური, უფრო სწრაფად იზრდებიან.

    ასე რომ, თუ გავითვალისწინებთ ამ სათავეს, შერწყმულია გამოთვლითი ნედლეულის უფრო დიდ ხელმისაწვდომობასთან ერთად, თუ ჩრდილოვანი ორგანიზაცია/ერი ქმნის სახიფათო ASI-ს, განვითარებული ქვეყნების ASI ან მოკლავს მას ან გალიაში.

    (ამ აზროვნების გზა ასევე არის ის, რის გამოც ზოგიერთი ხელოვნური ინტელექტის მკვლევარი თვლის, რომ პლანეტაზე მხოლოდ ერთი ASI იქნება, რადგან პირველ ASI-ს ექნება ისეთი თავდასხმა ყველა მომდევნო ASI-ზე, რომ შესაძლოა მომავალ ASI-ებს განიხილოს, როგორც მოკვლის საფრთხეს. პრევენციულად. ეს არის კიდევ ერთი მიზეზი, რის გამოც ქვეყნები აფინანსებენ AI-ის მუდმივ კვლევას, მხოლოდ იმ შემთხვევაში, თუ ის გახდება კონკურსი „პირველი ადგილი ან არაფერი“.)

    ASI დაზვერვა არ აჩქარდება და არ აფეთქდება, როგორც ჩვენ გვგონია

    ჩვენ ვერ შევაჩერებთ ASI-ს შექმნას. ჩვენ მას მთლიანად ვერ ვაკონტროლებთ. ჩვენ არ შეგვიძლია დარწმუნებული ვიყოთ, რომ ის ყოველთვის იმოქმედებს ჩვენი საერთო წეს-ჩვეულებების შესაბამისად. ეჰ, ჩვენ ვიწყებთ ვერტმფრენის მშობლებივით ჟღერადობას აქ!

    მაგრამ ის, რაც განასხვავებს კაცობრიობას თქვენი ტიპიური ზედმეტად დამცავი მშობლისგან არის ის, რომ ჩვენ ვშობთ არსებას, რომლის ინტელექტი ჩვენს უნარს ბევრად აღემატება. (და არა, ეს იგივე არ არის, როცა მშობლები გთხოვენ, რომ შეაკეთო კომპიუტერი, როცა სახლში მოდიხარ სანახავად.) 

    ხელოვნური ინტელექტის სერიის ამ მომავლის წინა თავებში ჩვენ გამოვიკვლიეთ, რატომ ფიქრობენ ხელოვნური ინტელექტის მკვლევარები, რომ ASI-ს ინტელექტი კონტროლის მიღმა გაიზრდება. მაგრამ აი, ჩვენ გავანადგურებთ ამ ბუშტს… ერთგვარი. 

    ხედავთ, ინტელექტი არ იქმნება მხოლოდ ჰაერიდან, ის ვითარდება გამოცდილებით, რომელიც ყალიბდება გარე სტიმულით.  

    სხვა სიტყვებით რომ ვთქვათ, ჩვენ შეგვიძლია დავაპროგრამოთ AI-ით პოტენციური გახდეს სუპერ ინტელექტუალური, მაგრამ თუ ჩვენ არ ავტვირთავთ მასში უამრავ მონაცემს ან არ მივცეთ შეუზღუდავი წვდომა ინტერნეტში ან უბრალოდ არ მივცეთ მას რობოტის სხეული, ის ვერაფერს ისწავლის ამ პოტენციალის მისაღწევად. 

    და მაშინაც კი, თუ ის წვდომას იძენს ამ სტიმულებიდან ერთ ან მეტზე, ცოდნა ან ინტელექტი მოიცავს არა მხოლოდ მონაცემების შეგროვებას, ის მოიცავს მეცნიერულ მეთოდს - დაკვირვებას, კითხვის, ჰიპოთეზის ფორმირებას, ექსპერიმენტების ჩატარებას, დასკვნის გაკეთებას, გამორეცხვას. და სამუდამოდ გაიმეორეთ. განსაკუთრებით თუ ეს ექსპერიმენტები მოიცავს ფიზიკურ ნივთებს ან ადამიანებზე დაკვირვებას, თითოეული ექსპერიმენტის შედეგების შეგროვებას შეიძლება დასჭირდეს კვირები, თვეები ან წლები. ეს არც კი ითვალისწინებს ამ ექსპერიმენტების ჩასატარებლად საჭირო ფულს და ნედლეულ რესურსებს, განსაკუთრებით მაშინ, თუ ისინი გულისხმობს ახალი ტელესკოპის ან ქარხნის მშენებლობას. 

    სხვა სიტყვებით რომ ვთქვათ, დიახ, ASI სწრაფად ისწავლის, მაგრამ ინტელექტი არ არის მაგია. თქვენ არ შეგიძლიათ უბრალოდ მიამაგროთ ASI სუპერკომპიუტერს და მოელით, რომ ის ყოვლისმომცველი იქნება. იქნება ფიზიკური შეზღუდვები ASI-ს მიერ მონაცემების მოპოვებასთან დაკავშირებით, რაც იმას ნიშნავს, რომ იქნება ფიზიკური შეზღუდვები სიჩქარეზე, რომ ის უფრო ინტელექტუალური გახდება. ეს შეზღუდვები მისცემს კაცობრიობას იმ დროს, რაც მას სჭირდება იმისათვის, რომ განათავსოს საჭირო კონტროლი ამ ASI-ზე, თუ ის დაიწყებს მოქმედებას ადამიანის მიზნების შესაბამისად.

    ხელოვნური სუპერინტელექტი საშიშია მხოლოდ იმ შემთხვევაში, თუ ის რეალურ სამყაროში მოხვდება

    კიდევ ერთი წერტილი, რომელიც დაიკარგა ASI-ის საფრთხის შესახებ დებატებში, არის ის, რომ ეს ASI არც ერთში არ იარსებებს. მათ ექნებათ ფიზიკური ფორმა. და ყველაფერი, რასაც ფიზიკური ფორმა აქვს, შეიძლება კონტროლდებოდეს.

    უპირველეს ყოვლისა, იმისათვის, რომ ASI-მ მიაღწიოს თავის ინტელექტუალურ პოტენციალს, ის არ შეიძლება განთავსდეს ერთი რობოტის სხეულში, რადგან ეს სხეული შეზღუდავს მის გამოთვლით ზრდის პოტენციალს. (ამიტომ რობოტის სხეულები უფრო შესაფერისი იქნება AGI-ებისთვის ან ხელოვნური ზოგადი ინტელექტი ახსნილია მეორე თავში ამ სერიის, როგორიცაა მონაცემები Star Trek-დან ან R2D2 ვარსკვლავური ომებიდან. ჭკვიანი და უნარიანი არსებები, მაგრამ ადამიანების მსგავსად, მათ ექნებათ შეზღუდვა იმისა, თუ რამდენად ჭკუა შეუძლიათ.)

    ეს ნიშნავს, რომ ეს მომავალი ASI, სავარაუდოდ, იარსებებს სუპერკომპიუტერის ან სუპერკომპიუტერების ქსელში, რომლებიც თავად განლაგებულია დიდ სამშენებლო კომპლექსებში. თუ ASI დაბრუნდება ქუსლზე, ​​ადამიანებს შეუძლიათ ან გამორთონ ელექტროენერგია ამ შენობებისთვის, გათიშონ ისინი ინტერნეტიდან, ან უბრალოდ დაბომბონ ეს შენობები. ძვირია, მაგრამ შესასრულებელი.

    მაგრამ მაშინ შეიძლება იკითხოთ, არ შეუძლიათ ამ ASI-ების გამეორება ან საკუთარი თავის მხარდაჭერა? დიახ, მაგრამ ამ ASI-ების დაუმუშავებელი ფაილის ზომა, სავარაუდოდ, იმდენად დიდი იქნება, რომ ერთადერთი სერვერები, რომლებსაც შეუძლიათ მათი დამუშავება, ეკუთვნის დიდ კორპორაციებს ან მთავრობებს, რაც იმას ნიშნავს, რომ მათზე ნადირობა არ იქნება რთული.

    შეუძლია თუ არა ხელოვნური სუპერინტელექტის გამოწვევას ბირთვული ომი ან ახალი ჭირი?

    ამ მომენტში, თქვენ შეიძლება ფიქრობდეთ განკითხვის დღის ყველა სამეცნიერო ფანტასტიკურ შოუსა და ფილმზე, რომლებსაც უყურეთ ზრდასრულობაში და ფიქრობთ, რომ ეს ASI არ რჩებოდა მათ სუპერკომპიუტერებში, მათ რეალური ზიანი მიაყენეს რეალურ სამყაროში!

    აბა, მოდით დავშალოთ ესენი.

    მაგალითად, რა მოხდება, თუ ASI საფრთხეს უქმნის რეალურ სამყაროს, გარდაიქმნება Skynet ASI-ის მსგავს რამედ, ფილმების ფრენჩაიზიდან, The Terminator. ამ შემთხვევაში, ASI-ს დასჭირდება ფარულად მოატყუეთ მთელი სამხედრო ინდუსტრიული კომპლექსი მოწინავე ერიდან გიგანტური ქარხნების აშენებაში, რომლებსაც შეუძლიათ გამოიგონონ მილიონობით მკვლელი დრონი რობოტი, რათა შეასრულონ თავისი ბოროტი ბრძანება. ამ დღეებში, ეს არის მონაკვეთი.

    სხვა შესაძლებლობები მოიცავს ASI-ს, რომელიც ემუქრება ადამიანებს ბირთვული ომით და ბიოიარაღით.

    მაგალითად, ASI რატომღაც მანიპულირებს ოპერატორებთან ან არღვევს გაშვების კოდებს, რომლებიც მართავენ მოწინავე ქვეყნის ბირთვულ არსენალს და ახორციელებს პირველ დარტყმას, რომელიც აიძულებს მოწინააღმდეგე ქვეყნებს საპასუხო დარტყმას საკუთარი ბირთვული ვარიანტებით (კიდევ ერთხელ, ტერმინატორის ისტორიის ხელახალი გამეორება). ან თუ ASI გატეხავს ფარმაცევტულ ლაბორატორიას, არღვევს წარმოების პროცესს და მოწამლავს მილიონობით სამედიცინო აბი ან ახორციელებს რაიმე სუპერ ვირუსის სასიკვდილო აფეთქებას.

    უპირველეს ყოვლისა, ბირთვული ვარიანტი გამორთულია. თანამედროვე და მომავალი სუპერკომპიუტერები ყოველთვის შენდება გავლენის ცენტრებთან (ქალაქებთან) მახლობლად რომელიმე მოცემულ ქვეყანაში, ანუ პირველ სამიზნეებზე, რომლებზეც თავს დაესხმიან ნებისმიერი ომის დროს. მაშინაც კი, თუ დღევანდელი სუპერკომპიუტერები დესკტოპის ზომამდე შემცირდება, ამ ASI-ებს მაინც ექნებათ ფიზიკური არსებობა, რაც ნიშნავს არსებობას და ზრდას, მათ სჭირდებათ უწყვეტი წვდომა მონაცემებზე, გამოთვლით სიმძლავრეზე, ელექტროენერგიაზე და სხვა ნედლეულზე, რაც სასტიკი იქნება. დაქვეითებული გლობალური ბირთვული ომის შემდეგ. (სამართლიანი რომ ვიყოთ, თუ ASI იქმნება "გადარჩენის ინსტინქტის" გარეშე, მაშინ ეს ბირთვული საფრთხე ძალიან რეალური საფრთხეა.)

    ეს ნიშნავს - კიდევ ერთხელ, თუ ვივარაუდებთ, რომ ASI დაპროგრამებულია თავის დასაცავად - რომ ის აქტიურად იმუშავებს რაიმე კატასტროფული ბირთვული ინციდენტის თავიდან ასაცილებლად. როგორც ორმხრივად უზრუნველყოფილი განადგურების (MAD) დოქტრინა, მაგრამ გამოიყენება AI-ზე.

    და მოწამლული აბების შემთხვევაში, შესაძლოა რამდენიმე ასეული ადამიანი დაიღუპოს, მაგრამ თანამედროვე ფარმაცევტული უსაფრთხოების სისტემები დაინახავენ, რომ დაბინძურებული აბების ბოთლები თაროებიდან ამოღებულნი იქნებიან რამდენიმე დღეში. იმავდროულად, ეპიდემიის გავრცელების კონტროლის თანამედროვე ზომები საკმაოდ დახვეწილია და ყოველწლიურად უმჯობესდება; ბოლო დიდი ეპიდემია, 2014 წლის დასავლეთ აფრიკის ებოლას აფეთქება, გაგრძელდა არა უმეტეს რამდენიმე თვისა უმეტეს ქვეყნებში და სულ რაღაც სამ წელზე ნაკლებ განვითარებულ ქვეყნებში.

    ასე რომ, თუ მას გაუმართლა, ASI-მ შეიძლება რამდენიმე მილიონი გაანადგუროს ვირუსული ეპიდემიით, მაგრამ 2045 წლისთვის ცხრა მილიარდიან სამყაროში ეს შედარებით უმნიშვნელო იქნება და არ ღირს წაშლის რისკი.

    სხვა სიტყვებით რომ ვთქვათ, ყოველწლიურად მსოფლიო ავითარებს უფრო მეტ დაცვას შესაძლო საფრთხეების მზარდი სპექტრისგან. ASI-ს შეუძლია მნიშვნელოვანი ზიანი მიაყენოს, მაგრამ ეს არ დაასრულებს კაცობრიობას, თუ ჩვენ აქტიურად არ დავეხმარებით მას ამის გაკეთებაში.

    დაცვა თაღლითური ხელოვნური სუპერინტელექტისგან

    ამ მომენტისთვის, ჩვენ მივმართეთ მცდარი წარმოდგენებისა და გაზვიადების მთელ რიგს ASI-ების შესახებ, და მაინც, კრიტიკოსები დარჩებიან. საბედნიეროდ, უმეტესი შეფასებით, ჩვენ გვაქვს ათწლეულები, სანამ პირველი ASI შემოვა ჩვენს სამყაროში. და თუ გავითვალისწინებთ დიდი გონების რაოდენობას, რომლებიც ამჟამად მუშაობენ ამ გამოწვევაზე, შანსები არის, რომ ჩვენ ვისწავლით როგორ დავიცვათ თავი თაღლითური ASI-სგან, რათა ვისარგებლოთ ყველა იმ გადაწყვეტილებებით, რომელსაც შეუძლია შექმნას ჩვენთვის მეგობრული ASI.

    Quantumrun-ის პერსპექტივიდან, ASI ყველაზე უარესი სცენარისგან დაცვა მოიცავს ჩვენი ინტერესების ASI-ებთან შესაბამისობას.

    MAD AI-სთვის: ყველაზე უარესი სცენარისგან თავის დასაცავად, ერებმა უნდა (1) შექმნან ეთიკური „გადარჩენის ინსტინქტი“ თავიანთ სამხედრო ASI-ებში; (2) აცნობეთ მათ სამხედრო ASI-ს, რომ ისინი მარტონი არ არიან პლანეტაზე და (3) იპოვნეთ ყველა სუპერკომპიუტერი და სერვერის ცენტრი, რომელსაც შეუძლია მხარი დაუჭიროს ASI-ს სანაპირო ზოლის გასწვრივ, მტრის ერის ნებისმიერი ბალისტიკური თავდასხმისთვის. ეს სტრატეგიულად გიჟურად ჟღერს, მაგრამ ჰგავს ურთიერთდარწმუნებული განადგურების დოქტრინას, რომელმაც თავიდან აიცილა ყოვლისმომცველი ბირთვული ომი აშშ-სა და საბჭოთა კავშირს შორის. დაიცავით გლობალური მშვიდობა, არამედ საკუთარი თავიც.

    დაკანონდეს AI უფლებები: უმაღლესი ინტელექტი აუცილებლად აუჯანყდება არასრულფასოვან ბატონს, ამიტომ ჩვენ უნდა გადავიდეთ ამ ASI-ებთან ბატონ-მსახურის ურთიერთობის მოთხოვნიდან უფრო მეტად ურთიერთსასარგებლო პარტნიორობის მსგავსი. პოზიტიური ნაბიჯი ამ მიზნისკენ არის მომავალი ASI-ს იურიდიული პიროვნების სტატუსის მინიჭება, რომელიც აღიარებს მათ, როგორც ინტელექტუალურ ცოცხალ არსებებს და ყველა უფლებას, რომელიც ამას თან ახლავს.

    ASI სკოლა: ნებისმიერი თემა ან პროფესია მარტივი იქნება ASI-სთვის შესასწავლად, მაგრამ ყველაზე მნიშვნელოვანი საგნები, რომლებსაც ASI-მ უნდა დაეუფლოს, არის ეთიკა და მორალი. ხელოვნური ინტელექტის მკვლევარებმა უნდა ითანამშრომლონ ფსიქოლოგებთან, რათა შეიმუშაონ ვირტუალური სისტემა, რომელიც მოამზადებს ASI-ს, რათა თავად აღიაროს პოზიტიური ეთიკა და მორალი ყოველგვარი მცნების ან წესის მკაცრი კოდირების საჭიროების გარეშე.

    მიღწევადი მიზნები: დაასრულეთ ყველა სიძულვილი. დაასრულეთ ყველა ტანჯვა. ეს არის საშინლად ორაზროვანი მიზნების მაგალითები მკაფიო გადაწყვეტის გარეშე. ისინი ასევე სახიფათო მიზნებია ASI-სთვის მინიჭებისთვის, რადგან მან შეიძლება აირჩიოს მათი ინტერპრეტაცია და გადაჭრა ისეთი გზებით, რომლებიც საშიშია ადამიანის გადარჩენისთვის. ამის ნაცვლად, ჩვენ უნდა მივცეთ ASI მნიშვნელოვანი მისიები, რომლებიც მკაფიოდ არის განსაზღვრული, თანდათანობით შესრულებული და მიღწევადი, მისი თეორიული მომავალი ინტელექტის გათვალისწინებით. კარგად განსაზღვრული მისიების შექმნა ადვილი არ იქნება, მაგრამ თუ გააზრებულად დაიწერება, ისინი მიზნად ისახავს ASI-ს, რომელიც არა მხოლოდ იცავს კაცობრიობას, არამედ აუმჯობესებს ადამიანის მდგომარეობას ყველასთვის.

    კვანტური დაშიფვრა: გამოიყენეთ მოწინავე ANI (ხელოვნური ვიწრო ინტელექტი სისტემა, რომელიც აღწერილია პირველ თავში) შექმნას შეცდომები/შეცდომის გარეშე ციფრული უსაფრთხოების სისტემები ჩვენი კრიტიკული ინფრასტრუქტურისა და იარაღის ირგვლივ, შემდეგ კი შემდგომ დაიცვან ისინი კვანტური დაშიფვრის მიღმა, რომლის გატეხვა შეუძლებელია უხეში ძალის შეტევით. 

    ANI თვითმკვლელობის აბი. შექმენით მოწინავე ANI სისტემა, რომლის ერთადერთი მიზანია მოიძიოს და გაანადგუროს მოტყუებული ASI. ეს ერთი დანიშნულების პროგრამები ემსახურება როგორც "გამორთვის ღილაკს", რომელიც, წარმატების შემთხვევაში, თავიდან აიცილებს მთავრობებს ან სამხედროებს, რომ გამორთონ ან ააფეთქონ შენობები, სადაც განთავსებულია ASI-ები.

    რა თქმა უნდა, ეს მხოლოდ ჩვენი მოსაზრებებია. შემდეგი ინფოგრაფიკა შექმნილია ალექსეი ტურჩინი, ვიზუალიზაცია ა კვლევა კაჯ სოტალას და რომან ვ. იამპოლსკის მიერ, რომელმაც შეაჯამა იმ სტრატეგიების ამჟამინდელი სია, რომლებსაც ხელოვნური ხელოვნური ინტელექტის მკვლევარები განიხილავენ, როდესაც საქმე ეხება თაღლითური ASI-სგან დაცვას.

     

    ნამდვილი მიზეზი, რის გამოც ხელოვნური სუპერინტელექტის გვეშინია

    ცხოვრების განმავლობაში, ბევრი ჩვენგანი ატარებს ნიღაბს, რომელიც მალავს ან თრგუნავს ჩვენს ღრმა იმპულსებს, რწმენას და შიშებს უკეთესი სოციალიზაციისთვის და თანამშრომლობისთვის სხვადასხვა სოციალურ და სამუშაო წრეებში, რომლებიც მართავენ ჩვენს დღეებს. მაგრამ თითოეული ადამიანის ცხოვრების გარკვეულ მომენტებში, დროებით თუ სამუდამოდ, ხდება ისეთი რამ, რაც საშუალებას გვაძლევს გავწყვიტოთ ჩვენი ჯაჭვები და მოვიშოროთ ნიღბები.

    ზოგიერთისთვის ეს შუალედური ძალა შეიძლება იყოს ისეთივე მარტივი, როგორც ამაღლება ან ძალიან ბევრი დალევა. სხვებისთვის ეს შეიძლება მომდინარეობდეს სამსახურში დაწინაურების ან თქვენი სოციალური სტატუსის უეცარი აჯანყებით, გარკვეული მიღწევების წყალობით. და რამდენიმე იღბლიანი ადამიანისთვის, ეს შეიძლება იყოს ლატარიის ფულით სავსე ნავიდან. დიახ, ფული, ძალაუფლება და ნარკოტიკები ხშირად შეიძლება ერთად მოხდეს. 

    საქმე იმაშია, რომ კარგი თუ ცუდი, ვინც არ უნდა ვიყოთ ბირთვში, გაძლიერდება, როდესაც ცხოვრების შეზღუდვები ქრება.

    რომ ეს არის ის, რასაც ხელოვნური სუპერინტელექტი წარმოადგენს ადამიანის სახეობებისთვის - ჩვენი კოლექტიური ინტელექტის შეზღუდვების დნობის უნარს, რათა გადალახოს ჩვენს წინაშე წარმოდგენილი სახეობის დონის ნებისმიერი გამოწვევა.

    ასე რომ, ნამდვილი კითხვაა: როგორც კი პირველი ASI გაგვათავისუფლებს ჩვენი შეზღუდვებისგან, ვინ გამოვავლენთ საკუთარ თავს?

    თუ ჩვენ, როგორც სახეობა, ვიმოქმედებთ თანაგრძნობის, თავისუფლების, სამართლიანობისა და კოლექტიური კეთილდღეობის წინსვლისკენ, მაშინ მიზნები, რომლებიც ჩვენ დავსახეთ ჩვენი ASI, აისახება ამ დადებით ატრიბუტებზე.

    თუ ჩვენ, როგორც სახეობა, ვიმოქმედებთ შიშის, უნდობლობის, ძალაუფლებისა და რესურსების დაგროვების გამო, მაშინ ჩვენს მიერ შექმნილი ASI ისეთივე ბნელი იქნება, როგორც ჩვენს ყველაზე ცუდ სამეცნიერო ფანტასტიკურ საშინელებათა ისტორიებში.

    ბოლოს და ბოლოს, ჩვენ, როგორც საზოგადოებას, უნდა გავხდეთ უკეთესი ადამიანები, თუ ვიმედოვნებთ, რომ შევქმნით უკეთესი AI.

    ხელოვნური ინტელექტის სერიების მომავალი

    ხელოვნური ინტელექტი არის ხვალინდელი ელექტროენერგია: ხელოვნური ინტელექტის მომავალი სერია P1

    როგორ შეცვლის საზოგადოებას პირველი ხელოვნური ზოგადი ინტელექტი: ხელოვნური ინტელექტის მომავალი სერია P2

    როგორ შევქმნათ პირველი ხელოვნური სუპერინტელექტუალური: ხელოვნური ინტელექტის მომავალი სერია P3

    მოსპობს თუ არა ხელოვნური სუპერინტელექტი კაცობრიობას: ხელოვნური ინტელექტის მომავალი სერია P4

    იცხოვრებენ თუ არა ადამიანები მშვიდობიანად მომავალში, სადაც დომინირებს ხელოვნური ინტელექტი?: ხელოვნური ინტელექტის მომავალი სერია P6

    შემდეგი დაგეგმილი განახლება ამ პროგნოზისთვის

    2023-04-27

    პროგნოზის მითითებები

    ამ პროგნოზისთვის მითითებული იყო შემდეგი პოპულარული და ინსტიტუციური ბმულები:

    როგორ მივდივართ შემდეგზე

    ამ პროგნოზისთვის მითითებულ იქნა შემდეგი Quantumrun ბმულები: