გაზიარება | ბეჭდვა | ელ.ფოსტა
კოვიდამდე, საკუთარ თავს ტექნოლოგიურ ოპტიმისტად აღვწერდი. ახალი ტექნოლოგიები თითქმის ყოველთვის გაზვიადებული შიშების ფონზე ჩნდება. რკინიგზა ფსიქიკურ აშლილობებს იწვევდა, ველოსიპედებს ქალებს უნაყოფოს ან გონებას უკარგავდა, ადრეული ელექტროენერგია კი ყველაფერში ადანაშაულებდნენ, მორალური დაცემიდან ფიზიკურ კოლაფსამდე. დროთა განმავლობაში ეს შფოთვები გაქრა, საზოგადოებები ადაპტირდნენ და ცხოვრების დონე აიწია. ეს სქემა იმდენად ნაცნობი იყო, რომ ხელოვნური ინტელექტი, როგორც ჩანს, მასაც მიჰყვებოდა: დესტრუქციული, ზოგჯერ არასწორად გამოყენებული, მაგრამ საბოლოოდ მართვადი.
კოვიდ წლებმა ეს ნდობა შეარყია — არა იმიტომ, რომ ტექნოლოგიები ჩავარდა, არამედ იმიტომ, რომ ინსტიტუტებმა ჩაიშალა.
მსოფლიოს უმეტეს ნაწილში მთავრობებმა და ექსპერტულმა ორგანიზაციებმა გაურკვევლობას უპრეცედენტო სოციალური და ბიოსამედიცინო ჩარევებით უპასუხეს, რომლებიც ყველაზე უარესი შემთხვევის მოდელებით იყო გამართლებული და გასაოცარი დარწმუნებით ამოქმედდა. კონკურენტი ჰიპოთეზები მარგინალიზებული იყო და არა განხილული. საგანგებო ზომები გრძელვადიან პოლიტიკაში გადაიზარდა. როდესაც მტკიცებულებები შეიცვალა, შეცდომების აღიარება იშვიათი გახდა და პასუხისმგებლობა კიდევ უფრო იშვიათი. ამ გამოცდილებამ უფრო ღრმა პრობლემა გამოავლინა, ვიდრე ნებისმიერი ცალკეული პოლიტიკური შეცდომა: თანამედროვე ინსტიტუტები, როგორც ჩანს, ცუდად არიან აღჭურვილნი გაურკვევლობის გადაჭარბების გარეშე სამართავად.
ეს გაკვეთილი ახლა დიდწილად ეკისრება ხელოვნური ინტელექტის შესახებ დებატებს.
ხელოვნური ინტელექტის რისკის გაყოფა
ზოგადად, განვითარებული ხელოვნური ინტელექტის შესახებ შეშფოთება ორ ბანაკად იყოფა. ერთი ჯგუფი, რომელიც დაკავშირებულია ისეთ მოაზროვნეებთან, როგორებიც არიან ელიეზერ იუდკოვსკი და ნეიტ სოარესი, ამტკიცებს, რომ საკმარისად განვითარებული ხელოვნური ინტელექტი თავისთავად კატასტროფულად საშიშია. მათი განზრახ მკაცრი ფორმულირებით, თუ ვინმე აშენებს, ყველა მოკვდებაპრობლემა ცუდ განზრახვაში კი არა, სტიმულშია: კონკურენცია უზრუნველყოფს, რომ ვიღაც კუთხეებს დაიცავს და როგორც კი სისტემა მნიშვნელოვან კონტროლს დაკარგავს, განზრახვებს აღარ აქვს მნიშვნელობა.
მეორე ბანაკი, რომელიც მოიცავს ისეთ ფიგურებს, როგორებიც არიან სტიუარტ რასელი, ნიკ ბოსტრომი და მაქს ტეგმარკი, ასევე სერიოზულად უყურებს ხელოვნური ინტელექტის რისკებს, თუმცა უფრო ოპტიმისტურად არის განწყობილი, რომ ჰარმონიზაცია, ფრთხილად მმართველობა და თანდათანობითი განლაგება სისტემების ადამიანის კონტროლის ქვეშ შენარჩუნებას შეძლებს.
მიუხედავად განსხვავებული შეხედულებებისა, ორივე ბანაკი ერთ დასკვნამდე თანხმდება: ხელოვნური ინტელექტის შეუზღუდავი განვითარება სახიფათოა და აუცილებელია ზედამხედველობის, კოორდინაციის ან შეზღუდვის გარკვეული ფორმა. მათი აზრთა სხვადასხვაობა მიზანშეწონილობასა და სასწრაფოობასთანაა დაკავშირებული. თუმცა, იშვიათად განიხილება ის, თავად არიან თუ არა ამ როლის შესასრულებლად შესაფერისი ინსტიტუტები, რომელთაგანაც ამ შეზღუდვის უზრუნველყოფაა მოსალოდნელი.
კოვიდი ეჭვის საფუძველს იძლევა.
კოვიდი არ იყო მხოლოდ საზოგადოებრივი ჯანდაცვის კრიზისი; ეს იყო ექსპერტთა მიერ მართული მმართველობის ცოცხალი ექსპერიმენტი გაურკვევლობის პირობებში. არასრული მონაცემების წინაშე, ხელისუფლება არაერთხელ ირჩევდა მაქსიმალურ ჩარევებს, რომლებიც გამართლებული იყო სპეკულაციური ზიანით. განსხვავებული აზრი ხშირად განიხილებოდა, როგორც მორალური წარუმატებლობა და არა როგორც სამეცნიერო აუცილებლობა. პოლიტიკა დაცული იყო არა გამჭვირვალე ხარჯთაღრიცხვის ანალიზით, არამედ ავტორიტეტზე აპელირებით და ჰიპოთეტური მომავლის შიშით.
ეს ნიმუში მნიშვნელოვანია, რადგან ის ავლენს, თუ როგორ იქცევიან თანამედროვე ინსტიტუტები, როდესაც ფსონები ეგზისტენციალურ ჩარჩოებშია წარმოდგენილი. სტიმულები გადადის გადამწყვეტობის, ნარატივის კონტროლისა და მორალური დარწმუნებულობისკენ. შეცდომების გამოსწორება რეპუტაციისთვის ძვირი ჯდება. სიფრთხილე წყვეტს ინსტრუმენტად ყოფნას და დოქტრინად იქცევა.
გაკვეთილი იმაში არ მდგომარეობს, რომ ექსპერტები უნიკალურად ნაკლოვანებებით გამოირჩევიან. საქმე იმაშია, რომ ინსტიტუტები ზედმეტ თავდაჯერებულობას გაცილებით უფრო საიმედოდ აჯილდოებენ, ვიდრე თავმდაბლობას, განსაკუთრებით მაშინ, როდესაც პოლიტიკა, დაფინანსება და საზოგადოებრივი შიში ერთმანეთს ემთხვევა. როდესაც უსაფრთხოების სახელით საგანგებო უფლებამოსილებებს იყენებენ, ისინი იშვიათად ნებდებიან.
სწორედ ეს დინამიკაა ახლა თვალსაჩინო ხელოვნური ინტელექტის ზედამხედველობის განხილვებში.
„რა მოხდებოდა, თუ“ მანქანა
სახელმწიფოს ფართომასშტაბიანი ჩარევის განმეორებადი გამართლება ჰიპოთეტური ცუდი აქტორია: რა მოხდება, თუ ამას ტერორისტი ააშენებს? რა მოხდება, თუ ამას არაკეთილსინდისიერი სახელმწიფო გააკეთებს? ამ წინაპირობიდან გამომდინარეობს არგუმენტი, რომ კატასტროფის თავიდან ასაცილებლად მთავრობებმა პრევენციულად, მასშტაბურად და ხშირად საიდუმლოდ უნდა იმოქმედონ.
კოვიდის დროს მსგავსი ლოგიკა ამართლებდა ბიოსამედიცინო კვლევების ფართომასშტაბიან დღის წესრიგს, საგანგებო ავტორიზაციას და სოციალურ კონტროლს. მსჯელობა წრიული იყო: იმიტომ, რომ რაღაც საშიში შეიძლება თუ ეს მოხდება, სახელმწიფომ ახლავე უნდა მიიღოს საგანგებო ზომები — ზომები, რომლებიც თავისთავად მნიშვნელოვან, ცუდად გააზრებულ რისკებს შეიცავს.
ხელოვნური ინტელექტის მმართველობა სულ უფრო მეტად იმავე ფორმით განიხილება. საფრთხე არა მხოლოდ იმაში მდგომარეობს, რომ ხელოვნური ინტელექტის სისტემები შეიძლება არაპროგნოზირებად იქცეოდნენ, არამედ იმაში, რომ ამ შესაძლებლობის შიში ლეგიტიმაციას გაუწევს მუდმივ საგანგებო მმართველობას - გამოთვლებზე, კვლევასა და ინფორმაციის ნაკადებზე ცენტრალიზებულ კონტროლს - იმ მოტივით, რომ ალტერნატივა არ არსებობს.
კერძო რისკი, საჯარო რისკი
ამ დებატებში ერთ-ერთი დაუფასებელი განსხვავება კერძო აქტორების მიერ გენერირებულ და სახელმწიფო ხელისუფლების მიერ გენერირებულ რისკებს შორისაა. კერძო ფირმები შეზღუდულები არიან - არასრულყოფილად, მაგრამ მნიშვნელოვნად - პასუხისმგებლობით, კონკურენციით, რეპუტაციითა და საბაზრო დისციპლინით. ეს შეზღუდვები არ გამორიცხავს ზიანს, მაგრამ ქმნის უკუკავშირის მარყუჟებს.
მთავრობები განსხვავებულად მოქმედებენ. როდესაც სახელმწიფოები კატასტროფების პრევენციის სახელით მოქმედებენ, უკუკავშირი სუსტდება. წარუმატებლობები შეიძლება გადაკვალიფიცირდეს, როგორც აუცილებლობა. ხარჯები შეიძლება ექსტერნალიზებულ იქნას. საიდუმლოება შეიძლება გამართლდეს უსაფრთხოებით. ჰიპოთეტური მომავალი ზიანი აწმყოში პოლიტიკის ბერკეტებად იქცევა.
ხელოვნური ინტელექტის რამდენიმე მოაზროვნე ირიბად აღიარებს ამას. ბოსტრომმა გააფრთხილა „ჩაკეტვის“ ეფექტების შესახებ - არა მხოლოდ ხელოვნური ინტელექტის სისტემებიდან, არამედ პანიკის მომენტებში შექმნილი მმართველობის სტრუქტურებიდანაც. ენტონი აგირეს მოწოდება გლობალური თავშეკავებისკენ, თუმცა ლოგიკურად თანმიმდევრულია, ეყრდნობა საერთაშორისო საკოორდინაციო ორგანოებს, რომელთა ბოლოდროინდელი შედეგები თავმდაბლობისა და შეცდომების გამოსწორების მხრივ ცუდია. კიდევ უფრო ზომიერი წინადადებები ვარაუდობენ, რომ მარეგულირებლები შეძლებენ წინააღმდეგობა გაუწიონ პოლიტიზაციას და მისიის ცვეთას.
კოვიდი ნაკლებად გვაძლევს საფუძველს, რომ ამ ვარაუდში დარწმუნებული ვიყოთ.
ზედამხედველობის პარადოქსი
ეს ხელოვნური ინტელექტის შესახებ დებატების ცენტრში არსებულ შემაშფოთებელ პარადოქსამდე მიგვიყვანს. თუ ვინმე გულწრფელად თვლის, რომ განვითარებული ხელოვნური ინტელექტი უნდა შეიზღუდოს, შენელდეს ან შეჩერდეს, ამის გაკეთების ძალაუფლება, სავარაუდოდ, მთავრობებსა და ტრანსნაციონალურ ინსტიტუტებს აქვთ. თუმცა, სწორედ ეს ის აქტორები არიან, რომელთა ბოლოდროინდელი ქცევაც ყველაზე ნაკლებ ნდობას იძლევა ამ ძალაუფლების შეზღუდულ, შექცევად გამოყენებაში.
საგანგებო ჩარჩოები არასტაბილურია. ჰიპოთეტური რისკების სამართავად მოპოვებული უფლებამოსილება, როგორც წესი, ნარჩუნდება და ფართოვდება. ინსტიტუტები იშვიათად აკნინებენ საკუთარ მნიშვნელობას. ხელოვნური ინტელექტის კონტექსტში, ეს ზრდის იმის შესაძლებლობას, რომ ხელოვნური ინტელექტის რისკებზე რეაგირება აძლიერებს მყიფე, პოლიტიზებულ კონტროლის სისტემებს, რომელთა მოხსნა უფრო რთულია, ვიდრე ნებისმიერი ინდივიდუალური ტექნოლოგია.
სხვა სიტყვებით რომ ვთქვათ, საფრთხე არა მხოლოდ იმაში მდგომარეობს, რომ ხელოვნური ინტელექტი ადამიანის კონტროლს სცილდება, არამედ იმაში, რომ ხელოვნური ინტელექტის შიში აჩქარებს ძალაუფლების კონცენტრაციას ინსტიტუტებში, რომლებიც ისედაც ნელა აღიარებენ შეცდომებს და მტრულად არიან განწყობილნი განსხვავებული აზრის მიმართ.
რეალური რისკის გადახედვა
ეს არ არის არგუმენტი ხელოვნური ინტელექტის მიმართ თვითკმაყოფილების სასარგებლოდ და არც იმის უარყოფა, რომ ძლიერ ტექნოლოგიებს რეალური ზიანის მიყენება შეუძლიათ. ეს არის არგუმენტი ჩარჩოს გაფართოების სასარგებლოდ. ინსტიტუციური კრახი თავისთავად ეგზისტენციალური ცვლადია. სისტემა, რომელიც კეთილგანწყობილ, თვითკორექტირებად მმართველობას გულისხმობს, არ არის უფრო უსაფრთხო, ვიდრე ის, რომელიც კეთილგანწყობილ, შეთანხმებულ სუპერინტელექტს გულისხმობს.
კოვიდამდე გონივრული იყო ტექნოლოგიური პესიმიზმის უმეტესი ნაწილი ადამიანის ნეგატიურ მიკერძოებას მივაწეროთ - ტენდენციას, გვჯეროდეს, რომ ჩვენი თაობის გამოწვევები უნიკალურად უმართავია. კოვიდ-19-ის შემდეგ სკეპტიციზმი ნაკლებად ჰგავს მიკერძოებას და უფრო მეტად გამოცდილებას.
ხელოვნური ინტელექტის შესახებ დებატების ცენტრალური კითხვა, შესაბამისად, არა მხოლოდ ისაა, შეუძლიათ თუ არა მანქანების ადამიანურ ღირებულებებთან შესაბამისობაში მოყვანა, არამედ ის, შეიძლება თუ არა თანამედროვე ინსტიტუტების ნდობა გაურკვევლობის მართვისთვის მისი გამწვავების გარეშე. თუ ეს ნდობა შეირყა - და კოვიდი ამაზე მიანიშნებს - მაშინ ხელოვნური ინტელექტის ფართომასშტაბიანი ზედამხედველობის მოწოდებები, სულ მცირე, ისეთივე სერიოზულ შემოწმებას იმსახურებს, როგორც ტექნოლოგიური გარდაუვალობის შესახებ მტკიცებები.
შესაძლოა, ყველაზე დიდი რისკი არ იყოს ხელოვნური ინტელექტის ზედმეტად ძლიერი გახდომა, არამედ ის, რომ ამ შესაძლებლობის შიში ამართლებს კონტროლის იმ ფორმებს, რომლებთანაც, როგორც მოგვიანებით აღმოვაჩენთ, ცხოვრება ან თავის დაღწევა გაცილებით რთულია.
-
როჯერ ბეიტი არის ბრაუნსტოუნის სტიპენდიანტი, სამართლისა და ეკონომიკის საერთაშორისო ცენტრის უფროსი მკვლევარი (2023 წლის იანვრიდან დღემდე), „აფრიკის წინააღმდეგ მებრძოლი მალარიის“ საბჭოს წევრი (2000 წლის სექტემბრიდან დღემდე) და ეკონომიკური საქმეთა ინსტიტუტის სტიპენდიანტი (2000 წლის იანვრიდან დღემდე).
ყველა წერილის ნახვა