გაზიარება | ბეჭდვა | ელ.ფოსტა
საინტერესოა იმის აღნიშვნა, თუ რა დაიწერა ხელოვნური ინტელექტის (AI) შესახებ ბოლო კვირების განმავლობაში, განსაკუთრებით ChatGPT-ის გარშემო ატეხილი აჟიოტაჟის თვალსაზრისით. რამდენადაც მე შემიძლია ვიმსჯელო, ეს ძირითადად იმ აღქმას ან შიშს უკავშირდება, რომ ხელოვნურმა ინტელექტმა ადამიანებს გაუსწრო ინტელექტის თვალსაზრისით. დოქტორ ჰარვი რიშის თვალისმომჭრელი ანგარიში ხელოვნურ ინტელექტთან მისი „საუბრის“ შედეგებმა უხვად აჩვენა, რომ ეს მცდარი აღქმაა და მაინც, როგორც ჩანს, ის მაინც გრძელდება.
ChatGPT-ის მოყვარულთან ბოლოდროინდელი გამოცდილება იგივე შთაბეჭდილებას ტოვებს იმ ფართოდ გავრცელებულ მოსაზრებასთან დაკავშირებით, რომ ხელოვნური ზოგადი ინტელექტი (AGI) ადამიანების თანასწორია, თუ არა უპირატესი ჭკუის მხრივ. ეს მოხდა კულტურული ორგანიზაციის წევრებთან საუბრისას, რომელიც იმ თემაზე წავიკითხე, თუ რამდენად შეუძლია ფროიდისა და ჰანა არენდტის ნაშრომებს გლობალურად კონტროლის მზაკვრული ტოტალიტარული ზომების ამჟამინდელი ზრდის შესახებ ინფორმაციის მიწოდება.
ერთ-ერთი ასეთი მნიშვნელოვანი მოვლენაა ჯანდაცვის მსოფლიო ორგანიზაციის მცდელობა, წართმეულიყო ქვეყნების სუვერენიტეტი კონსტიტუციის წარმატებული შესწორებით. ეს მცდელობა ორი წლის წინ ჩაიშალა, როდესაც აფრიკის ქვეყნებმა წინააღმდეგობა გაუწიეს შემოთავაზებულ ცვლილებებს, თუმცა 2024 წელს ჯანმო კვლავ შეეცდება, მანამდე კი აქტიურად ლობირებდა აფრიკის ლიდერებს.
ჩემი გამოსვლის შემდეგ, ვიღაცამ მისი თემა ხელოვნურ ინტელექტს დაუკავშირა. კერძოდ, ეს ეხებოდა ჩემს მტკიცებას, რომ ფროიდის ეროსის (სიცოცხლის ლტოლვა) და თანატოსის (სიკვდილის ლტოლვა) კონცეფციები, ერთი მხრივ, და არენდტის ცნებები შობადობა (ყველა ადამიანი დაბადებით სამყაროში რაღაც უნიკალურს შემოაქვს) და მრავლობითი (ყველა ადამიანი განსხვავებულია), მეორეს მხრივ, ტოტალიტარიზმის ბუნებას ნათელს ჰფენდა. ეს ასევე ეხებოდა საკითხს, შეუძლიათ თუ არა ტოტალიტარიზმის შენარჩუნება მის ხელშემწყობებს. აღმოჩნდა, რომ ჩემი გამოსვლის თემის გავრცელების შემდეგ, მან ChatGPT-ს სთხოვა კომენტარის გაკეთება და ხელოვნური ინტელექტის „პასუხი“ შეხვედრაზე დაბეჭდილი ფორმატით მოიტანა ჩემთვის საჩვენებლად.
როგორც მოსალოდნელი იყო, ლინგვისტური ნიმუშების ამოცნობის და პროგნოზირების უნარის მქონე კვლევითი მანქანისთვის, რომელსაც უზარმაზარი მონაცემთა ბაზა აქვს (რაც სინამდვილეში ChatGPT-ია), რთული არ იყო შესაბამისი ფროიდისეული და არენდტისეული კონცეფციების მნიშვნელობის ზუსტად გაშიფვრა - ნებისმიერ სტუდენტს შეეძლო ამის პოვნა ინტერნეტში ან ბიბლიოთეკაშიც. თუმცა, სადაც ხელოვნური ინტელექტი ჩერდებოდა, მე ამ მოაზროვნეების იდეებსა და გლობალურ სივრცეში მიმდინარე მოვლენებს შორის კავშირის დამყარება შევძელი.
გაიხსენეთ, რომ ფროიდისა და არენდტის კონცეფციები ევრისტულად გამოვიყენე იმასთან მიმართებაში, რაც, სავარაუდოდ, დღეს სხვადასხვა ინსტიტუციურ სფეროში ტოტალიტარული „ნაბიჯების“ ნიშნებია. ChatGPT-მ - კვლავ, როგორც მოსალოდნელი იყო - ასეც მოიქცა (და, სავარაუდოდ, შეეძლო) არ დავაკონკრეტებდი იმ კავშირს, რომელიც ჩემი მოხსენების გავრცელებულ სათაურში ვიგულისხმე და უბრალოდ „განვაცხადე“, რომ ამ ორი მოაზროვნის იდეებსა და ტოტალიტარიზმს შორის „გარკვეული“ კავშირი არსებობდა.
ამის მიზეზი მაშინვე აშკარა უნდა იყოს. ChatGPT-ის მონაცემთა ბაზაში არსად არის ინფორმაცია - გასაგები ინტერპრეტაციის ფორმატში – იმის სიმპტომურია, თუ რა მოვლენები, როგორიცაა ჯანმო-ს მიერ მსოფლიოს მმართველ ორგანოდ ქცევის მდგრადი მცდელობა (ზემოთ ნახსენები), კერძოდ, გლობალური ტოტალიტარული რეჟიმის დასაწყისი. იმისათვის, რომ ChatGPT-ს (ან ნებისმიერ სხვა ხელოვნურ ინტელექტს) შეეძლოს ასეთი „ინტერპრეტაციის“ მოფიქრება, ის ან პროგრამისტებს უნდა შეეყვანათ მონაცემთა ბაზაში - რაც ნაკლებად სავარაუდოა, თუ არა წარმოუდგენელი, იმის გათვალისწინებით, რომ ის ირიბად აკრიტიკებს ChatGPT-ის კონსტრუქციას - ან ხელოვნურ ინტელექტს უნდა ჰქონდეს ყველა „ნორმალური“ ადამიანის უნარი, კერძოდ, შეძლოს მათ გარშემო არსებული გამოცდილებითი სამყაროს ინტერპრეტაცია. ცხადია, არცერთ ხელოვნურ ინტელექტს არ აქვს ეს უნარი, რადგან ის დამოკიდებულებულია პროგრამირებაზე.
ჩემმა თანამოსაუბრემ ჩემი მხრიდან ეს განმარტებითი პასუხი გააპროტესტა და განაცხადა, რომ ChatGPT ავლენს „მსჯელობის“ უნარს ყველა „პასუხში“, რომელსაც ის შეიძლება დასვას კითხვებზე. მე აღვნიშნე, რომ ეს არ არის ხელოვნური ინტელექტის მოქმედების ზუსტი აღწერა. გახსოვდეთ: ChatGPT ყოველდღიურ ენაზე წარმოქმნის ანთროპომორფულ პასუხებს მისთვის დასმულ კითხვებზე. ის ამას აკეთებს კოლოსალურ მონაცემთა ნაკრებებში აღმოჩენილი მაგალითების გამოყენებით, რომლებზეც წვდომა აქვს და რომლებიც საშუალებას აძლევს მას იწინასწარმეტყველოს წინადადებებში სიტყვების თანმიმდევრული ცვლადები. მოკლედ რომ ვთქვათ: მას შეუძლია სტატისტიკური შაბლონების პოვნა ამ უზარმაზარ მონაცემთა ბაზებში „მანქანური სწავლების“ გამოყენებით.
ეს არ არის მსჯელობა, როგორც ყველა სტუდენტმა, ვინც ლოგიკა და ფილოსოფიის ისტორია შეისწავლა, უნდა იცოდეს - როგორც რენე დეკარტი ამტკიცებდა მე-17 საუკუნეში.th საუკუნეში მსჯელობა ინტუიციური შეხედულებებისა და დასკვნის ან დედუქციის კომბინაციაა. იწყება ინტუიციური შეხედულებით - ვთქვათ, რომ შუქი ჩაქრა - და იქიდან ვასკვნით, რომ ან ვიღაცამ გამორთო ისინი, ან ელექტროენერგიის მიწოდება შეწყდა. ან შეიძლება (დედუქციის გზით) ერთი მოცემულობის (ინტუიციური შეხედულების) საფუძველზე მსჯელობა, რომ მეორე ან სავარაუდოა, ან ნაკლებად სავარაუდო. არასდროს არ მიმართავთ მონაცემების უზარმაზარ რაოდენობას, რომლებსაც სკანირებთ მსგავსების ამსახველი ნიმუშების აღმოსაჩენად და ამის საფუძველზე აკეთებთ წინასწარ პროგნოზებს.
მიუხედავად ამისა, როგორც ამის დადგენა შესაძლებელია ისეთი კომპიუტერული მეცნიერებისგან, როგორიცაა დოქტორი არვინდ ნარაიანანიპრინსტონის უნივერსიტეტის კომპიუტერული მეცნიერებების პროფესორის თქმით, ადამიანები (როგორც ჩემი თანამოსაუბრე) ადვილად ტყუვდებიან ChatGPT-ის მსგავსი ხელოვნური ინტელექტით, რადგან ის ძალიან დახვეწილი ჩანს და რაც უფრო დახვეწილი ხდება ის, მით უფრო რთული იქნება მომხმარებლებისთვის ფსევდომსჯელობასთან დაკავშირებული მათი ნაკლოვანებების, ასევე შეცდომების შემჩნევა.
როგორც დოქტორი ნარაიანანი აღნიშნავს, ChatGPT-ის პასუხები მის მიერ დასმულ კომპიუტერული მეცნიერებების გამოცდის ზოგიერთ კითხვაზე ყალბი იყო, თუმცა ისინი იმდენად არასერიოზულად იყო ჩამოყალიბებული, რომ მათი სიყალბე მაშინვე არ ჩანდა და მას სამჯერ მოუწია მათი შემოწმება, სანამ დარწმუნდებოდა, რომ ეს ასე იყო. აი, რა არის ChatGPT-ის მიერ ადამიანების „ჩანაცვლების“ ნაქები უნარი.
თუმცა, უნდა გვახსოვდეს, რომ აქამდე შედარებითი თვალსაზრისით განვიხილეთ თემა, მოქმედებს თუ არა ChatGPT-ის მსგავსი ხელოვნური ინტელექტი ისევე, როგორც ადამიანები ინტელექტის დონეზე, რაც ეხება განსხვავებებს, როგორიცაა მსჯელობა და არა შაბლონების ამოცნობა და ა.შ. რა თქმა უნდა, კითხვა შეიძლება ჩამოყალიბდეს არასრულფასოვნებისა და უპირატესობის თვალსაზრისითაც და ზოგიერთი ამტკიცებს, რომ ადამიანები მაინც გამოჩნდნენ რათა ხელოვნურ ინტელექტს გადააჭარბოს, მაშინაც კი, თუ მას მათემატიკური გამოთვლების ადამიანებზე სწრაფად შესრულება შეუძლია.
მაგრამ მხოლოდ მაშინ, როდესაც ადამიანი ტერიტორიის შეცვლას განიცდის, შეიძლება პერსპექტივაში დავინახოთ ფუნდამენტური განსხვავებები ჰოლისტურად დანახულ ადამიანსა და ხელოვნურ ინტელექტს შორის, რაც არ უნდა ჭკვიანი იყოს იგი. ეს ძირითადად უგულებელყოფილია იმ ადამიანების მიერ, რომლებიც დებატებში არიან ჩართული ადამიანებსა და „ხელოვნურ“ ინტელექტს შორის იმ მარტივი მიზეზის გამო, რომ ინტელექტი არის... არ ყველაფერი, რაც მნიშვნელოვანია.
იმის საილუსტრაციოდ, თუ რას ვგულისხმობ, გავიხსენოთ, რა მოხდა ჭადრაკის მსოფლიო ჩემპიონ გარი კასპაროვსა და... Deep Blue, IBM-ის „სუპერკომპიუტერი“, 1997 წელს. 1996 წელს კასპაროვთან დამარცხების შემდეგ, Deep Blue მომდევნო წელს მანქანამ ადამიანზე პირველი გამარჯვება მოიპოვა და შემდეგაც - როგორც დღეს ChatGPT-ის შემთხვევაში - საყოველთაო გლოვა გავრცელდა კაცობრიობის სავარაუდო „დაღუპვის“ გამო, რაც წარმოდგენილი იყო კასპაროვის კომპიუტერის (ხელოვნური ინტელექტის) მიერ დამარცხებით.
ისევე როგორც დღეს ChatGPT-თან დაკავშირებით, ეს რეაქცია სიმბოლურად გამოხატავდა იმ შეცდომას, რომელსაც ადამიანების დიდი უმრავლესობა უშვებს ხელოვნურ ინტელექტსა და ადამიანებს შორის ურთიერთობის შეფასებისას. როგორც წესი, ასეთი შეფასება ხორციელდება შემეცნების თვალსაზრისით, იმის შეფასებით, თუ რომელია უფრო „ინტელექტუალური“ - ადამიანები თუ მანქანები. თუმცა, უნდა დავსვათ კითხვა, იყო თუ არა ინტელექტი შესაფერისი - მით უმეტეს, ყველაზე შესაფერისი - საზომი ადამიანებისა და კომპიუტერების (როგორც ხელოვნური ინტელექტის წარმომადგენლის) შესადარებლად მაშინ და ახლაც.
გასაგებია, რომ იმ დროს ყველგან იტყობინებოდნენ კასპაროვის დამცირების შესახებ, რომელიც მანქანამ გამოიწვია და მახსოვს, რომ წავაწყდი ასეთ ჩანაწერს, სადაც ავტორმა კარგად გაიგო, რას ვგულისხმობ, როდესაც ადამიანებსა და ხელოვნურ ინტელექტს შორის შედარებისთვის სწორ ან შესაბამის საზომებს ვგულისხმობ. კასპაროვის ისტორიული დამარცხების დამთრგუნველი დეტალების რეკონსტრუქციის შემდეგ... Deep Blue, ამ მწერალმა იუმორისტულ, მაგრამ მოთხრობილ პატარა ფანტაზიას მიმართა.
ადამიანის სიმბოლური დამარცხების შემდეგ, მან ან მან გაიფიქრა, ინჟინრებისა და კომპიუტერული მეცნიერების გუნდი, რომელმაც დააპროექტა და ააგო Deep Blue ქალაქში გავიდნენ თავიანთი ეპოქალური ტრიუმფის აღსანიშნავად. არასწორი იქნებოდა „მათი მანქანის გამარჯვების“ დაწერა, რადგან მკაცრად რომ ვთქვათ, სწორედ ადამიანთა გუნდმა მოიპოვა გამარჯვება „მათი“ კომპიუტერის საშუალებით.
საკვანძო ფრაზა მზად იყო, როდესაც ავტორმა რიტორიკულად იკითხა, Deep Blueასევე გავიდა და ქალაქი ღია ვარდისფრად შეღება, რათა დაპყრობით დატკბეს. ცხადია, ამ რიტორიკულ კითხვაზე პასუხი უარყოფითია. მას მოჰყვა საკამათო ფრაზა, რომელიც აშკარას ამბობდა; კერძოდ, რომ „ადამიანები ზეიმობენ; კომპიუტერები (ან მანქანები)...“ არა.'
უკან მოხედვისას, ერთი შეხედვით, ჩნდება შთაბეჭდილება, რომ ეს ავტორი ერთგვარი ხედვის მქონე ადამიანი იყო, რომელიც მხატვრულ ლიტერატურას იყენებდა იმის ხაზგასასმელად, რომ მიუხედავად იმისა, რომ ადამიანებსა და ხელოვნურ ინტელექტს საერთო „ინტელექტი“ აქვთ (თუმცა სხვადასხვა სახის), ეს ასეა. არ აღნიშნეთ ყველაზე აშკარა, შეუქცევადი განსხვავებები ხელოვნურ ინტელექტსა და ადამიანებს შორის. არსებობს სხვა, გაცილებით გადამწყვეტი განსხვავებები ადამიანებსა და ხელოვნურ ინტელექტს შორის, რომელთაგან ზოგიერთი შესწავლილია. აქ დაწკაპუნებით მდე აქ დაწკაპუნებით .
-
ბერტ ოლივიე თავისუფალი სახელმწიფოს უნივერსიტეტის ფილოსოფიის დეპარტამენტში მუშაობს. ბერტი იკვლევს ფსიქოანალიზს, პოსტსტრუქტურალიზმს, ეკოლოგიურ ფილოსოფიასა და ტექნოლოგიების ფილოსოფიას, ლიტერატურას, კინოს, არქიტექტურასა და ესთეტიკას. მისი ამჟამინდელი პროექტია „სუბიექტის გაგება ნეოლიბერალიზმის ჰეგემონიასთან მიმართებაში“.
ყველა წერილის ნახვა