გაზიარება | ბეჭდვა | ელ.ფოსტა
მედიცინაში ჩემი გამოცდილება საშუალებას მაძლევს, განვასხვავო ნამდვილი ინოვაცია და დახვეწილი რეკლასიფიკაცია, რომელიც ფუნდამენტურად ცვლის პრაქტიკას, თუმცა უცვლელი ჩანს. ხელოვნურმა ინტელექტმა ბოლო დროს მნიშვნელოვანი ყურადღება მიიპყრო, მათ შორის ფართოდ გავრცელებული მტკიცება, რომ ხელოვნურ ინტელექტს შეერთებულ შტატებში „კანონიერად აქვს უფლებამოსილი, პრაქტიკა განახორციელოს“. სიტყვასიტყვით თუ გავიაზრებთ, ეს მტკიცება არაზუსტია. არცერთ სამედიცინო საბჭოს არ გაუცია ლიცენზია მანქანაზე. არცერთ ალგორითმს არ დაუფიცავს ფიცი, არ აუღია ფიდუციური მოვალეობა და არც აიღო პირადი პასუხისმგებლობა პაციენტისთვის ზიანის მიყენებაზე. არცერთი რობოტი ექიმი არ ხსნის კლინიკას, არ უხდის სადაზღვევო კომპანიებს გადასახადებს და არ წარსდგება სამედიცინო ნაკლის გამო მსჯავრდებულთა წინაშე.
თუმცა, ამ დაკვირვებაზე შეჩერება უფრო ფართო საკითხს უგულებელყოფს. პასუხისმგებლობის სამართლებრივი ცნებები ამჟამად ხელახლა განისაზღვრება, ხშირად საზოგადოების ცნობიერების გარეშე.
მიმდინარეობს მნიშვნელოვანი ტრანსფორმაცია, რომელიც მოითხოვს არა მხოლოდ რეფლექსურ უარყოფას, არამედ არაკრიტიკულ ტექნოლოგიურ ენთუზიაზმს. ამჟამინდელი განვითარება არ არის ხელოვნური ინტელექტის ექიმად ლიცენზირება, არამედ მედიცინის ძირითადი საზღვრის თანდათანობითი ეროზია: კლინიკურ განსჯასა და ადამიანის პასუხისმგებლობას შორის შინაგანი კავშირი. კლინიკური განსჯა გულისხმობს ინფორმირებული გადაწყვეტილებების მიღებას, რომლებიც მორგებულია თითოეული პაციენტის უნიკალურ საჭიროებებსა და გარემოებებზე, რაც მოითხოვს თანაგრძნობას, ინტუიციას და სამედიცინო ეთიკის ღრმა გაგებას.
ადამიანის პასუხისმგებლობა გულისხმობს პასუხისმგებლობას, რომელსაც ჯანდაცვის პროვაიდერები იღებენ ამ გადაწყვეტილებებსა და მათ შედეგებზე. ეს ეროზია არ არის დრამატული კანონმდებლობის ან საჯარო დებატების შედეგი, არამედ ჩუმად ხდება საპილოტე პროგრამების, მარეგულირებელი რეინტერპრეტაციებისა და პასუხისმგებლობის განზრახ ფარული ენის მეშვეობით. როგორც კი ეს ზღვარი იხსნება, მედიცინა ტრანსფორმირდება ისეთი გზებით, რომელთა შეცვლაც რთულია.
მთავარი საზრუნავი არ არის, შეუძლია თუ არა ხელოვნურ ინტელექტს რეცეპტების შევსება ან ლაბორატორიული შედეგების ანომალიების აღმოჩენა. მედიცინა დიდი ხანია იყენებს ინსტრუმენტებს და ჯანდაცვის პროვაიდერები ზოგადად მიესალმებიან დახმარებას, რომელიც ამცირებს ადმინისტრაციულ ამოცანებს ან აუმჯობესებს ნიმუშების ამოცნობას. რეალური საკითხია, შეიძლება თუ არა სამედიცინო განსჯა - სწორი ქმედებების, პაციენტებისა და რისკების შესახებ გადაწყვეტილების მიღება - განვიხილოთ, როგორც კომპიუტერის მიერ გენერირებული შედეგი, რომელიც გამოყოფილია მორალური პასუხისმგებლობისგან. ისტორიულად, განსჯის პასუხისმგებლობისგან გათიშვის მცდელობები ხშირად იწვევდა ზიანს პასუხისმგებლობის აღების გარეშე.
ბოლოდროინდელი მოვლენები ნათელს ჰფენს ამჟამინდელი დაბნეულობის სათავეს. რამდენიმე შტატში, შეზღუდული საპილოტე პროგრამები ამჟამად საშუალებას აძლევს ხელოვნურ ინტელექტზე დაფუძნებულ სისტემებს, დაეხმარონ სტაბილური ქრონიკული დაავადებების სამკურნალოდ რეცეპტების განახლებაში ვიწროდ განსაზღვრული პროტოკოლების შესაბამისად. ფედერალურ დონეზე, შემოთავაზებულ კანონმდებლობაში განხილულია, შეიძლება თუ არა ხელოვნური ინტელექტი კვალიფიცირდეს, როგორც „პრაქტიკოსი“ კონკრეტული საკანონმდებლო მიზნებისთვის, იმ პირობით, რომ ის სათანადოდ რეგულირდება. ეს ინიციატივები, როგორც წესი, წარმოდგენილია, როგორც პრაგმატული რეაგირება ექიმების დეფიციტზე, წვდომის შეფერხებებზე და ადმინისტრაციულ არაეფექტურობაზე. მიუხედავად იმისა, რომ არცერთი მათგანი არ განსაზღვრავს ხელოვნურ ინტელექტს ექიმად, ისინი ერთად ნორმალიზებენ უფრო შემაშფოთებელ წინაპირობას, რომ სამედიცინო ქმედებები შეიძლება განხორციელდეს მკაფიოდ იდენტიფიცირებადი ადამიანი გადაწყვეტილების მიმღების გარეშე.
პრაქტიკაში, ეს განსხვავება ფუნდამენტურია. მედიცინა განისაზღვრება არა დავალებების მექანიკური შესრულებით, არამედ პასუხისმგებლობის დაკისრებით, როდესაც შედეგები არახელსაყრელია. რეცეპტის დაწერა მარტივია; მის შედეგებზე პასუხისმგებლობის აღება - განსაკუთრებით თანმხლები დაავადებების, სოციალური კონტექსტის, პაციენტის ღირებულებების ან არასრული ინფორმაციის გათვალისწინებით - გაცილებით რთულია. ჩემი კარიერის განმავლობაში ეს პასუხისმგებლობა მუდმივად ეკისრებოდა ადამიანს, რომლის დაკითხვაც, გამოწვევა, გამოსწორება და პასუხისგებაში მიცემაც შეიძლებოდა. როდესაც დოქტორი სმიტი შეცდომას უშვებს, ოჯახმა იცის, ვის დაუკავშირდეს, რაც უზრუნველყოფს ადამიანის პასუხისმგებლობის პირდაპირ კავშირს. ვერცერთი ალგორითმი, მისი დახვეწილობის მიუხედავად, ვერ შეასრულებს ამ როლს.
ძირითადი რისკი არა ტექნოლოგიური, არამედ მარეგულირებელი და ფილოსოფიურია. ეს გადასვლა წარმოადგენს გადასვლას სათნოების ეთიკიდან პროცედურულზე. როდესაც კანონმდებლები და ინსტიტუტები სამედიცინო გადაწყვეტილების მიღებას სისტემების ფუნქციად და არა პირადი ქმედებებად ხელახლა განსაზღვრავენ, მედიცინის მორალური ჩარჩო იცვლება. ანგარიშვალდებულება ხდება დიფუზური, ზიანის მიკუთვნება უფრო რთულია და პასუხისმგებლობა კლინიცისტებიდან პროცესებზე, განსჯიდან პროტოკოლის დაცვაზე გადადის. როდესაც შეცდომები გარდაუვლად ხდება, გაბატონებული ახსნა ის არის, რომ „სისტემა დამკვიდრებულ მითითებებს მიჰყვებოდა“. ამ გარდამავალი პერიოდის აღიარება განმარტავს გადასვლას ინდივიდუალური ეთიკური გადაწყვეტილების მიღებიდან მექანიზებულ პროცედურულ შესაბამისობაზე.
ეს შეშფოთება თეორიული არ არის. თანამედროვე ჯანდაცვა უკვე დგას გამოწვევების წინაშე, რომლებიც დაკავშირებულია განზავებულ ანგარიშვალდებულებასთან. მე დავაკვირდი, როგორ იკარგებიან ალგორითმზე დაფუძნებული გადაწყვეტილებებით დაზარალებული პაციენტები ადმინისტრატორებს, მომწოდებლებსა და გაუმჭვირვალე მოდელებს შორის, ფუნდამენტურ კითხვაზე მკაფიო პასუხი არ აქვთ: ვინ მიიღო ეს გადაწყვეტილება? ხელოვნური ინტელექტი მნიშვნელოვნად აჩქარებს ამ პრობლემას. ალგორითმს არ შეუძლია მორალური ახსნა-განმარტებების მიცემა, სინდისის საფუძველზე თავშეკავების გამოჩენა, ეთიკური საკითხების გამო ქმედებებზე უარის თქმა ან პაციენტის ან ოჯახის წინაშე შეცდომის აღიარება.
ხელოვნური ინტელექტის ავტონომიის გაზრდის მომხრეები ხშირად ეფექტურობას ამართლებენ. კლინიკები გადატვირთულია, ექიმები გადაღლილობას განიცდიან და პაციენტები ხშირად თვეების განმავლობაში ელოდებიან მკურნალობას, რომელიც მხოლოდ რამდენიმე წუთს უნდა გაგრძელდეს. ეს შეშფოთება ლეგიტიმურია და ნებისმიერი პატიოსანი კლინიცისტი აღიარებს მათ. თუმცა, მხოლოდ ეფექტურობა არ ამართლებს მედიცინის ეთიკური საფუძვლის შეცვლას. სიჩქარისა და მასშტაბისთვის ოპტიმიზირებული სისტემები ხშირად სწირავენ ნიუანსებს, დისკრეციას და ინდივიდუალურ ღირსებას. ისტორიულად, მედიცინა წინააღმდეგობას უწევდა ამ ტენდენციას იმის ხაზგასმით, რომ ზრუნვა არსებითად ურთიერთობაა და არა გარიგება.
ხელოვნური ინტელექტი ამ ურთიერთობის შებრუნების რისკს ქმნის. როდესაც სისტემები, ინდივიდების ნაცვლად, ზრუნავენ პაციენტი აღარ არის კლინიცისტთან შეთანხმებაში ჩართული და სამუშაო პროცესის ნაწილი ხდება. ექიმი იღებს აპარატის ხელმძღვანელის როლს ან, რაც უფრო საგანგაშოა, მოქმედებს როგორც იურიდიული ბუფერი, რომელიც შთანთქავს პირადად არმიღებული გადაწყვეტილებების პასუხისმგებლობას. დროთა განმავლობაში, კლინიკური განსჯა პროტოკოლის დაცვას უთმობს ადგილს და მორალური უფლებამოსილება თანდათან მცირდება.
ხელოვნური ინტელექტი ასევე უფრო დახვეწილ და საშიშ პრობლემას წარმოადგენს: გაურკვევლობის შენიღბვას. მედიცინა ბუნდოვანებაში ცხოვრობს. მტკიცებულებები ალბათურია. რეკომენდაციები წინასწარია. პაციენტები იშვიათად წარმოდგენილნი არიან სუფთა მონაცემთა ნაკრებების სახით. კლინიცისტები გაწვრთნილები არიან არა მხოლოდ მოქმედებისთვის, არამედ ყოყმანისთვისაც - იმის ამოსაცნობად, თუ როდის არის ინფორმაცია არასაკმარისი, როდის შეიძლება ჩარევამ მეტი ზიანი მიაყენოს, ვიდრე სარგებელი, ან როდის არის სწორი გზა ლოდინი. წარმოიდგინეთ სცენარი, რომელშიც ხელოვნური ინტელექტი რეკომენდაციას უწევს გაწერას, მაგრამ პაციენტის მეუღლე შეშინებული ჩანს, რაც ხაზს უსვამს ალგორითმულ გადაწყვეტილების მიღებასა და ადამიანურ ინტუიციას შორის დაძაბულობას. რეალურ სამყაროში ასეთი უთანხმოება ხაზს უსვამს ბუნდოვანების ფსონს.
ხელოვნური ინტელექტის სისტემები არ განიცდიან გაურკვევლობას; ისინი წარმოქმნიან შედეგებს. როდესაც ისინი არასწორად მოქმედებენ, ისინი ხშირად ამას უსაფუძვლო თავდაჯერებულობით აკეთებენ. ეს მახასიათებელი არ არის პროგრამირების ხარვეზი, არამედ სტატისტიკური მოდელირების თანდაყოლილი მახასიათებელია. გამოცდილი კლინიცისტებისგან განსხვავებით, რომლებიც ღიად გამოთქვამენ ეჭვს, დიდი ენობრივი მოდელები და მანქანური სწავლების სისტემები ვერ აღიარებენ საკუთარ შეზღუდვებს. ისინი წარმოქმნიან დამაჯერებელ პასუხებს მაშინაც კი, როდესაც მონაცემები არასაკმარისია. მედიცინაში, დასაბუთების გარეშე დამაჯერებლობა შეიძლება სახიფათო იყოს.
რადგან ეს სისტემები კლინიკურ სამუშაო პროცესებში უფრო ადრე ინტეგრირდება, მათი შედეგები სულ უფრო მეტად მოქმედებს შემდგომ გადაწყვეტილებებზე. დროთა განმავლობაში, კლინიცისტებმა შეიძლება დაიწყონ რეკომენდაციების ნდობა არა მათი ვალიდურობის, არამედ იმის გამო, რომ ისინი ნორმალიზებულ ხასიათს იძენენ. განსჯა თანდათან აქტიური მსჯელობიდან პასიურ მიღებაზე გადადის. ასეთ ვითარებაში, „ადამიანის ჩართვა“ სიმბოლურ დაცვას წარმოადგენს.
დამცველები ხშირად ამტკიცებენ, რომ ხელოვნური ინტელექტი მხოლოდ „აძლიერებს“ კლინიცისტებს და არა ჩაანაცვლებს მათ. თუმცა, ეს დარწმუნება საეჭვოა. როგორც კი ხელოვნური ინტელექტი აჩვენებს ეფექტურობის ზრდას, ეკონომიკური და ინსტიტუციური ზეწოლა, როგორც წესი, ზრდის ავტონომიას. თუ სისტემას შეუძლია უსაფრთხოდ შეავსოს რეცეპტები, მას მალე შეიძლება მიეცეს მათი დაწყების უფლება. თუ მას შეუძლია ზუსტად დიაგნოზირება მოახდინოს გავრცელებული მდგომარეობების, ექიმის შემოწმების აუცილებლობა კითხვის ნიშნის ქვეშ დგება. თუ ის აჯობებს ადამიანებს კონტროლირებად საორიენტაციო მაჩვენებლებში, ადამიანური ცვალებადობის მიმართ ტოლერანტობა მცირდება.
ამ ტენდენციების გათვალისწინებით, აუცილებელია კონკრეტული დამცავი ზომების დანერგვა. მაგალითად, ხელოვნური ინტელექტით გამოწვეული გადაწყვეტილებების 5%-ზე სავალდებულო შეუსაბამობის აუდიტი შეიძლება გამოდგეს კონკრეტული შემოწმების ფუნქციად, რაც უზრუნველყოფს ხელოვნური ინტელექტის რეკომენდაციებსა და ადამიანის კლინიკურ შეფასებას შორის შესაბამისობას, ამავდროულად, მარეგულირებლებსა და საავადმყოფოების საბჭოებს მიაწვდის ქმედით მეტრიკებს ხელოვნური ინტელექტის ინტეგრაციის მონიტორინგისთვის.
ეს კითხვები ბოროტი განზრახვით არ დაისმება; ისინი ბუნებრივად წარმოიშობა ხარჯების შეკავებასა და მასშტაბირებაზე ორიენტირებულ სისტემებში. თუმცა, ისინი მიუთითებენ მომავალზე, სადაც ადამიანური განსჯა ნორმის ნაცვლად გამონაკლისი გახდება. ასეთ სცენარში, რესურსების მქონე პირები გააგრძელებენ ადამიანური მზრუნველობის მიღებას, ზოგი კი ავტომატიზირებული პროცესებით იმართება. ორდონიანი მედიცინა არა იდეოლოგიიდან, არამედ ოპტიმიზაციისგან იქნება წარმომშობი.
ამ მომენტს განსაკუთრებით საეჭვოს ხდის პასუხისმგებლობის მკაფიო ხაზების არარსებობა. როდესაც ხელოვნური ინტელექტით გამოწვეული გადაწყვეტილება პაციენტს ზიანს აყენებს, ვინ არის პასუხისმგებელი? ნომინალურად მკურნალობს თუ არა სისტემას კლინიცისტი? დაწესებულება, რომელმაც ის განათავსა? გამყიდველი, რომელმაც მოდელი მოამზადა? რეგულატორი, რომელმაც მისი გამოყენება დაამტკიცა? მკაფიო პასუხების გარეშე პასუხისმგებლობა ქრება. ხოლო როდესაც პასუხისმგებლობა ქრება, ნდობაც მალევე მოჰყვება.
მედიცინა ფუნდამენტურად ნდობაზეა დამოკიდებული. პაციენტები საკუთარ სხეულს, შიშებს და ხშირად სიცოცხლესაც კლინიცისტებს ანდობენ. ეს ნდობა არ შეიძლება გადაეცეს ალგორითმს, მისი სირთულის მიუხედავად. ის დაფუძნებულია იმ დარწმუნებაზე, რომ არსებობს ადამიანი - ადამიანი, რომელსაც შეუძლია მოუსმინოს, ადაპტირდეს და პასუხისმგებლობა აიღოს საკუთარ ქმედებებზე.
ხელოვნური ინტელექტის სრულად უარყოფა ზედმეტია. გონივრულად გამოყენების შემთხვევაში, ხელოვნურ ინტელექტს შეუძლია შეამციროს საოფისე ტვირთი, გამოავლინოს ისეთი ნიმუშები, რომლებიც შეიძლება ადამიანის მიერ ვერ შეამჩნიოს და ხელი შეუწყოს კლინიკური გადაწყვეტილებების მიღებას. მას შეუძლია ექიმებს საშუალება მისცეს, ადმინისტრაციული ამოცანების ნაცვლად მეტი დრო დაუთმონ პაციენტის მოვლას. თუმცა, ამ მომავლის რეალიზება მოითხოვს მკაფიო ვალდებულებას, რომ ადამიანური პასუხისმგებლობა სამედიცინო პრაქტიკის ცენტრში იყოს.
„ადამიანის ჩართულობა“ სიმბოლურ ზედამხედველობაზე მეტს უნდა ნიშნავდეს. ის უნდა მოითხოვდეს, რომ კონკრეტული პირი იყოს პასუხისმგებელი თითოეულ სამედიცინო გადაწყვეტილებაზე, გაიგოს მისი დასაბუთება და შეინარჩუნოს როგორც უფლებამოსილება, ასევე ვალდებულება, უგულებელყოს ალგორითმული რეკომენდაციები. ის ასევე უნდა გულისხმობდეს გამჭვირვალობას, ახსნადობას და პაციენტის ინფორმირებულ თანხმობას, ასევე ადამიან კლინიცისტებში ინვესტირების ვალდებულებას, მათი ხელოვნური ინტელექტით ჩანაცვლების ნაცვლად.
მთავარი რისკი ხელოვნური ინტელექტის გადაჭარბებული ძალა კი არა, ინსტიტუტების მიერ პასუხისმგებლობისგან თავის არიდების სურვილია. ეფექტურობისა და ინოვაციისკენ სწრაფვისას არსებობს საფრთხე, რომ მედიცინა ტექნიკურად განვითარებულ, ადმინისტრაციულად გამარტივებულ სფეროდ გადაიქცეს, თუმცა მორალური შინაარსისგან მოკლებულ სფეროდ.
მომავლის განხილვისას აუცილებელია დავსვათ კითხვა: როგორი მკურნალი წარმოგვიდგენია 2035 წელს საწოლთან? ეს კითხვა მოითხოვს კოლექტიურ მორალურ წარმოსახვას, რაც გვამხნევებს ისეთი მომავლის ჩამოყალიბებაში, სადაც ადამიანური პასუხისმგებლობა და თანამგრძნობი მზრუნველობა სამედიცინო პრაქტიკის ცენტრში დარჩება. კოლექტიური მოქმედების მობილიზება გადამწყვეტი მნიშვნელობის იქნება იმის უზრუნველსაყოფად, რომ ხელოვნური ინტელექტის განვითარებამ გააძლიეროს და არა შეარყიოს ეს ფუნდამენტური ღირებულებები.
ხელოვნურ ინტელექტს სამედიცინო საქმიანობის ლიცენზია არ აქვს. თუმცა, მედიცინა ჩუმად გარდაიქმნება ისეთი სისტემების გარშემო, რომლებსაც მორალური წონა არ აქვთ. თუ ეს პროცესი უკონტროლოდ გაგრძელდება, შეიძლება ერთ დღეს აღმოვაჩინოთ, რომ ექიმი არა მანქანით, არამედ პროტოკოლით შეიცვალა და როდესაც ზიანი ხდება, არავინ რჩება მასზე პასუხისმგებლის.
ეს პროგრესი არ იქნებოდა. ეს უარის თქმა იქნებოდა.
-
ჯოზეფ ვარონი, მედიცინის დოქტორი, არის კრიტიკული თერაპიის ექიმი, პროფესორი და დამოუკიდებელი სამედიცინო ალიანსის პრეზიდენტი. ის 980-ზე მეტი რეცენზირებული პუბლიკაციის ავტორია და ჟურნალ „დამოუკიდებელი მედიცინის“ მთავარი რედაქტორია.
ყველა წერილის ნახვა