ხელოვნური ინტელექტი და მართლმსაჯულება
წარმოიდგინეთ სასამართლო, სადაც მოსამართლის სავარძელში ზის არა მანტიაში ჩაცმული ადამიანი, არამედ რობოტი, რომელიც თავისუფალია ყოველგვარი ემოციებისგან და ცრურწმენებისგან, არასოდეს იღლება და არ უშვებს შეცდომებს.
ეს არის რობოტი-მოსამართლე - მაღალი ტექნოლოგიების და ხელოვნური ინტელექტის ნაყოფი, სამართლის მრავალსაუკუნოვანი ევოლუციის ბუნებრივი გაგრძელება.
რისი შესაძლებლობა აქვს ასეთ მოსამართლეს?
თუ რამდენიმე წლის წინ ასეთი სურათი მხოლოდ სამეცნიერო-ფანტასტიკური ფილმების კადრებს ჰგავდა, დღეს ის უკვე აღარ ჩანს ასეთი არარეალური. უკვე დღეს ტექნოლოგიები ეხმარება მოსამართლეებს და იურისტებს დიდი რაოდენობით ინფორმაციის ანალიზში, საქმეების შედეგების პროგნოზირებაში და გადაწყვეტილებების მიღებაშიც კი. თუმცა, ჯერჯერობით გაუგებარია, რამდენად მზადაა კაცობრიობა შორს წავიდეს ამ პროცესში და შეძლებს თუ არა AI ნამდვილად შეცვალოს მოსამართლე.
AI-ის სამართლებრივ სისტემებში ინტეგრაციის ხარისხი პირდაპირ არის დამოკიდებული სასამართლო სისტემის ციფრულობის დონეზე, რომელიც განსხვავდება ქვეყნების მიხედვით.
ამ მიმართულებით ლიდერია ჩინეთი, რომელიც 2010-იანი წლების შუა პერიოდიდან ავითარებს ელექტრონულ სამართალს და უკვე მრავალი წელია ატარებს ონლაინ-სასამართლო სხდომებს.
მაგალითად: 2018 წელს ეს სისტემა მხოლოდ მონაცემთა ბაზის დონეზე ფუნქციონირებდა, დღეს ის უკვე გამოიყენება გადაწყვეტილებების მისაღებად. მეტიც - ჩინეთის უზენაესმა სასამართლომ მოსამართლეებს დაავალა, თითოეული საქმის განხილვისას კონსულტაცია გაიარონ AI-სთან. თუ მოსამართლე არ ეთანხმება სისტემის რეკომენდაციას, ვალდებულია წერილობით განმარტოს საკუთარი გადაწყვეტილება.
AI ყოველდღიურად 100 ათას საქმეს აანალიზებს, რათა გამოავლინოს გულგრილობა ან კორუფცია. მედიის მონაცემებით, „ჭკვიანმა სასამართლომ“ მოსამართლეების საშუალო დატვირთვა მესამედით შეამცირა და მხოლოდ სამი წლის განმავლობაში საზოგადოებას 300 მილიარდი იუანი დაუზოგა.
ჩინეთი ასევე ავითარებს „მობილურ სასამართლოს“, რომელიც დაფუძნებულია სოციალურ მედიაპლატფორმა WeChat-ზე. ასეთ სასამართლოს შეუძლია განიხილოს სამოქალაქო სარჩელები ელექტრონული კომერციისა და საავტორო უფლებების სფეროში. სხდომას უძღვება „რობოტი-მოსამართლე“, რომელიც ურთიერთობს პროცესის მონაწილეებთან, თუმცა საბოლოო გადაწყვეტილებას მაინც ადამიანი იღებს. მხოლოდ ბოლო ერთი წლის განმავლობაში „მობილურმა სასამართლოებმა“ 3 მილიონზე მეტი საქმე განიხილეს.
აშშ არ ჩამორჩება ჩინეთს და მრავალი წელია ნერგავს სამართალში AI-ინსტრუმენტებს. ძირითადად ეს არის კერძო სისტემები.
მაგალითად, (PSA) Public Safety Assessment) აფასებს, რამდენად დიდია ალბათობა იმისა, რომ სასამართლომდე გათავისუფლებული პირი ხელმეორედ ჩაიდენს დანაშაულს ან არ გამოცხადდება სასამართლოში.
PSA განიხილავს სხვადასხვა ფაქტორს, მათ შორის წარსულ პატიმრობებს, ასაკს, სოციალურ სტატუსს და ეხმარება მოსამართლეებს გააზრებული გადაწყვეტილებების მიღებაში — დატოვონ ადამიანი პატიმრობაში თუ შეუფარდონ გირაო.
PSA არ იღებს გადაწყვეტილებებს, იგი მოსამართლეებს სთავაზობს შეფასებებს, რომლებიც ეხმარება მათ უფრო გააზრებულ არჩევანში.
ამერიკული სასამართლოები ასევე იყენებენ სისტემას: COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) ეს არის მსგავსი სისტემა, რომელიც აანალიზებს დამნაშავეების შესახებ ინფორმაციას: - სამართალდარღვევების ისტორია, ქცევა, სოციალური და დემოგრაფიული ფაქტორები - რათა იწინასწარმეტყველოს განმეორებითი დანაშაულის ჩადენის ან გათავისუფლების პირობების დარღვევის ალბათობა.
COMPAS არაერთხელ გამხდარა დაპირისპირების საგანი. კრიტიკოსები ამტკიცებდნენ, რომ სისტემა რასობრივად მიკერძოებული იყო, რადგან შავკანიან მოქალაქეებს უფრო ხშირად აძლევდა უარყოფით შეფასებას. თუმცა ბევრმა მკვლევარმა უარყო ასეთი დასკვნები.
ამერიკულ ბაზარზე არსებობს უამრავი ინსტრუმენტი კანონმდებლობის ანალიზისთვის, პრეცედენტების ძიებისთვის, საქმეების შედეგების პროგნოზირებისთვის და ა.შ.
სახის ამომცნობი სისტემა უზრუნველყოფს სასამართლოს შენობებში უსაფრთხო წვდომას - იდენტიფიცირებს ვიზიტორებს და აფიქსირებს საეჭვო ქცევებს.
ასევე ფართოდ გამოიყენება ვირტუალური ასისტენტებიც. მაგალითად, ნიუ-მექსიკოს შტატში მოქმედებს ვირტუალური ასისტენტი სახელად "კლარა", რომელიც ამცირებს ბარიერებს სასამართლო სისტემაში, განსაკუთრებით დაუცველი ჯგუფებისთვის - მათთვის, ვინც არ ფლობს საკმარის რესურსს ან ენობრივ ცოდნას.
2023 წელს კოლუმბიის სასამართლო გახდა პირველი, რომელმაც სატრანსპორტო დავაზე სხდომა მეტავერსში (ციფრულად შექმნილი ვირტუალური სამყარო, სადაც ადამიანები მოქმედებენ როგორც ავატარები) ჩაატარა. ექსპერიმენტის ფარგლებში მოეწყო ვირტუალური სასამართლო დარბაზი და პროცესის მხარეებმა სხდომაში მონაწილეობა მიიღეს თავიანთი ავატარების მეშვეობით.
ალგორითმული მიკერძოება და დისკრიმინაციის რისკები
AI-ის მიმართ მაღალ მოლოდინებს - სისწრაფეს, ეფექტურობასა და ობიექტურობას თან ახლავს მნიშვნელოვანი საფრთხეებიც.
ერთ-ერთი ყველაზე საყურადღებო რისკია ალგორითმული მიკერძოება. ხელოვნური ინტელექტი თავისთავად არ არის მიკერძოებული, თუმცა ის სწავლობს იმ მონაცემებზე დაყრდნობით, რომლებშიც შესაძლოა ასახული იყოს ძველი სტერეოტიპები ან სოციალური დისბალანსი. თუ წარსულ მონაცემებში იკვეთება უთანასწორო მოპყრობა კონკრეტული ჯგუფების მიმართ, AI იმეორებს ამ მიკერძოებას და ზოგჯერ აძლიერებს კიდეც მას.
შედეგად, შესაძლოა შეიქმნას დისკრიმინაციული პრაქტიკა - ანუ უთანასწორო მოპყრობა რასის, სქესის ან სოციალური სტატუსის მიხედვით, რაც ირიბად აისახება ალგორითმის მიერ მიღებულ გადაწყვეტილებებზე.
მაგალითად, ერთი ასეთი შემთხვევა უკვე დაფიქსირდა აშშ-ში. ერთ-ერთმა სასამართლო ალგორითმმა, რომელიც აფასებდა განმეორებითი დანაშაულის რისკს, შავკანიან ქალს მიანიჭა უფრო მაღალი, ხოლო თეთრკანიან მამაკაცს - დაბალი რისკის ფაქტორი. მოგვიანებით გაირკვა, რომ ქალს აღარ ჩაუდენია სამართალდარღვევა, ხოლო მამაკაცმა კვლავ ჩაიდინა მძიმე დანაშაული.
ამან ნათლად აჩვენა, რომ თუ ალგორითმის სწავლება მოხდა მიკერძოებულ მონაცემებზე დაყრდნობით, ეს იწვევს არა მხოლოდ სისტემურ შეცდომებს, არამედ ეჭვქვეშ აყენებს მთლიანად სისტემის სანდოობას.
მსგავსი საფრთხეები აქტუალურია ნებისმიერი ქვეყნისთვის, მათ შორის - საქართველოსთვის. აუცილებელია, რომ სასამართლო სისტემებში დანერგილი AI-ის გადაწყვეტილებები არ შეიცავდეს დისკრიმინაციულ ნიშნებს - ენის, რეგიონის, სქესის, სოციალური ან თანამდებობრივი მონაცემების მიხედვით. ამისთვის საჭიროა ალგორითმების რეგულარული ტესტირება, ადამიანის უფლებების დაცვის სპეციალისტების ჩართვა და შედეგების მუდმივი მონიტორინგი.
ინსტიტუციური პასუხისმგებლობა
მიუხედავად იმისა, რომ ტექნოლოგია კერძო ან უცხო კომპანიების მიერ არის შექმნილი, ვინ არის პასუხისმგებელი იმაზე, თუ AI-იმ გამოიტანა უსამართლო გადაწყვეტილება? სახელმწიფო, რომელიც იყენებს მას, თუ კომპანია, რომელმაც შექმნა ტექნოლოგია?
რა თქმა უნდა, AI-ს გამოყენებაზე პასუხისმგებლობა ეკისება სახელმწიფოს. სწორედ სახელმწიფომ უნდა უზრუნველყოს, რომ AI-ს დანერგვის პროცესში დაცული იყოს სამართლიანობისა და თანასწორობის პრინციპები, ხოლო შეცდომების შემთხვევაში არსებობდეს მექანიზმი დაზარალებულთა სამართლებრივი დაცვისთვის.
ეს განსაკუთრებით მნიშვნელოვანია ისეთ სფეროებში, სადაც გადაწყვეტილებები განსაზღვრავს ადამიანის ბედს - მაგალითად, წინასწარი დაკავება, პირობითი მსჯავრი, პატიმრობა და სხვა...
ალგორითმების გამჭვირვალობა და გასაჩივრების უფლება
AI-ის მიერ მიღებული გადაწყვეტილება, განსაკუთრებით სამართალის სფეროში, არ უნდა იყოს გაუგებარი და შეუსაბამო ადამიანის კანონიერ უფლებებთან. საჭიროა სისტემის გამჭვირვალობა - თუ როგორ იმუშავა ალგორითმმა და რა მონაცემებზე დაყრდნობით მიიღო კონკრეტული გადაწყვეტილება.
რთული ნეირონული ქსელები ხშირად მუშაობენ ე.წ. "შავი ყუთის" პრინციპით - ისინი იძლევიან შედეგს, მაგრამ მიღებული გადაწყვეტილების ლოგიკურობის ახსნა ზოგჯერ ძალიან რთული, ან შეუძლებელია.
ეს წარმოადგენს სერიოზულ გამოწვევას სამართლებრივი სისტემებისთვის. მოქალაქეებს აქვთ უფლება იცოდნენ, რატომ მიიღეს მათ მიმართ კონკრეტული სამართლებრივი გადაწყვეტილება, ხოლო მოსამართლე ვალდებულია დაასაბუთოს თავისი ვერდიქტი - მიუთითოს მტკიცებულებები, კანონმდებლობის შესაბამისი ნორმები და ახსნას გარემოებები.
მაგრამ თუ სასამართლოს გადაწყვეტილება ნაწილობრივ ან სრულად ეფუძნებოდა ალგორითმის რეკომენდაციას, როგორ შეიძლება დავრწმუნდეთ მისი სამართლიანობისა და მიუკერძოებლობის ხარისხში?
სწორედ ამიტომ, სასამართლოებმა უნდა გამოიყენონ მხოლოდ ისეთი AI სისტემები რომელთაც შეუძლიათ ახსნან მიღებული გადაწყვეტილების ლოგიკურობა. წინააღმდეგ შემთხვევაში, იზრდება რისკი, რომ მივიღოთ სწრაფი, მაგრამ გაუგებარი და დაუსაბუთებელი გადაწყვეტილებები, რაც დაუშვებელია სამართლებრივ სახელწიფოებში.
მნიშვნელოვანია, რომ მოქალაქეს ჰქონდეს გადაწყვეტილების გასაჩივრების უფლება და შესაძლებლობა. ანუ AI არ უნდა იქცეს "შავი ყუთის" მსგავს ინსტანციად, რომლის წინაშეც ადამიანი უძლურია. სწორედ ამიტომ, ადამიანის უფლებების დაცვა AI სისტემებში უნდა იყოს არა მხოლოდ ტექნიკური, არამედ ღირებულებითი პრიორიტეტი.
მიუხედავად იმისა, რომ AI ტექნოლოგიები არ არის ცალსახად დადებითი ან უარყოფითი მოვლენა, მათი პოტენციალი უდავოდ გარდამტეხია სამართლის სფეროში. საზოგადოებას და სახელმწიფოს ერთად მოუწევთ მუშაობა, რომ ხელოვნური ინტელექტის გამოყენება ემსახურებოდეს არა მხოლოდ ეფექტიანობას, არამედ სამართლიანობას, თანასწორობას და ადამიანის უფლებების დაცვას.
დასკვნა: ტექნოლოგია როგორც საშუალება და არა მიზანი
ხელოვნური ინტელექტი მართლმსაჯულებაში უდავოდ ქმნის ახალ შესაძლებლობებს - ეფექტიანობის, ხელმისაწვდომობისა და წინასწარ პროგნოზირების მიმართულებით. თუმცა ტექნოლოგიამ არ შეიძლება ჩაანაცვლოს ადამიანის არსებითი როლი: მიუკერძოებლობა და მორალური თანაგრძნობა, რომლებიც აუცილებელია სამართლიანი გადაწყვეტილების მისაღებად.
AI უნდა დარჩეს ინსტრუმენტად, რომელიც დაეხმარება მოსამართლეს, და არა - ჩაანაცვლებს მას. სისტემის მთავარ ღირებულებად კვლავ უნდა დარჩეს ადამიანი და მისი უფლებები.
ამიტომ, ვიდრე სამართალს ტექნოლოგიას გადავაბარებთ, აუცილებელია:
• მკაფიო სამართლებრივი ჩარჩოები - განსაზღვრული რეგულაციები AI-ის გამოყენების ფარგლების, მეთოდების და პასუხისმგებლობის შესახებ;
• გამჭვირვალობა და ახსნის შესაძლებლობა - მხოლოდ ისეთი სისტემების გამოყენება, რომლებიც დაასაბუთებენ თავიანთ გადაწყვეტილებებს;
• დამოუკიდებელი მონიტორინგი - ტექნოლოგიის დანერგვაში ჩართულნი უნდა იყვნენ ადამიანის უფლებების ექსპერტები, ტექნოლოგიებისა და სფეროს სპეციალისტები და სამოქალაქო საზოგადოება;
• გასაჩივრების მექანიზმები - მოქალაქეებს უნდა ჰქონდეთ საშუალება, გაასაჩივრონ AI-ის რეკომენდაციებზე დაფუძნებული გადაწყვეტილებები.
მომავლის სასამართლო არ უნდა გახდეს ემოციისგან დაცლილი მექანიკური მანქანა. ტექნოლოგია უნდა ემსახურებოდეს არა წესრიგს, არამედ სამართლიანობას.