Vom vedea în curând roboţi-judecători în sălile de judecată? Inteligenţa artificială va fi un dezastru?

Viziunile SF despre viitor includ multe versiuni de Inteligență Artificială (AI), dar există puține exemple în care software-ul înlocuiește judecătorii umani. Însă, în februarie 2023, un judecător columbian a cerut îndrumări lui ChatGPT cu privire la modul de a decide un caz de asigurare. Cam în același timp, un judecător pakistanez a folosit ChatGPT pentru a-și confirma deciziile în două cazuri separate. Există, de asemenea, rapoarte despre judecători din India și Bolivia care solicită sfaturi de la ChatGPT.
Acestea sunt experimente neoficiale, dar în China, de exemplu, judecătorii sunt sfătuiți și asistați de AI, iar această dezvoltare este probabil să continue. Recent, Sir Geoffrey Vos – al doilea cel mai înalt judecător din Anglia și Țara Galilor – a sugerat că, pe măsură ce sistemul juridic din acea jurisdicție este digitalizat, AI ar putea fi folosită pentru a decide unele dispute mai puțin importante, cum ar fi cazurile comerciale.
Folosirea AI în sălile de judecată ar părea inițial a fi o idee bună. Legea ar trebui să fie aplicată imparțial și obiectiv, fără teamă sau favoruri. Şi, ce modalitate mai bună de a realiza acest lucru decât să folosim un program de calculator? AI nu are nevoie de o pauză de masă, nu poate fi mituită și nu vrea o creștere a salariului. Justiția AI poate fi aplicată mai rapid și mai eficient. Vom vedea, așadar, „judecători roboti” în sălile de judecată în viitor?
Dar există câteva motive pentru care aceasta ar putea să nu fie o idee bună. Mai întâi, AI acționează în general ca un sistem expert sau ca un sistem de învățare automată. Sistemele expert implică codificarea regulilor într-un model de decizii și consecințele acestora – numit arbore de decizie – în software. Aceștia și-au avut perioada de glorie în drept în anii 1980. Cu toate acestea, în cele din urmă s-au dovedit incapabili să ofere rezultate bune la scară largă.
Învățarea automată este o formă de AI în care îmbunătăţirea se face în timp. AI poate găsi corelații și modele în date pe care nu avem capacitatea de a le calcula. Cu toate acestea, una dintre punctele sale slabe este aceea că eșuează în moduri diferite de felul în care o fac oamenii, ajungând la concluzii care sunt în mod evident incorecte.
Într-un exemplu notabil, AI a fost păcălită să recunoască o țestoasă ca o armă. Recunoașterea facială are adesea probleme de identificare corectă a femeilor, a copiilor și a celor de culoare. Deci, este posibil ca AI să plaseze în mod eronat pe cineva la locul crimei care nu era acolo. Ar fi dificil să fii încrezător într-un sistem juridic care a produs rezultate clar incorecte, dar și foarte greu de revizuit, deoarece raționamentul din spatele învățării automate nu este transparent.
Atunci când AI este utilizată în procese legale și eșuează, consecințele pot fi grave. În 2023, un avocat din New York a folosit ChatGPT pentru a scrie observații la o instanță, numai că a descoperit că a citat cazuri care nu există.
Apoi, a nu se uita că sistemele de învățare automată se bazează pe date istorice. În criminalitate și drept, acestea vor conține adesea părtiniri și prejudecăți. Comunitățile marginalizate vor apărea adesea mai mult în înregistrările de arestări și condamnări, așa că un sistem AI ar putea trage concluzia nejustificată că oamenii din anumite medii au mai multe șanse de a fi vinovați.
În al treilea rând, nu este clar că normele legale pot fi convertite în mod fiabil în reguli software. Indivizii vor interpreta aceeași regulă în moduri diferite. Judecătorii individuali pot avea interpretări diferite ale legii.
Sistemele guvernamentale automate eșuează la o scară și o viteză uluitoare. Guvernul olandez a folosit un sistem automatizat (SyRI) pentru a detecta fraudele de beneficii, acuzând în mod greșit multe familii, distrugând vieți în acest proces.
În cele din urmă, a judeca nu este tot ceea ce fac judecătorii. Ei au multe alte roluri în sistemul juridic, cum ar fi gestionarea unei săli de judecată, a unui volum de dosare și a unei echipe de personal, iar acestea ar fi și mai dificil de înlocuit cu programe software.
ATENTIE! Intrucat nu toate sursele sunt de incredere si, uneori, este foarte greu pentru a fi verificate, unele articole de pe site-ul lovendal.ro trebuie sa fie luate cu precautie. Site-ul acesta nu pretinde ca toate articolele sunt 100% reale, scopul fiind acela de a prezenta mai multe puncte de vedere si opinii asupra unui anumit subiect (chiar daca acestea par a fi contradictorii). Asadar, erorile si ambiguitatile nu pot fi excluse complet. Prin urmare, nu ne asumam nicio responsabilitate pentru actualitatea, acuratetea, caracterul complet sau calitatea informatiilor furnizate. Utilizatorii folosesc continutul acestui site pe propriul risc.

Author: admin
Administrator site omenirea.ro

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *