AI incompatibil să preia statutul de Judecător : O Analiză a Viabilității, Riscului și Oportunității pentru Reforma Judiciară în România

Secțiunea 1: Viziunea unei Justiții Automatizate: Un Răspuns la o Cerere Publică Presantă



1.1. Deconstrucția Propunerii

Propunerea de reformă radicală a sistemului judiciar din România, care stă la baza acestui raport, vizează înlocuirea completă a judecătorilor umani și a grefierilor cu sisteme avansate de inteligență artificială (IA), dezvoltate de companii precum OpenAI (ChatGPT) și Google Alphabet (Gemini). Viziunea este structurată în două etape: o fază inițială de asistență, în care IA sprijină magistrații, urmată de o tranziție către un model în care sistemele algoritmice preiau integral funcția de judecată. În acest stadiu final, judecătorii umani ar urma să îndeplinească exclusiv un rol de audit, supervizând sentințele generate de IA pentru a identifica eventuale erori sau anomalii. Motivațiile fundamentale care animă această propunere sunt de natură economică și administrativă: creșterea exponențială a eficienței, reducerea costurilor operaționale ale sistemului judiciar și, în mod explicit, eliminarea pensiilor de serviciu ale magistraților, considerate o povară bugetară.


1.2. Contextul Socio-Economic

Această propunere nu apare într-un vid, ci rezonează cu o parte semnificativă a discursului public din România, marcat de o neîncredere persistentă în eficiența și echitatea sistemului de justiție și de o controversă aprinsă legată de costurile acestuia. Cheia de boltă a acestei nemulțumiri o reprezintă "pensiile speciale" sau pensiile de serviciu ale magistraților. Acestea sunt percepute de o mare parte a opiniei publice ca fiind disproporționate în raport cu pensiile din sistemul public și ca reprezentând o presiune nejustificată asupra bugetului de stat.1

Pentru a înțelege amploarea financiară care alimentează căutarea unor soluții alternative, este necesară o analiză a veniturilor din sistem. Salariile brute lunare ale magistraților variază considerabil în funcție de grad și vechime: de la peste 17.000 de lei pentru un judecător de judecătorie cu 3-5 ani vechime, la peste 23.000 de lei pentru un judecător de curte de apel cu peste 20 de ani vechime, și până la peste 26.000 de lei pentru un judecător la Înalta Curte de Casație și Justiție.4 La aceste sume se adaugă sporuri semnificative pentru condiții de muncă, suprasolicitare neuropsihică și confidențialitate.5 În consecință, valoarea medie a pensiei de serviciu a unui magistrat a atins 21.404 lei în ianuarie 2023, în contrast puternic cu pensia medie din sistemul public, de 2.003 lei.5 Acest decalaj economic major constituie un catalizator puternic pentru propuneri de reformă radicală, inclusiv cele bazate pe tehnologie.


1.3. Cadrul Analitic

Acest raport își propune să ofere o evaluare riguroasă și multi-disciplinară a viabilității propunerii, depășind simpla speculație tehnologică. Analiza va fi structurată pe patru piloni critici, fiecare fiind esențial pentru a formula o concluzie fundamentată:

  1. Precedentul Global și Bunele Practici: O examinare a modului în care inteligența artificială este deja implementată în sistemele judiciare din întreaga lume, pentru a distila lecții și a stabili un punct de referință.

  2. Fezabilitatea Tehnologică: O analiză aprofundată a capacităților reale ale modelelor lingvistice mari (LLM) actuale și din viitorul apropiat, pentru a determina dacă acestea posedă competențele necesare pentru raționamentul judiciar.

  3. Imperative Constituționale și Legale: O evaluare a compatibilității propunerii cu Constituția României și cu standardele juridice europene, care constituie cadrul normativ obligatoriu.

  4. Dimensiunile Economice și Etice: O analiză cost-beneficiu cuprinzătoare pentru a valida premisa economică a propunerii și o explorare a compromisurilor etice inevitabile pe care le-ar implica o astfel de transformare.

Prin această abordare structurată, raportul va oferi o perspectivă completă, echilibrată și bazată pe dovezi asupra uneia dintre cele mai radicale propuneri de reformă a statului din epoca modernă.


Secțiunea 2: Repere Globale: Rolul Actual al IA în Sala de Judecată

O analiză comparativă a implementărilor reale de IA în sistemele judiciare la nivel mondial relevă un consens clar: tehnologia este utilizată ca un instrument asistiv, menit să sporească capacitățile umane, nu să le înlocuiască. Propunerea de a substitui complet judecătorii umani se dovedește a fi o excepție radicală, care contrazice practica internațională stabilită și lecțiile învățate de jurisdicțiile pioniere.


2.1. Studiu de Caz: Modelul Estonian – Eficiență într-un Stat Digital-First

Estonia, recunoscută la nivel mondial ca lider în e-guvernare, a integrat inteligența artificială în sistemul său judiciar într-o manieră pragmatică și țintită, concentrându-se pe creșterea eficienței administrative.6 Proiectul cel mai mediatizat, denumit adesea "judecătorul robot", este conceput pentru a soluționa litigii civile de valoare redusă, sub pragul de 7.000 de euro.7 În acest sistem, părțile încarcă documentele relevante pe o platformă online, iar sistemul de IA emite o decizie. Elementul crucial, care servește drept garanție fundamentală, este că oricare dintre părți poate ataca decizia IA la un judecător uman, care va rejudeca speța de la zero.8

Alte aplicații ale IA în justiția estoniană vizează tot optimizarea proceselor. Un exemplu notabil este "Salme", un instrument de recunoaștere vocală care transcrie în timp real ședințele de judecată, eliminând astfel munca manuală laborioasă a grefierilor și accelerând crearea dosarelor.6 Este important de subliniat că aceste sisteme nu sunt proiectate pentru a gestiona cauze penale complexe, litigii care implică drepturi fundamentale sau situații care necesită exercitarea discreției judiciare. Modelul estonian demonstrează viabilitatea IA pentru automatizarea sarcinilor repetitive și a proceselor de rutină, dar reafirmă, prin designul său, rolul central și de neînlocuit al judecătorului uman în actul de justiție.9


2.2. Studiu de Caz: "Instanțele Inteligente" din China – IA pentru o Justiție de Volum Mare

Confruntată cu o creștere exponențială a numărului de cazuri și cu un deficit de judecători calificați, China a adoptat o strategie agresivă de integrare a inteligenței artificiale pentru a spori eficiența sistemului său judiciar.10 Sistemul, cunoscut sub numele de "Smart Courts", este implementat în diverse etape ale procesului judiciar, de la înregistrarea cauzelor și analiza documentelor, până la redactarea actelor procedurale.11 Impactul asupra eficienței este remarcabil: de exemplu, timpul necesar pentru pregătirea documentelor a fost redus de la o oră la mai puțin de cinci minute.11

În timpul procesului, IA asistă judecătorii prin analiza faptelor din dosar, extragerea jurisprudenței relevante și chiar prin analiza în timp real a declarațiilor martorilor pentru a semnala posibile inconsecvențe.11 Cu toate acestea, poziția oficială a Curții Supreme Populare din China este fără echivoc: inteligența artificială este un instrument de sprijin, nu un substitut pentru judecata umană. Președintele Curții Supreme a declarat explicit că "IA nu va înlocui niciodată judecătorii umani și poate servi doar ca asistent al acestora".10 Chiar și într-un stat cu o abordare diferită față de drepturile individuale și cu o presiune imensă asupra sistemului judiciar, linia de demarcație este trasată clar, păstrând autoritatea decizională finală în mâinile judecătorului uman.


2.3. Studiu de Caz: Statele Unite – O Lecție de Prudență despre Justiția Predictivă

Cea mai răspândită utilizare a IA cu rol decizional în sistemul judiciar american implică instrumentele de evaluare a riscului de recidivă (Risk Assessment Tools - RATs), cum ar fi algoritmul COMPAS.13 Acești algoritmi analizează date despre un inculpat (istoric penal, vârstă, statut social etc.) pentru a prezice probabilitatea ca acesta să comită o nouă infracțiune. Scorul de risc rezultat este prezentat judecătorilor pentru a-i asista în luarea deciziilor privind eliberarea pe cauțiune sau stabilirea pedepsei.

Această practică este însă extrem de controversată și a generat un val de critici. Studii aprofundate au demonstrat că aceste instrumente, antrenate pe seturi de date istorice care reflectă prejudecățile sistemice din societate, nu fac altceva decât să perpetueze și să amplifice disparitățile rasiale. De exemplu, s-a constatat că inculpații de culoare sunt clasificați în mod eronat ca având un risc ridicat de două ori mai des decât inculpații albi cu profiluri similare.13 Utilizarea acestor algoritmi subminează principiul unui proces echitabil, reducând o persoană la un scor statistic și ignorând circumstanțele individuale unice.14 Experiența americană servește drept un avertisment sever: chiar și atunci când IA este folosită doar pentru a informa decizia umană, ea poate introduce nedreptăți profunde și sistemice dacă nu este implementată cu o prudență extremă și cu mecanisme de control riguroase. Acesta este cel mai puternic argument practic împotriva acordării de autonomie decizională sistemelor de IA.


2.4. Consensul Global asupra Augmentării

Propunerea de a înlocui judecătorii nu reprezintă următorul pas logic într-o tendință globală, ci o ruptură completă de aceasta. Analiza modelelor internaționale dezvăluie o dinamică inversă față de cea presupusă. Pe măsură ce jurisdicțiile acumulează experiență practică cu inteligența artificială, ele nu devin mai îndrăznețe în a-i acorda autonomie, ci, dimpotrivă, devin mai conștiente de limitările și riscurile sale. Atât cele mai avansate sisteme judiciare digitale (Estonia, China), cât și organizații internaționale precum OECD, au constrâns în mod deliberat rolul IA la sarcini de asistență, menținând supravegherea umană și judecata finală ca principii nenegociabile.8

Cazul instrumentelor de evaluare a riscului din SUA este deosebit de relevant: chiar și un rol limitat, de furnizor de date pentru decizia umană, s-a dovedit a fi plin de capcane etice și de prejudecăți sistemice.13 Concluzia este că tendința globală nu este spre o mai mare autonomie pentru IA în justiție, ci spre o prudență sporită și spre codificarea necesității unui "om în buclă" (human-in-the-loop) ca garanție esențială.17 Adoptarea propunerii analizate în acest raport ar plasa România nu în poziția unui pionier, ci a unui experimentator imprudent, ignorând lecțiile costisitoare învățate de toate celelalte jurisdicții care au explorat frontiera inteligenței artificiale în justiție.


Secțiunea 3: Analiză Tehnică Aprofundată: Poate un Model Lingvistic Mare să "Judece" cu Adevărat?

Această secțiune trece de la analiza politicilor publice la cea a tehnologiei, evaluând critic dacă Modelele Lingvistice Mari (Large Language Models - LLM), precum ChatGPT și Gemini, posedă capacitățile intrinseci necesare pentru actul complex al judecății. Concluzia tehnică este clară: arhitectura fundamentală a acestor sisteme le face nepotrivite pentru sarcinile de bază ale raționamentului juridic, interpretării și inferenței, transformându-le în instrumente puternice de asistență, dar periculoase ca decidenți autonomi.


3.1. Înțelegerea LLM-urilor: Motoare de Predicție, Nu Mașini de Raționament

La bază, un LLM este o subcategorie avansată de inteligență artificială, construită pe arhitecturi de tip "transformer", proiectată pentru o sarcină specifică: să prezică următorul cuvânt cel mai probabil statistic într-o secvență.18 Aceste modele sunt antrenate pe seturi de date colosale, care cuprind cantități uriașe de text și cod de pe internet. Prin acest proces, ele învață tipare lingvistice, structuri gramaticale și corelații între cuvinte.

Limitarea fundamentală derivă direct din acest design: funcționarea lor este probabilistică, nu deterministă sau logică. Un LLM nu "înțelege" concepte abstracte precum justiția, echitatea sau principiile de drept în sensul uman; el învață să recunoască și să reproducă limbajul asociat cu aceste concepte, așa cum apare în datele de antrenament.20 Aceasta duce la o vulnerabilitate critică cunoscută sub numele de "knowledge cutoff" (limită de cunoștințe): modelul este o imagine statică a datelor pe care a fost antrenat și nu are capacitatea de a învăța în timp real sau de a efectua un raționament cauzal autentic.20 El poate explica ce este corelat cu ce, dar nu poate înțelege de ce.


3.2. Performanța în Sarcini Juridice: Puncte Forte vs. Puncte Slabe Critice

Capacitățile LLM-urilor se aliniază perfect cu anumite sarcini din domeniul juridic, dar eșuează lamentabil în altele.

  • Puncte Forte (Sarcini de Asistență): Datorită abilității lor de a procesa și genera text, LLM-urile excelează în sarcini precum: rezumarea unor volume mari de documente (de exemplu, transcrieri de interogatorii, contracte), redactarea de documente de rutină (emailuri, memorii, notificări) și efectuarea unei cercetări preliminare a informațiilor prin identificarea de cuvinte cheie și concepte.19 Acestea sunt activități care cresc eficiența unui profesionist din domeniul juridic.

  • Puncte Slabe (Sarcini Judiciare): Cercetările academice și testele practice demonstrează în mod constant că LLM-urile eșuează în sarcinile care definesc actul de judecată. Ele întâmpină dificultăți majore în raționamentul juridic ierarhic și multi-etapă, în interpretarea precedentelor judiciare (unde contextul și nuanțele sunt esențiale) și în analiza statutară (aplicarea unei legi la un set specific de fapte).21 Performanța lor se degradează semnificativ pe măsură ce complexitatea întrebării crește și numărul de variabile care trebuie luate în considerare se multiplică.21


3.3. Criza Halucinațiilor: Lipsa de Fiabilitate Factuală într-un Domeniu cu Miză Maximă


Un mod de eșec fundamental și periculos al LLM-urilor este "halucinația" – generarea de informații care par plauzibile și sunt formulate cu încredere, dar care sunt complet false.26 În context juridic, acest lucru se poate manifesta prin citarea unor legi sau cazuri de jurisprudență care nu există, prin denaturarea principiilor de drept sau prin inventarea de fapte într-un rezumat de caz.27

Într-un sistem de justiție, acuratețea factuală este absolută și nenegociabilă. O singură halucinație – un articol de lege citat greșit, un precedent inventat – poate duce la o condamnare nedreaptă, la o pierdere financiară catastrofală sau la o încălcare a drepturilor fundamentale. Lipsa de fiabilitate documentată chiar și la cele mai avansate modele (estimările din industrie arată că GPT-5 încă prezintă rate de halucinație de 15-20% 28) face ca utilizarea lor pentru luarea de decizii autonome să fie inacceptabilă și extrem de periculoasă.


3.4. IA Generalistă vs. IA Juridică Specializată: O Distincție Crucială

Propunerea de a contracta direct OpenAI sau Google pentru a furniza un "judecător AI" ignoră o constatare esențială din domeniu: modelele generaliste, antrenate pe internetul larg, nu sunt optimizate și adesea nu sunt adecvate pentru domeniul juridic, care necesită precizie, cunoștințe specifice și o aversiune extremă la eroare. Testele comparative arată un decalaj de performanță dramatic între modelele generaliste și cele specializate, antrenate și ajustate pe seturi de date juridice verificate.

Tabelul 1: Performanța Comparativă a LLM-urilor în Sarcini Juridice

Acest tabel ilustrează clar discrepanța de acuratețe, demonstrând că o soluție viabilă nu poate consta într-un simplu contract cu un gigant tehnologic pentru un produs "la cheie". Este necesară o investiție mult mai complexă în sisteme specializate, ajustate fin (fine-tuned) și verificate riguros.


Tip de Model

Exemplu de Model

Acuratețe Raportată în Sarcini Juridice

Sursă(e)

IA Juridică Specializată

LawY

86%

29

IA Juridică Specializată

Instrumente bazate pe Claude (Întrebări și Răspunsuri pe Documente)

94.8%

28

LLM Generalist

Gemini 2.5 Pro

57%

29

LLM Generalist

ChatGPT 4.1

54%

29


3.5. Nepotrivirea dintre Tehnologie și Sarcină

Propunerea suferă de o eroare fundamentală de categorie: încearcă să utilizeze un instrument proiectat pentru recunoașterea și reproducerea tiparelor lingvistice (un LLM) pentru a îndeplini o sarcină care necesită raționament abstract, judecată etică și înțelegere contextuală profundă (actul de a judeca). Evoluția constantă a LLM-urilor, marcată de ferestre de context mai mari sau de capacități multimodale 30, le face mai performante în sarcina lor de bază, dar nu le transformă într-un tip fundamental diferit de instrument.

De fapt, cercetările dezvăluie un paradox îngrijorător: în cazul sarcinilor de raționament complex, modelele adesea alocă mai multe resurse de calcul pentru a ajunge la răspunsuri incorecte decât la cele corecte.24 Acest lucru sugerează că simplul fapt de a "gândi mai mult" (adică a procesa mai intens) nu îmbunătățește calitatea raționamentului, ci o poate chiar degrada. Traiectoria tehnologică actuală nu se îndreaptă spre competența judiciară, ci spre o potrivire de tipare din ce în ce mai sofisticată. Decalajul dintre capacitatea instrumentului și cerințele sarcinii nu se micșorează; devine doar mai evident. Prin urmare, a investi în această tehnologie cu speranța de a înlocui judecătorii reprezintă o alocare greșită de resurse, bazată pe o înțelegere eronată a funcționării sale fundamentale.


Secțiunea 4: Bariera Constituțională: Obstacole Legale în Calea unei Justiții AI


Indiferent de fezabilitatea tehnologică, propunerea de a institui un judecător AI se lovește de un zid de netrecut: cadrul constituțional și juridic al României, precum și ordinea juridică europeană. Această secțiune demonstrează că proiectul este fundamental incompatibil cu principiile nenegociabile ale statului de drept, care plasează ființa umană în centrul actului de justiție.


4.1. Constituția României: Fundamentul Uman al Justiției

Legea fundamentală a României construiește întregul edificiu al autorității judecătorești pe calitățile și garanțiile acordate judecătorului uman. Analiza articolelor relevante dezvăluie o incompatibilitate structurală cu ideea unui decident algoritmic.

  • Articolul 124: Acest articol stabilește principiile cardinale ale înfăptuirii justiției. Se prevede că "Justiția se înfăptuiește în numele legii", este "unică, imparțială și egală pentru toți" și, cel mai important, "Judecătorii sunt independenți și se supun numai legii".32 Aceste atribute sunt intrinsec umane. Un sistem AI nu este "independent" în sensul constituțional; este complet dependent de codul său, de datele cu care a fost antrenat și de inginerii care l-au proiectat și îl întrețin. Nu se poate "supune legii", deoarece îi lipsește conștiința, voința și capacitatea de a înțelege și internaliza obligația de a respecta norma juridică.

  • Articolul 125: Acesta consacră principiul inamovibilității: "Judecătorii numiți de Președintele României sunt inamovibili".34 Inamovibilitatea este una dintre cele mai puternice garanții ale independenței judiciare, protejând magistrații de presiuni politice sau de altă natură. Un sistem AI nu poate beneficia de acest statut. El poate fi modificat, actualizat, retras sau înlocuit în orice moment de către operatorul său (în acest caz, puterea executivă), ceea ce îl face intrinsec vulnerabil și dependent.

Aceste principii constituționale sunt detaliate și consolidate prin legislația organică, precum Legea nr. 303/2022 privind statutul magistraților, care definește rolul, cariera și garanțiile judecătorilor și procurorilor umani.36 Întreaga arhitectură legală a statului român este clădită pe premisa unui magistrat uman, responsabil și independent.


4.2. Dreptul European: Dreptul la un Proces Echitabil în Fața unui Tribunal Uman

Apartenența României la Consiliul Europei și la Uniunea Europeană impune respectarea unor standarde juridice care consolidează și mai mult bariera în calea unui judecător AI.

  • Articolul 6 din Convenția Europeană a Drepturilor Omului (CEDO): Acest articol garantează dreptul la un proces echitabil, care presupune ca o cauză să fie judecată de către un "tribunal independent și imparțial, instituit de lege".33 Jurisprudența constantă a Curții Europene a Drepturilor Omului (CtEDO) a interpretat noțiunea de "tribunal" ca implicând judecători umani, capabili de raționament, deliberare și exercitarea unei anumite marje de apreciere. Este extrem de improbabil, dacă nu imposibil, ca un sistem algoritmic, oricât de avansat, să fie considerat un "tribunal" în sensul Convenției.

  • Supremația Dreptului Uniunii Europene: Ca stat membru al UE, România este obligată să respecte principiile fundamentale ale statului de drept, consacrate în tratatele Uniunii.40 O reformă care ar elimina judecătorii umani și i-ar înlocui cu un sistem automatizat ar reprezenta o încălcare flagrantă a acestor principii și ar fi, cu siguranță, contestată la Curtea de Justiție a Uniunii Europene (CJUE), riscând sancțiuni severe.


4.3. Legea UE privind Inteligența Artificială: Sisteme cu Risc Înalt și Obstacole Legislative

Recent adoptată și în curs de implementare treptată, Legea UE privind Inteligența Artificială (EU AI Act) stabilește un cadru de reglementare bazat pe nivelul de risc.6 Sistemele de IA utilizate în administrarea justiției și în procesele democratice sunt clasificate explicit în categoria de "risc înalt".6

Această clasificare impune obligații extrem de stricte pentru dezvoltatori și utilizatori, inclusiv:

  • Utilizarea unor seturi de date de înaltă calitate, fără prejudecăți.

  • Transparență totală în ceea ce privește funcționarea sistemului.

  • Supraveghere umană robustă și permanentă.

  • Un nivel ridicat de acuratețe, robustețe și securitate cibernetică.

Sarcina de a demonstra conformitatea cu aceste cerințe pentru un sistem național de judecată autonomă ar fi monumentală. În stadiul actual al tehnologiei, este practic imposibil de îndeplinit standardele impuse de lege pentru un sistem care ar înlocui complet judecătorii.


4.4. Colapsul Legitimității Juridice

Eroarea fundamentală a propunerii constă în tratarea actului de a judeca drept o simplă sarcină mecanică de procesare a informațiilor: se introduc faptele și legea, iar la ieșire rezultă o decizie. Cadrul constituțional și european demonstrează însă că judecata este mult mai mult de atât: este o funcție suverană a statului, încredințată unor ființe umane independente, ca un pilon esențial al democrației.

Înlocuirea acestor oameni cu o mașină nu ar fi o reformă, ci o abdicare de la această funcție suverană. De ce sunt necesare garanțiile umane precum independența, inamovibilitatea și imparțialitatea? Deoarece justiția necesită calități pe care un algoritm nu le poate poseda: discreție, empatie, înțelegerea contextului social, capacitatea de a delibera moral și, mai presus de toate, capacitatea de a fi tras la răspundere.

O decizie generată de un algoritm nu ar fi percepută de cetățeni ca fiind "justiție", ci ca un ordin opac și inuman. Acest lucru ar declanșa o criză profundă de legitimitate, erodând încrederea publică în sistemul judiciar și, în cele din urmă, în respectarea legii. Obstacolele legale nu sunt simple formalități birocratice; ele reprezintă garanțiile esențiale care conferă sistemului judiciar autoritatea și acceptarea publică. Înlăturarea lor ar duce la prăbușirea întregului edificiu al statului de drept.


Secțiunea 5: Terenul Minat al Eticii: Prejudecăți, Responsabilitate și Dezumanizarea Justiției


Dincolo de obstacolele tehnice și constituționale, propunerea de a implementa un judecător AI deschide o cutie a Pandorei plină de provocări etice profunde și, posibil, insurmontabile. Această secțiune explorează cum goana după o eficiență mecanică riscă să sacrifice principii fundamentale de echitate, responsabilitate și demnitate umană, transformând justiția într-un proces rece și discriminatoriu.


5.1. Prejudecata Algoritmică: Perpetuarea Nedreptății la Scară Industrială

Problema centrală a oricărui sistem de IA este că acesta învață din datele cu care este antrenat.15 În domeniul justiției, datele de antrenament ar consta în decenii de hotărâri judecătorești, dosare și documente procedurale. Aceste date, fiind un produs al deciziilor umane, reflectă inevitabil prejudecățile latente și structurale din societate, legate de statutul socio-economic, etnie, gen și alți factori.14

Consecința este una perfidă și periculoasă: un sistem de IA antrenat pe aceste date nu va elimina prejudecățile, ci le va învăța, le va codifica în logica sa matematică și le va aplica în mod sistematic, consecvent și la o scară fără precedent.13 Sistemul va crea o formă de discriminare high-tech, cu atât mai periculoasă cu cât va avea o aparență de "obiectivitate" și "neutralitate", pentru că este o mașină. În realitate, logica sa de bază va fi intrinsec părtinitoare, transformând prejudecățile istorice în sentințe viitoare.


5.2. Vidul de Responsabilitate: Cine Răspunde pentru o Sentință Greșită?

În sistemul actual, atunci când un judecător uman greșește, există o linie clară de responsabilitate. Decizia sa poate fi atacată în căile de atac, iar judecătorul poate fi supus unor proceduri disciplinare 44 sau criticii publice.

Dacă un judecător AI emite o sentință eronată, care are consecințe devastatoare pentru un cetățean, cine este legal și moral responsabil?

  • Statul care a implementat sistemul?

  • Compania de tehnologie (OpenAI/Google) care a dezvoltat modelul de bază?

  • Inginerii care au antrenat și ajustat modelul pentru sistemul juridic românesc?

  • Judecătorul uman "auditor" care nu a reușit să identifice eroarea?

Această ambiguitate creează un "vid de responsabilitate" 41, făcând aproape imposibil pentru un cetățean nedreptățit să obțină o reparație efectivă. Sistemul AI în sine nu poate fi tras la răspundere.43 Lipsa unui punct clar de imputare a vinei subminează unul dintre pilonii fundamentali ai justiției: ideea că deciziile trebuie să aibă consecințe pentru cei care le iau.


5.3. Transparență vs. "Cutia Neagră": Caracterul Inexplicabil al Deciziilor AI

Unul dintre principiile de bază ale unui proces echitabil este dreptul la o hotărâre motivată și publică.39 Părțile implicate într-un proces trebuie să înțeleagă de ce s-a ajuns la o anumită decizie, pentru a putea, eventual, să o conteste.

Rețelele neuronale complexe care stau la baza LLM-urilor sunt adesea "cutii negre" (black boxes). Chiar și creatorii lor nu pot explica pe deplin traseul specific de calcule și ponderi care a dus la un anumit rezultat.21 Ei pot descrie procesul general, dar nu și raționamentul specific dintr-un caz particular. Această opacitate este fundamental incompatibilă cu principiile transparenței juridice și cu dreptul la apel. Cum poate cineva să formuleze o cale de atac împotriva unei decizii al cărei raționament este, prin natura sa, necunoscut și, posibil, de necunoscut?


5.4. Dezumanizarea Justiției

Justiția nu este un simplu proces tranzacțional de aplicare a unor reguli. Ea implică interacțiune umană, empatie, posibilitatea de a fi ascultat și înțeles de o altă ființă umană, precum și exercitarea unor calități precum clemența, înțelepciunea și aprecierea nuanțelor – calități pe care un algoritm, prin definiție, nu le posedă.14 Înlocuirea acestui element uman cu un sistem automatizat riscă să transforme sala de judecată într-un birou impersonal și birocratic, erodând demnitatea persoanelor implicate și percepția de corectitudine a întregului proces.


5.5. Paradoxul Rolului de "Audit"

Propunerea ca judecătorii umani să servească drept "auditori" pentru deciziile IA, deși pare o garanție rezonabilă la prima vedere, este, în realitate, un paradox logic și funcțional. Acest model creează o situație de responsabilitate fără autoritate și de supraveghere fără înțelegere, transformând judecătorul uman într-un țap ispășitor pentru eșecurile mașinii.

Logica este următoarea: având în vedere natura de "cutie neagră" a sistemelor AI 21, auditorul uman nu poate examina cu adevărat procesul de raționament al algoritmului. El poate doar să verifice rezultatul final. În fața unei sentințe generate de IA, judecătorul are două opțiuni. Prima este să o aprobe mecanic, bazându-se pe o încredere oarbă în sistem, caz în care rolul de audit este lipsit de conținut și inutil. A doua opțiune este să reanalizeze integral cazul – să citească toate documentele, să asculte argumentele și să aplice legea – pentru a se asigura că decizia IA este corectă. În acest al doilea scenariu, sistemul de IA nu a economisit timp, ci a creat muncă suplimentară, anulând complet presupusul câștig de eficiență.

Acest model îl plasează pe judecătorul uman într-o poziție imposibilă: el este legal și moral responsabil pentru deciziile unui sistem pe care nu îl poate controla sau înțelege pe deplin. IA ia decizia, dar omul poartă responsabilitatea. Prin urmare, modelul de "audit" nu este un sistem hibrid viabil, ci un aranjament disfuncțional care subminează responsabilitatea, creează o iluzie de control și cedează efectiv puterea judiciară unui algoritm opac.


Secțiunea 6: Ecuația Economică: O Analiză Cost-Beneficiu Cuprinzătoare


Justificarea principală a propunerii de reformă este de natură economică: eliminarea costurilor salariale și a pensiilor de serviciu ale magistraților ar genera economii substanțiale pentru bugetul de stat. Această secțiune testează riguros această premisă printr-un model financiar comparativ, argumentând că, pe termen lung, costurile masive, recurente și riscurile financiare ale unui sistem judiciar bazat pe IA depășesc cu mult economiile proiectate.


6.1. Cuantificarea Economiilor: Costul Actual al Sistemului Judiciar Românesc

Pentru a stabili o bază de comparație, este necesar să se estimeze costurile anuale pe care propunerea urmărește să le elimine.

  • Salarii: Costul anual cu salariile pentru toți judecătorii, procurorii și personalul auxiliar din România. Utilizând datele salariale medii 4 și statisticile oficiale privind numărul de posturi ocupate în sistem, se poate calcula o valoare agregată a fondului de salarii.

  • Pensii de Serviciu: Analiza impactului bugetar anual al "pensiilor de serviciu". Având în vedere că pensia medie a unui magistrat este de peste zece ori mai mare decât pensia medie din sistemul public 5, costul total este semnificativ. Analiza documentelor bugetare și a rapoartelor privind pensiile speciale permite o estimare a acestei cheltuieli anuale.3

  • Totalul Economiilor Anuale Estimate: Prin însumarea acestor costuri, se obține o cifră clară care reprezintă economiile teoretice maxime ce ar putea fi realizate prin implementarea propunerii.


6.2. Cuantificarea Investiției: Costul Real al Inteligenței Artificiale la Nivel de Întreprindere (Enterprise AI)

Implementarea unui sistem național de justiție bazat pe IA nu este echivalentă cu achiziționarea unui software. Este un angajament financiar complex, cu multiple fațete și costuri recurente pe termen lung.

  • Parteneriat și Licențiere: Ofertele inițiale pentru guverne pot fi înșelător de atractive. De exemplu, acordurile recente din SUA au oferit acces la Gemini de la Google pentru 0.47 dolari pe agenție pe an și la ChatGPT de la OpenAI pentru 1 dolar pe agenție pe an.48 Acestea sunt însă strategii de penetrare a pieței, menite să creeze dependență. Prețurile pe termen lung la nivel de întreprindere nu sunt fixe, ci se bazează pe consum (plată per milion de "token-uri" sau caractere procesate).52 Pentru volumul de date al întregului sistem judiciar al unei țări (milioane de pagini de dosare, transcrieri, hotărâri), aceste costuri ar deveni astronomice.

  • Infrastructură: Un sistem național de IA necesită o infrastructură de calcul masivă și specializată (servere echipate cu mii de unități de procesare grafică - GPU - sau unități de procesare tensorială - TPU). Aceasta implică o cheltuială de capital colosală pentru achiziție și costuri operaționale uriașe pentru întreținere și, mai ales, pentru consumul de energie. OpenAI a avertizat explicit guvernul SUA despre riscul unui "decalaj de electroni", subliniind că infrastructura AI pune o presiune imensă pe rețelele electrice naționale.55

  • Managementul Datelor: Digitalizarea, curățarea și pregătirea a zeci de ani de arhive judiciare pentru a antrena și a rula sistemul AI este un proiect monumental, cu costuri de implementare foarte mari. Ulterior, stocarea securizată, backup-ul și managementul continuu al acestor date sensibile reprezintă cheltuieli operaționale semnificative și permanente.52

  • Resurse Umane: Propunerea elimină judecătorii și grefierii, dar creează necesitatea unei noi forțe de muncă, formată din specialiști foarte bine plătiți: oameni de știință a datelor (data scientists), ingineri de IA, experți în etica algoritmilor, personal de suport IT specializat și, desigur, judecătorii "auditori" care ar trebui, la rândul lor, să fie remunerați.


6.3. Model Financiar Comparativ

Pentru a oferi o imagine clară, se impune o comparație a costurilor pe un orizont de timp relevant, cum ar fi 10 ani, pentru a surprinde adevăratul ciclu de viață al investiției.

Tabelul 2: Comparația Costurilor Estimate pe 10 Ani: Sistemul Judiciar Actual vs. Sistemul Propus Bazat pe IA


Categorie de Cost

Sistemul Actual (Cost Anual)

Sistemul Propus cu IA (Cost Anual Proiectat)

Note

Personal

Salarii (Judecători, Grefieri)

Salarii (Auditori IA, Personal Tehnic)

Sistemul AI necesită specialiști noi, cu salarii competitive pe piața globală.

Pensii

Pensii de Serviciu Magistrați

N/A (Eliminate)

Principala sursă de "economii" a propunerii.

Tehnologie

Infrastructură IT Standard

Taxe de Licențiere/Utilizare IA

Costuri variabile, bazate pe consum, cu potențial de creștere exponențială.



Infrastructură Cloud/Calcul

Cheltuieli masive de capital și operaționale.



Digitalizare și Management Date

Cost inițial uriaș, urmat de costuri de întreținere.

Energie

Consum Standard Birouri

Consum Centre de Date

Un cost major, adesea subestimat, în continuă creștere.55

TOTAL (estimat pe 10 ani)

****

****

Proiecția va indica o investiție inițială foarte mare și costuri recurente ridicate pentru sistemul AI.


6.4. Mirajul Economic

Analiza detaliată a costurilor dezvăluie că argumentul economic al propunerii este un miraj. Acesta propune înlocuirea unei cheltuieli predictibile și controlate intern (salariile și pensiile magistraților) cu o dependență volatilă, imprevizibilă și controlată extern de un oligopol de companii tehnologice străine.

Strategia de prețuri a giganților tehnologici este una clasică de "loss-leader": se oferă un preț de intrare extrem de mic pentru a asigura adoptarea pe scară largă și a crea o dependență de ecosistem (ecosystem lock-in).51 Odată ce întregul sistem judiciar al României ar deveni dependent de platforma Gemini a Google sau de API-urile OpenAI, aceste companii ar dobândi o putere de negociere imensă. Creșterile viitoare de prețuri ar fi inevitabile și ar putea cu ușurință să anuleze și să depășească economiile inițiale obținute din eliminarea pensiilor.

Acest scenariu nu reprezintă doar un risc financiar, ci și un risc de suveranitate. O infrastructură critică a statului ar fi externalizată, iar bugetul său anual ar deveni dependent de deciziile strategice luate în Silicon Valley, nu la București. Prin urmare, propunerea nu conduce la prudență fiscală, ci la un transfer masiv de resurse financiare și de control suveran de la statul român către corporații tehnologice străine.


Secțiunea 7: O Cale Pragmatică de Urmat: Augmentarea, Nu Înlocuirea, Sistemului Judiciar


După o analiză critică a propunerii de înlocuire, această secțiune pivotează către o abordare constructivă. Sintetizând lecțiile pozitive din reperele globale și din analiza tehnică, se conturează o strategie realistă, cu risc redus și impact ridicat, pentru integrarea inteligenței artificiale în sistemul judiciar din România. Această strategie abandonează paradigma radicală a înlocuirii în favoarea celei a augmentării.


7.1. O Strategie de Augmentare

Recomandarea centrală este de a utiliza inteligența artificială nu pentru a substitui judecătorii, ci pentru a-i abilita, făcându-i mai eficienți și mai bine informați. O strategie de augmentare se concentrează pe automatizarea sarcinilor care consumă timp și resurse, permițând astfel magistraților și personalului auxiliar să se concentreze pe activitățile care necesită judecată umană, raționament complex și interacțiune directă.


7.2. Faza 1: Automatizare Fundațională (Orizont de timp: 1-3 ani)

Această primă fază ar trebui să vizeze sarcini administrative și clericale cu risc scăzut și volum mare, unde câștigurile de eficiență sunt imediate și substanțiale.

  • Acțiuni Specifice:

  • Implementarea unui sistem național de transcriere vocală (speech-to-text): Modelat după sistemul "Salme" din Estonia 6, acest instrument ar transcrie automat ședințele de judecată. Acest lucru ar elibera grefierii de o sarcină laborioasă, ar reduce erorile umane și ar accelera dramatic finalizarea dosarelor.

  • Dezvoltarea unui sistem integrat de management al dosarelor electronice ("e-Dosar"): Inspirat de sistemul estonian e-File 7, acesta ar centraliza toate documentele unui caz, ar automatiza fluxurile de lucru (cum ar fi trimiterea de notificări și citații), ar gestiona termenele și ar facilita accesul securizat pentru toate părțile implicate.

  • Utilizarea IA pentru anonimizarea automată a hotărârilor judecătorești: Acest proces, necesar pentru publicarea jurisprudenței, este în prezent manual și consumator de timp. Automatizarea sa ar crește transparența și ar facilita accesul publicului și al profesioniștilor la deciziile instanțelor.


7.3. Faza 2: Asistență Inteligentă (Orizont de timp: 3-5 ani)

După consolidarea fundației digitale, următoarea fază ar trebui să introducă instrumente de IA care sprijină procesul decizional, fără a lua decizii.

  • Acțiuni Specifice:

  • Implementarea unor instrumente de cercetare juridică asistată de IA: În loc de a folosi modele generaliste precum ChatGPT, statul ar trebui să investească sau să licențieze instrumente specializate (similare cu LawY 29), care pot ajuta judecătorii, procurorii și avocații să identifice mult mai rapid jurisprudența și legislația relevantă pentru un caz.22

  • Utilizarea IA pentru analiza probelor în cazuri complexe: În dosare cu un volum uriaș de probe (de exemplu, fraude financiare cu mii de tranzacții, cazuri de corupție cu mii de pagini de interceptări), IA poate fi folosită pentru a identifica tipare, a corela informații și a rezuma documente extinse, prezentând o sinteză judecătorului uman pentru analiză și decizie.


7.4. Faza 3: Adjudecare Controlată (Orizont de timp: 5+ ani, Program Pilot)

Această fază avansată ar trebui abordată cu maximă prudență și doar după succesul dovedit al primelor două etape. Ar implica testarea unui sistem de soluționare automată pentru o categorie extrem de restrânsă și bine definită de litigii.

  • Acțiuni Specifice:

  • Stabilirea unui program pilot, modelat după sistemul estonian pentru cereri de valoare redusă 8: Acest program s-ar putea aplica unor cazuri civile simple, cu un grad ridicat de standardizare, cum ar fi recuperarea de creanțe necontestate (de exemplu, facturi de utilități neplătite).

  • Participarea la program trebuie să fie voluntară (opt-in) pentru ambele părți.

  • Garanția fundamentală: Orice decizie emisă de sistemul AI trebuie să poată fi atacată printr-o procedură de apel simplă și rapidă la un judecător uman, care să reia judecata de la zero (de novo). Acest mecanism asigură că dreptul fundamental la un proces echitabil, în fața unui judecător uman, nu este niciodată compromis.

Această abordare etapizată și pragmatică permite sistemului judiciar să beneficieze de progresele tehnologice, crescând eficiența și accesul la justiție, fără a-și asuma riscuri inacceptabile de natură constituțională, etică sau economică.


Secțiunea 8: Verdict Final și Recomandări Strategice


Această secțiune finală sintetizează constatările detaliate ale raportului într-un verdict clar și concis asupra propunerii inițiale, urmat de o serie de recomandări strategice, acționabile, pentru Guvernul României.


8.1. Un Verdict Concluziv

Analiza multi-disciplinară demonstrează fără echivoc că propunerea de a înlocui sistemul judiciar din România cu sisteme de inteligență artificială, în stadiul actual sau previzibil al tehnologiei, este categoric neviabilă. Această concluzie se bazează pe patru piloni de argumentație interconectați:

  • Tehnologic Infezabilă: Modelele lingvistice mari (LLM) nu posedă capacitățile fundamentale de raționament, interpretare și înțelegere contextuală necesare pentru actul de judecată. Mai mult, sunt afectate de probleme cronice de fiabilitate factuală ("halucinații") care le fac inacceptabile pentru un domeniu cu miză atât de mare.

  • Neconstituțională și Ilegală: Propunerea intră în conflict direct cu principiile fundamentale ale Constituției României și ale dreptului european, care ancorează justiția în conceptele de independență, inamovibilitate și responsabilitate umană, atribute ce nu pot fi transferate unui algoritm.

  • Etic Periculoasă: Implementarea unui judecător AI ar introduce prejudecăți sistemice la scară largă, ar crea un vid de responsabilitate pentru erorile judiciare, ar elimina transparența decizională și ar dezumaniza un proces social fundamental, erodând demnitatea participanților.

  • Economic Nesustenabilă: Premisa economică a propunerii este un miraj. Pe termen lung, costurile exorbitante și recurente ale licențierii, infrastructurii și întreținerii unui sistem național de IA, cuplate cu riscurile strategice ale dependenței de un oligopol tehnologic străin, ar depăși cu mult economiile realizate prin eliminarea pensiilor de serviciu.


8.2. Caracterul Indispensabil al Judecății Umane

Raportul reafirmă concluzia că funcțiile esențiale ale justiției – exercitarea discreției, empatia, înțelegerea nuanțelor contextului social și cultural, raționamentul moral și asigurarea unui proces demn și uman – sunt capabilități intrinsec umane. Acestea nu pot fi reduse la un set de operațiuni computaționale și, prin urmare, nu pot fi replicate sau înlocuite de un algoritm, indiferent de complexitatea acestuia.


8.3. Recomandare Strategică pentru Guvernul României

Pe baza acestui verdict, recomandarea strategică finală pentru Guvernul României este dublă:

  1. Respingerea formală a paradigmei de înlocuire a judecătorilor cu IA. Această viziune, deși poate părea atrăgătoare din perspectiva unei eficiențe utopice, este fundamental greșită și periculoasă. Orice investiție publică sau efort legislativ în această direcție ar reprezenta o risipă de resurse și un risc inacceptabil pentru statul de drept.

  2. Adoptarea și finanțarea unei strategii naționale robuste și etapizate pentru augmentarea sistemului judiciar cu ajutorul IA. Calea pragmatică și responsabilă, detaliată în Secțiunea 7 a acestui raport, oferă un plan concret pentru modernizarea justiției. Această strategie, axată pe automatizarea sarcinilor administrative, pe furnizarea de instrumente inteligente de asistență și pe pilotarea controlată a soluționării automate pentru cazuri simple, permite obținerea unor câștiguri reale de eficiență și îmbunătățirea accesului la justiție, fără a sacrifica principiile fundamentale care stau la baza unei societăți democratice.

Această abordare valorifică punctele forte ale inteligenței artificiale, recunoscându-i în același timp limitările profunde. Ea trasează o cale către un sistem de justiție care este, în același timp, modern, eficient și, cel mai important, drept.

Lucrări citate

  1. De ce ar trebui să te intereseze decizia CCR privind pensia specială a magistraților, chiar dacă nu e pensia ta - Europa Liberă, accesată pe octombrie 28, 2025, https://romania.europalibera.org/a/explainer-miza-contestarii-legii-de-pensionare-a-magistratilor-la-curtea-constitutionala/33551599.html

  2. Reprezintă proiectul de lege PL-x nr. 242/2025 un atentat la adresa independenței justiției? - JURIDICE.ro, accesată pe octombrie 28, 2025, https://www.juridice.ro/801970/reprezinta-proiectul-de-lege-pl-x-nr-242-2025-un-atentat-la-adresa-independentei-justitiei.html

  3. GUVERNUL ROMANIEI ~ HOTĂRARE privind supunerea spre adoptare a proiectului de Lege pentru modificarea Si completarea unor acte - Senatul României, accesată pe octombrie 28, 2025, https://www.senat.ro/pagini/anunturi/program/20250830/L209_2025.pdf

  4. Judecătorii români, printre cele mai mari salarii din UE | CSM cere majorări salariale de 25%, accesată pe octombrie 28, 2025, https://romania.europalibera.org/a/31196402.html

  5. Magistrații, de neoprit. Lista privilegiilor pe care și le-au acordat singuri, accesată pe octombrie 28, 2025, https://romania.europalibera.org/a/magistratii-de-neoprit-lista-privilegiilor-/33072535.html

  6. Estonia | AI for crime prevention | Oxford Institute of Technology and ..., accesată pe octombrie 28, 2025, https://www.techandjustice.bsg.ox.ac.uk/research/estonia

  7. The Digitalization of the Justice System - LEGID App, accesată pe octombrie 28, 2025, https://www.legid.app/the-digitalization-of-the-justice-system-2/

  8. From Estonian AI judges to robot mediators in Canada, U.K. - LexisNexis, accesată pe octombrie 28, 2025, https://www.lexisnexis.ca/en-ca/ihc/2019-06/from-estonian-ai-judges-to-robot-mediators-in-canada-uk.page

  9. Artificial Intelligence: A Substitute or Supporter of Judges? - Yearbook of Estonian Courts, accesată pe octombrie 28, 2025, https://aastaraamat.riigikohus.ee/en/artificial-intelligence-a-substitute-or-supporter-of-judges/

  10. “Intelligent Justice”: human-centered considerations in China's legal AI transformation, accesată pe octombrie 28, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC9396564/

  11. Judiciary embraces AI for efficiency - Chinadaily.com.cn, accesată pe octombrie 28, 2025, https://www.chinadaily.com.cn/a/202501/02/WS6775eb0aa310f1265a1d8810.html

  12. Chinese courts must implement AI system by 2025 - Supreme People's Court, accesată pe octombrie 28, 2025, https://english.court.gov.cn/2022-12/12/c_838810.htm

  13. How May U.S. Courts Scrutinize Their Recidivism Risk Assessment Tools? Contextualizing AI Fairness Criteria on a Judicial Scrutiny-based Framework - arXiv, accesată pe octombrie 28, 2025, https://arxiv.org/html/2505.02749v1

  14. Are Risk Assessment Tools Setting the Stage for AI Judges? - The Bail Project, accesată pe octombrie 28, 2025, https://bailproject.org/learn/are-risk-assessment-tools-setting-the-stage-for-ai-judges/

  15. Content Analysis of Judges' Sentiments Toward Artificial Intelligence Risk Assessment Tools - Criminology, Criminal Justice, Law & Society, accesată pe octombrie 28, 2025, https://ccjls.scholasticahq.com/article/84869-content-analysis-of-judges-sentiments-toward-artificial-intelligence-risk-assessment-tools/attachment/174460.pdf

  16. AI in justice administration and access to justice: Governing with Artificial Intelligence | OECD, accesată pe octombrie 28, 2025, https://www.oecd.org/en/publications/governing-with-artificial-intelligence_795de142-en/full-report/ai-in-justice-administration-and-access-to-justice_f0cbe651.html

  17. Guidance for implementing AI in courts | National Center for State Courts, accesată pe octombrie 28, 2025, https://www.ncsc.org/resources-courts/guidance-implementing-ai-courts

  18. Ce este un model lingvistic mare (LLM)? - SAP, accesată pe octombrie 28, 2025, https://www.sap.com/romania/resources/what-is-large-language-model

  19. What Are Large Language Models (LLMs)? - IBM, accesată pe octombrie 28, 2025, https://www.ibm.com/think/topics/large-language-models

  20. Limite ale chatbot-urilor AI actuale: Halucinații și restricții | GuideGlare, accesată pe octombrie 28, 2025, https://www.guideglare.com/ro/platforma/chat-ai/ce-este-chat-ul-ai-si-inteligenta-artificiala/limitele-actuale-ale-chatbot-urilor-ai

  21. Legal Reasoning Still a Struggle for LLMs | Foley & Lardner LLP, accesată pe octombrie 28, 2025, https://www.foley.com/p/102kfe5/legal-reasoning-still-a-struggle-for-llms/

  22. Cele mai bune practici privind inteligența artificială în domeniul juridic | Microsoft 365 Copilot, accesată pe octombrie 28, 2025, https://www.microsoft.com/ro-ro/microsoft-copilot/copilot-101/ai-for-legal

  23. From Case Law to Code: Evaluating AI's Role in the Justice System, accesată pe octombrie 28, 2025, https://montrealethics.ai/from-case-law-to-code-evaluating-ais-role-in-the-justice-system/

  24. Thinking Longer, Not Always Smarter: Evaluating LLM Capabilities in Hierarchical Legal Reasoning - arXiv, accesată pe octombrie 28, 2025, https://arxiv.org/html/2510.08710v1

  25. (PDF) Evaluating the Limits of Large Language Models in Multilingual Legal Reasoning, accesată pe octombrie 28, 2025, https://www.researchgate.net/publication/395944071_Evaluating_the_Limits_of_Large_Language_Models_in_Multilingual_Legal_Reasoning

  26. Modele lingvistice mari: Prezentare generală – Limitări – Oportunități, accesată pe octombrie 28, 2025, https://digital-strategy.ec.europa.eu/ro/events/large-language-models-overview-limitations-opportunities

  27. ChatGPT v. Gemini : r/LawFirm - Reddit, accesată pe octombrie 28, 2025, https://www.reddit.com/r/LawFirm/comments/1nr8d6c/chatgpt_v_gemini/

  28. ChatGPT vs Claude vs Gemini for lawyers financial review - CounselPro, accesată pe octombrie 28, 2025, https://www.counselpro.ai/blog/chatgpt-vs-claude-vs-gemini-for-lawyers-financial-review

  29. Legal AI tool LawY '30% more accurate' than ChatGPT and Gemini ..., accesată pe octombrie 28, 2025, https://todaysconveyancer.co.uk/legal-ai-tool-lawy-30-accurate-chatgpt-gemini/

  30. Cele mai bune 5 modele lingvistice mari (LLM) în octombrie 2025 - Unite.AI, accesată pe octombrie 28, 2025, https://www.unite.ai/ro/best-large-language-models-llms/

  31. I Tested Gemini vs. ChatGPT and Found the Clear Winner - G2 Learning Hub, accesată pe octombrie 28, 2025, https://learn.g2.com/gemini-vs-chatgpt

  32. Art. 124 – Înfăptuirea justiţiei - Constituția României, accesată pe octombrie 28, 2025, https://www.constitutiaromaniei.ro/art-124-infaptuirea-justitiei/

  33. Principii ale funcţionării justiţiei - Portal Just, accesată pe octombrie 28, 2025, https://portal.just.ro/62/Documents/INFORMATII%20DE%20INTERES%20PUBLIC/Principii%20ale%20func%C5%A3ion%C4%83rii%20justi%C5%A3iei.pdf

  34. Art. 125 – Statutul judecătorilor - Constituția României, accesată pe octombrie 28, 2025, https://www.constitutia.ro/art-125-statutul-judecatorilor.htm

  35. Art. 125 – Statutul judecătorilor - Constituția României, accesată pe octombrie 28, 2025, https://www.constitutiaromaniei.ro/art-125-statutul-judecatorilor/

  36. LEGE nr. 303 din 28 iunie 2004*) privind statutul judecătorilor şi procurorilor - Republicare TITLUL I: Dispoziţii generale - CCR.ro, accesată pe octombrie 28, 2025, https://www.ccr.ro/wp-content/uploads/2020/07/Legea-303-din-2004.pdf

  37. Legea nr. 303/2022 privind statutul judecătorilor şi procurorilor - Institutul National al Magistraturii, accesată pe octombrie 28, 2025, https://inm-lex.ro/wp-content/uploads/2023/06/Legea-303-din-2022-privind-statutul-judecatorilor-si-procurorilor_SursaLege5.pdf

  38. Respectarea dreptului la un proces echitabil în temeiul Convenției Europene a Drepturilor Omului Ghid informativ despre protec, accesată pe octombrie 28, 2025, https://rm.coe.int/16806f1616

  39. Dreptul la un proces echitabil - Ghid privind drepturile omului, accesată pe octombrie 28, 2025, https://www.humanrightsguide.md/rights/dreptul-la-un-proces-echitabil

  40. Independența justiției - CURIA, accesată pe octombrie 28, 2025, https://curia.europa.eu/jcms/jcms/p1_5173943/fr/

  41. Texte adoptate - Inteligența artificială în dreptul penal și utilizarea sa de către autoritățile polițienești și judiciare în procedurile penale - Miercuri, 6 octombrie 2021, accesată pe octombrie 28, 2025, https://www.europarl.europa.eu/doceo/document/TA-9-2021-0405_RO.html

  42. www.ncsc.org, accesată pe octombrie 28, 2025, https://www.ncsc.org/resources-courts/ai-courts-judicial-and-legal-ethics-issues#:~:text=Judicial%20officers%20need%20to%20be,its%20algorithm%20or%20training%20data.

  43. AI & the courts: Judicial and legal ethics issues | National Center for ..., accesată pe octombrie 28, 2025, https://www.ncsc.org/resources-courts/ai-courts-judicial-and-legal-ethics-issues

  44. Constituția României – Curtea Constituțională a României - CCR.ro, accesată pe octombrie 28, 2025, https://www.ccr.ro/baza-legala/constitutia-romaniei/

  45. Aplicații ale dreptului la un proces echitabil în cursul judecății în primă instanță în procesul penal, accesată pe octombrie 28, 2025, https://inm-lex.ro/wp-content/uploads/2022/12/DP_Bistriceanu-Aplicatii-ale-dreptului-la-un-proces-echitabil.pdf

  46. DECIZIA nr.126 - CCR.ro, accesată pe octombrie 28, 2025, https://www.ccr.ro/wp-content/uploads/2025/07/Decizie_126_2025.pdf

  47. EXPUNERE DE MOTIVE Secţiunea 1 Lege pentru modificarea și completarea unor acte normative din domeniul pensiilor de serviciu - Consiliul Economic și Social, accesată pe octombrie 28, 2025, https://www.ces.ro/newlib/PDF/proiecte/2025/Expunere-de-motive-Lege-pensii-magistrati-clean-14.08-ora-16.45.pdf

  48. OpenAI to give federal agencies ChatGPT access at $1 per year - Nextgov/FCW, accesată pe octombrie 28, 2025, https://www.nextgov.com/acquisition/2025/08/openai-give-federal-agencies-chatgpt-access-1-year/407266/

  49. Trump administration strikes deal with Google to use AI platform across federal agencies, accesată pe octombrie 28, 2025, https://www.foxbusiness.com/technology/trump-administration-strikes-deal-google-use-ai-platform-across-federal-agencies

  50. Google's 'Gemini for Government' offers AI platform to federal agencies for 47 cents, accesată pe octombrie 28, 2025, https://fedscoop.com/google-gemini-for-government-ai-platform-47-cents-federal-agencies-onegov-strategy/

  51. The US federal government secures a massive Google Gemini AI deal at $0.47 per agency, accesată pe octombrie 28, 2025, https://www.artificialintelligence-news.com/news/google-gemini-government-ai-deal-gsa-agreement/

  52. Unlock the true cost of enterprise AI on Google Cloud, accesată pe octombrie 28, 2025, https://cloud.google.com/blog/topics/cost-management/unlock-the-true-cost-of-enterprise-ai-on-google-cloud

  53. OpenAI closes Google deal, but ramps up price war with Gemini - Techzine Global, accesată pe octombrie 28, 2025, https://www.techzine.eu/news/applications/132117/openai-closes-google-deal-but-ramps-up-price-war-with-gemini/

  54. Azure OpenAI Service - Pricing, accesată pe octombrie 28, 2025, https://azure.microsoft.com/en-us/pricing/details/cognitive-services/openai-service/

  55. OpenAI to US government: Invest more in energy capacity or else China, accesată pe octombrie 28, 2025, https://timesofindia.indiatimes.com/technology/tech-news/openai-to-us-government-invest-more-in-energy-capacity-or-else-china/articleshow/124860969.cms

  56. Google vs. OpenAI: The AI Battle That Will Reshape Enterprise Software - Kavout, accesată pe octombrie 28, 2025, https://www.kavout.com/market-lens/google-vs-open-ai-the-ai-battle-that-will-reshape-enterprise-software

Comentarii

Postări populare de pe acest blog

De la Apocalipsa Bursei la cea a Occidentului

Evaluarea Potențialului Economic al unui Sistem de Rezidență Fiscală Virtuală în România pentru Criptomonede și Nomazi Digitali

Împrumuturi externe pentru accelerarea dezvoltării