În anul 2054, criminalii sunt arestați înainte de a-și ucide victimele și condamnați pentru fapte pe care nu le făcuseră; SF-ul lui Philip K. Dick se transformă, însă, în realitate. În Israel, circa 800 de palestinieni au fost arestați pentru că un program de computer a decis că aceștia vor comite atentate.

Conform cotidianului Haaretz, arestarea acestor persoane ar fi redus numărul atacurilor „în mod semnificativ”, ziarul se întreabă, însă, cum vor fi judecați și condamnați palestinienii pentru crime pe care încă nu le-au comis.

Pe de altă parte, spun activiștii pentru drepturile omului, deși softul monitorizează rețelele sociale și comportamentul online al tuturor locuitorilor, numai palestinienii sunt arestați, în vreme ce extremiștii de dreapta israelieni, nu.

Dacă în Israel încă se pune problema condamnării pe baza datelor computerizate, în SUA acest lucru deja se aplică. New York Times scrie că un cetățean din statul Winsconsin, Eric L. Looms, a fost condamnat la șase ani de închisoare pe baza datelor furnizate de un software numit Compas, realizat de compania Northpointe Inc.

Softul a emis un raport cu grafice care prezentau riscul ca Looms să comită în viitor și alte infracțiuni. Problema pe care o ridică avocații apărării este că algoritmul care coordonează softul este secret.

Compania producătoare susține că nu poate divulga algoritmul deoarece este un secret comercial, însă, se întreabă avocații, cum se poate apăra un om din moment ce nu are posibilitatea să conteste probele acuzării. Mai mult, un raport al organizației Pro Publica a relevat că acuzații negri au șanse mai mari decât albii să fie incorect evaluați ca având risc mai mare de recidivă.

„Aceste softuri-proprietar sunt folosite pentru a stabili cauțiunea, sentințele și chiar pentru a determina vinovăția sau nevinovăția”, a constatat un raport al Centrului de Informații privind Confidențialitatea Electronică. „Cu toate acestea, modul de funcționare a acestor instrumente este în mare măsură ascuns publicului”.

Citind printre rânduri, asta înseamnă că creatorii softului pot manipula rezultatele introducând instrucțiuni care să genereze sentințe în funcție de anumiți parametri, culoarea pielii, de exemplu. Iar câtă vreme algoritmul este ținut secret, nimeni nu poate demonstra asta.

Soluția ar fi – spun avocații – ca Guvernul să dezvolte propriul sofware care să fie public și să poată fi analizat. Rămâne, însă, problema acceptării înlocuirii judecătorului uman cu un computer: poate un soft, oricât ar fi de evoluat, să stabilească vinovăția unui om? Poate fi un om condamnat pentru o crimă pe care încă nu a comis-o dar pe care un computer spune că, din punct de vedere statistic, ar putea să o comită în viitor?