Elevii britanici au transmis un mesaj clar autorităților săptămâna trecută: „F*ck the algorithm”. Apelul lor a funcționat, scrie Politico.

Supercomputerul FugakuFoto: STR / AFP / Profimedia

La o săptămână după ce rezultatele generate de un algoritm automat au dus la scăderea notelor a aproape 40% din elevii britanici care n-au putut da examenele naționale Nivel A din cauza pandemiei de COVID-19 guvernul condus de Boris Johnson a anunțat că va folosi prognozele profesorilor.

Scandalul a subliniat influența tot mai mare pe care o au algoritmii în viețile noastre.

Pentru guverne, algoritmii promit luarea mai rapidă a unor decizii, o mai mare eficiență și costuri mai reduse. Însă criticii afirmă că sistemele sunt produse cu prea puțină transparență și implementate fără dezbatere publică, riscând să exacerbeze inegalitățile existente.

Regulamentul General Privind Protecția Datelor (GDPR) al Uniunii Europene le oferă persoanelor posibilitatea de a cere o explicație pentru o decizie bazată pe instrumente automatizate iar acestea pot contesta o hotărâre bazat doar pe un algoritm.

Însă scandalul din Marea Britanie a arătat neajunsurile GDPR în ceea ce privește algoritmii. Autoritățile de reglementare afirmă că procesul de notare nu s-a bazat doar pe mijloace automatizate, subliniind că oameni au fost implicați în acesta și sugerând că orice obiecție legată de folosirea algoritmului n-ar fi validă din această cauză.

Cererile pentru o mai mare transparență sunt complicate și de faptul că firmele care dezvoltă algoritmii susțin adesea că aceștia sunt secrete industriale iar funcționarea lor nu poate fi făcută publică.

Michael Veale, un programator și lector în domeniul drepturilor și reglementărilor la University College London, este printre cei sceptici față de capacitatea unor reglementări precum GDPR de a proteja cetățenii de puterea algoritmilor.

Potrivit acestuia, primirea unei explicații pentru o decizie generată de un algoritm nu contribuie prea mult la remedierea „nedreptăților sistemice”, acesta subliniind că „primirea unei explicații fără a avea un cuvânt de spus în modul în care funcționează sistemele este ca și cum ai primi o clauză de confidențialitate fără un buton de 'Nu sunt de acord'”.

Uite doar o parte din domeniile în care algoritmii au un rol tot mai pronunțat în viețile europenilor.

1. Acordarea ajutoarelor sociale

Luarea unei decizii cu privire la cine beneficiază de ajutor social și cuantumul său este o problemă costisitoare pentru autorități, folosirea algoritmilor explodând în domeniu.

Orașul suedez Trelleborg a automatizat părți ale sistemului de acordare a ajutoarelor sociale astfel încât cererile noilor aplicanți să fie trecute prin mai multe baze de date pentru generarea unei decizii. Autoritățile daneze au început la rândul lor să implementeze algoritmi în domeniu, creând un „monstru de supraveghere”, potrivit activiștilor.

În Anglia, autoritățile locale au început să folosească algoritmi pentru a decide câți bani să cheltuie pe fiecare asistat social în urmă cu aproape 10 ani. Într-un caz notoriu în Marea Britanie, unei persoane oarbe aflată în scaun cu rotile i s-a tăiat ajutorul de handicap cu aproape 10.000 de lire într-un an.

2. Trecerea graniței

Ungaria, Grecia și Letonia au testat un sistem numit iBorderCtrl care triază cetățenii non-UE la granițele blocului comunitar, acesta folosind interviuri automatizate cu un grănicer virtual pe baza unei „tehnologii de detectare a înșelăciunilor”.

Sistemul reprezintă de fapt un test de detectare a minciunilor făcut înainte ca o persoană să treacă granița. Grănicerii din Slovenia folosesc deja un sistem verifică automat călătorii cu „alte date ale poliției” precum cazierul.

Activiștii pentru drepturile omului au formulat plângeri împotriva sistemului sloven în timp ce în Regatul Unit guvernul a anunțat mai devreme în cursul anului că va renunța la un algoritm folosit pentru trierea solicitanților de vize după ce sistemul automat a fost acuzat de rasism și favorizarea solicitanților din țări cu o populație predominant albă.

3. Lupta împotriva criminalității

Este în creștere și folosirea algoritmilor pentru a modela unde și când vor avea loc infracțiuni.

În 2019 un ONG britanic a avertizat cu privire la folosirea tot mai accentuată a unor programe pe calculator pentru a prezice eventualele focare de infracționalitate și depistarea persoanelor cu risc ridicat de recidivă, susținând că acestea interpun profilarea rasială în sistemul judiciar.

O secție de poliție din Belgia a început să implementeze în 2016 un despre care ofițerii belgieni susțin că poate prezice cartierele în care există cea mai mare probabilitate de a avea loc furturi. În orașul german Mannheim autoritățile au instalat un sistem de supraveghere video care monitorizează comportamentul persoanelor pentru „anumite tipare...care indică activități infracționale”.

4. Găsirea unui loc de muncă

Angajatorii din Finlanda obișnuiau să folosească serviciile DigitalMinds, o companie care analiza prezența în online a unui candidat (pe Twitter, Facebook dar și e-mailuri) pentru a le evalua personalitatea.

Compania monitoriza inclusiv cât de active sunt în online persoanele monitorizate și cum reacționează la diverse postări sau e-mailuri. DigitalMinds a renunțat la practică după o investigație a AlgorithmWatch.

5. Primirea unui împrumut bancar

Evaluarea calificativului de credit de către o companie privată este o realitate cotidiană pentru multe persoane și poate avea consecințe pe termen lung, un calificativ scăzut putând însemna refuzul unui împrumut sau respingerea unei cereri pentru o carte de credit.

Iar calificativul primit poate fi bazat pe date discutabile. Mai devreme în cursul lunii autoritatea responsabilă de protecția datelor din Austria a primit o plângere după ce unui bărbat fără datorii și cu un nivel ridicat al veniturilor i-a fost acordat un calificativ de credit scăzut, compania de evaluarea negând însă că ar deține alte date cu privire la bărbat.