TECNOLOGIA
Els
programes informàtics tradicionals consisteixen en una seqüència d'instruccions
que l'ordinador ha de realitzar de forma mecànica. Aquesta seqüència
d'instruccions pot ser altament complexa, però tant si funciona com si falla,
sempre existirà una explicació comprensible per als humans d'allò que el
programa fa.
No es pot
dir el mateix dels sistemes d'intel·ligència artificial. Simplificant, podríem
dir que aquests sistemes són programes tradicionals creats amb una finalitat
abstracta: ser capaços de reconèixer coses a partir d'exemples. Al final s'obté
quelcom molt semblant als sistemes d'aprenentatge humà. Tothom neix sense saber
què és una cadira, però des de petits ens han dit que hi ha coses que són cadires
i altres que no ho són, de manera que arriba un moment en què el nostre cervell
pot distingir una cadira de qualsevol altre objecte amb una probabilitat molt
alta d'encertar.
El
mecanisme del nostre cervell que ens permet distingir una cadira de qualsevol
altra cosa no és trivial. Mireu una cadira, per què ho és? D'entrada pot
sorprendre la pregunta, però no té resposta fàcil. No totes les coses que
serveixen per seure són cadires (una tassa de vàter no ho és), tampoc totes les
coses amb quatre potes i alguna part per recolzar l'esquena (una butaca és una
cadira?), tampoc ens podem fixar el material del qual estigui feta, ni el
color, etc. La casuística és complicadíssima. El món és ple de coses molt
semblants a les cadires, però que no ho són. Tot i això, tothom sap distingir
una cadira del que no ho és amb un alt percentatge d'encert. Davant d'un
objecte que no hem vist mai, el nostre cervell és capaç de calcular ràpidament
la probabilitat que allò sigui una
cadira.
Així
funcionen els sistemes d'intel·ligència artificial. Podem mostrar milers
d'exemples de qualsevol cosa que ens passi pel cap a un d'aquests sistemes i,
per mecanismes d'aprenentatge i càlcul de probabilitats, cada cop serà més
capaç de distingir amb un alt nivell d'encert altres coses del mateix tipus,
encara que no les hagi vist mai abans. Un cop entrenat, és a dir, un cop ha
vist un número prou alt d'exemples per a aprendre de forma consistent, un
sistema d'intel·ligència artificial és capaç d'identificar coses amb una
fiabilitat altíssima, però cap programador pot explicar els detalls de com el
sistema fa les seves classificacions. El resultat d'aquest aprenentatge
artificial és una estructura de dades i processos de càlcul massa complex, fora
de l'abast del cervell humà.
Fascinant.
Imaginem
que emplenem un qüestionari de 137 preguntes referents a tots i cadascun dels
reclusos de les presons dels Estats Units (detalls familiars, barri de
residència, historial laboral i acadèmic, etc.). Arribat el moment, molts dels
reclusos opten a un permís penitenciari que un jutge, en funció del seu
historial, decideix concedir o no. Imaginem que, per a cadascun dels reclusos a
qui s'ha concedit el permís, afegim la dada que fa 138 al seu qüestionari: Va
tornar a delinquir durant el seu permís penitenciari o no?
Imaginem
ara que, amb les dades de centenars de milers de presos que durant anys van
anar gaudint dels seus permisos, i dels quals tenim les 138 respostes del
qüestionari, entrenem un sistema d'intel·ligència artificial amb la finalitat de
calcular, a partir de les 137 preguntes inicials, quina probabilitat hi ha que
sigui reincident o no. Amb un nombre tan alt d’exemples reals, el sistema té
prou informació per trobar patrons insospitats que cap cervell humà podria
veure, de manera que serà molt fiable a l'hora de calcular el valor més
probable per a la pregunta 138, és a dir, la probabilitat de reincidència d'un
determinat reclús que opta a un permís penitenciari.
Aquest
sistema es diu Compas i fa temps que s'aplica a Nova York, Califòrnia, Florida
i altres zones dels Estats Units.
Un cervell
artificial decideix quines persones poden optar a un permís penitenciari i
quines no.
Inquietant.
El mateix
cervell artificial que podem entrenar per distingir una cadira d'una sabata,
també és capaç d'aprendre a distingir un delinqüent potencialment reincident
d'un que no ho és, o un malalt de càncer de pulmó d'una persona sana, o un
potencial morós d'una persona solvent que demana un préstec, etc. Només
necessita prou informació per aprendre a fer les seves classificacions i, un
cop entrenat, serà tremendament fiable.
Depenem
cada cop més d'allò que un sistema d'intel·ligència artificial diu de nosaltres
per optar o no a tota mena de coses: una assegurança, un préstec, un diagnòstic
mèdic i el seu tractament, una feina, un permís penitenciari, etc.
Les
implicacions ètiques que es desprenen de tot això ja no caben en aquest
article.
Text i foto: Ferran Gállego
Uff!!! Molt interessant i alhora inquietant. Gracies.
ResponElimina