Fa temps que la ciència ficció ha creat imaginaris diversos sobre la intel·ligència artificial (IA). Des d’ordinadors que es rebel·len contra els humans, fins a humans que s’enamoren de les màquines.
La realitat és que, des de la dècada dels 50, gràcies al creixement de la informàtica molts han somniat en replicar la intel·ligència humana. Des de llavors s’han produït grans avenços en aquest camp, intercalats amb períodes coneguts amb el nom d’hiverns de la IA, durant el quals les expectatives i l’interès en aquest camp han desaparegut.
A dia d’avui, no hi ha cap dubte que estem en plena fase d’expansió, potser la més accelerada de totes les que s’han produït fins ara. El desenvolupament dels models anomenats Transformers, juntament amb la gran quantitat de dades disponibles i la disminució dels costos de computació, han permès el desenvolupament de la IA generativa, la qual ens va sorprendre a molts de nosaltres ja fa un parell d’anys.
Malgrat tot, sembla que els grans objectius i preguntes que s’havien plantejat segueixen sense resposta. Són els grans models de llenguatge la millor forma d’assolir la intel·ligència artificial general? Té ChatGPT comportaments emergents? Quins riscos comporta aquesta suposada intel·ligència artificial general pel futur de la humanitat?
La realitat és que la indústria avança més ràpidament que aquests debats, i que els sistemes d’IA ja s’estan aplicant en pràcticament tots els sectors econòmics.
A més, aquesta nova fase expansiva de la IA té la particularitat de que cada pas endavant que es produeix està disponible de forma quasi immediata i, en molts casos, a un cost molt reduït.
Actualment, els riscos derivats de l’ús de la IA al que ens enfrontem són menys trascendentals, però no per això són menys perillosos. Així doncs, les preguntes més urgents que hem de respondre són d’un altre estil:
És possible garantir una justa representació de tots els grups socials dins les dades d’entrenament?
Com es pot garantir que un sistema d’IA no està replicant biaixos discriminatoris?
És possible saber el motiu pel qual un sistema d’IA recomana no concedir una hipoteca a una persona? O no concedir-li un permís penitenciari?
És possible identificar quines variables de les dades d’entrenament (i en quin percentatge) estan contribuint a la presa de decisions?
És possible garantir la fiabilitat de les respostes d’un model de generació de text?
Com es pot garantir que les persones responsables de prendre decisions utilitzant la IA entenen com opera i són capaces de supervisar-la?
La resposta a moltes d’aquestes preguntes és complexa i escapa al que és estrictament tècnic. Hem d’entendre els sistemes d’IA com sistemes sociotècnics, és a dir, sistemes tecnològics que estan integrats als valors, dinàmiques i expectatives de la societat que els ha generat iels aplica.
Algunes iniciatives que pretenen contribuir a una IA més transparent i responsable ja estan en funcionament. La EU AI Act estableix un marc controlat per a la comercialització de la IA basat en nivells de risc segons els casos d’ús; el Registre de Transparència Algorítmica d’EUROCITIES pretén ser un estàndard per poder tenir un control sobre els algorismes implementats; i la Guia de la UNESCO per a un ús responsable de la IA proposa unes recomanacions per tal que els estats puguin desplegar la IA de manera controlada. No obstant, encara queda molt per fer en aquest camp tant complex.
Per tot això, és necessari que les organitzacions disposin d’equips preparats pel govern de la IA amb un enfocament multidisciplinar, que entenguin els riscos de la itel·ligència artificial, i sàpiguen plantejar enfocaments amplis per a mitigar-los. En definitiva, es necessiten equips que sàpiguen plantejar les preguntes adequades. Des de DesideDatum us podem ajudar al respecte…