Com ens afecta la IA invisible
Vivim
envoltats d’intel·ligència artificial (encara que no ho notem)
La
integració cada cop més invisible de la intel·ligència artificial en el dia a
dia transforma la manera com pensem, decidim i ens relacionem amb la realitat.
Les fotografies que el mòbil retoca soles,
les cerques a Google que ja no obliguen a llegir ni contrastar fonts, els
anuncis generats amb intel·ligència artificial o els vídeos sintètics que
s’obren pas a TikTok abans que els creadors humans.
La
intel·ligència artificial ja no és una eina puntual en la vida quotidiana, ara
és, també, una capa constant, invisible i cada vegada més present que
mediatitza com veiem, pensem i decidim.
No
cal buscar-la, perquè ja ens troba ella.
Per a la Sílvia Leal, sociòloga especialitzada
en tendències de futur i tecnologia, el fet que la intel·ligència artificial
sigui cada cop més invisible, però present, no és cap accident. “La tecnologia, quan té sentit, tendeix a la
invisibilitat. Això és el que s’anomena ‘societat ubiqua’”, explica
l’experta.
Un
concepte que beu directament de la ciència-ficció, concretament de la novel·la
Ubik de Philip K. Dick, on els sistemes intel·ligents interactuen constantment
amb les persones sense que en siguin del tot conscients.
“No és que això sigui nou”, apunta Leal.
“El que passa és que amb la
intel·ligència artificial generativa hem pres consciència del que ja estava
passant”. Recomanacions de continguts, sistemes de predicció o eines
educatives basades en algoritmes fa anys que formen part del nostre dia a dia.
La diferència és que ara la IA parla, escriu, respon i crea, i ho fa amb una
aparença d’autoritat que pot resultar enganyosa.
“El problema no és la IA en si, sinó el que
pot arribar a ser l’explosió de la IA amb altres tecnologies”, adverteix. “La intel·ligència artificial és el gran
empoderador de la resta d’eines”. I és precisament aquest poder el que la
converteix en una mediadora de la realitat, perquè decideix què veiem, en quin
ordre i amb quin relat.
Per a Leal, el punt crític no és tant l’ús
puntual de la intel·ligència artificial com el fet que s’estigui convertint en
una infraestructura de pensament. “Quan
una tecnologia deixa de ser una eina i passa a decidir per tu què veus, què
llegeixes o què és rellevant, estem parlant d’un canvi de paradigma social”,
assenyala.
Aquesta
capa algorítmica optimitza processos, ordena la realitat, jerarquitza la
informació i condiciona el relat col·lectiu sense que l’usuari en sigui
conscient.
Aquesta delegació progressiva, adverteix,
té conseqüències directes en la manera com entenem la llibertat individual. “Ens sentim molt lliures perquè tenim moltes
opcions, però en realitat triem dins d’un marc prèviament dissenyat”,
considera.
La
IA no imposa, suggereix; no obliga, orienta. I és precisament aquesta subtilesa
la que la fa tan poderosa. “El gran risc
no és que la tecnologia ens controli; és que ens acomodi tant que deixem de
preguntar-nos qui està prenent les decisions”.
La sociòloga apunta també una idea poc
habitual en el debat públic: que el problema és més la comoditat cognitiva i no
tant la dependència tecnològica. “No és
que la intel·ligència artificial ens robi llibertat, és que ens estalvia
l’esforç de pensar”, sosté. En aquest sentit, alerta que estem entrenant
una societat cada cop més eficient però menys crítica, més informada però menys
capaç de discernir.
La
IA no anul·la el pensament, el substitueix suaument, fent que preguntar-se,
dubtar o contrastar deixi de ser necessari. I quan pensar es converteix en una
opció i no en una necessitat, el cost més enllà de ser tecnològic, també és
social.
Pensar
menys, decidir menys i qüestionar menys
Des de la consulta, la Dra. María Velasco,
llicenciada en Medicina i Cirurgia i especialista en Psiquiatria, observa el
fenomen amb una preocupació clara i molt similar a la de la sociòloga: la
dependència cognitiva. “En persones
joves, especialment menors de 25 anys, sí que veiem una dependència cognitiva
de la intel·ligència artificial”, afirma.
No
perquè sigui una generació menys capaç, sinó perquè és una generació que no ha
après a fer les coses d’una altra manera.
Encara
no es detecten trastorns clínics associats directament a l’ús de la IA, però sí
comportaments reveladors. “Hi ha
adolescents i joves que consulten la intel·ligència artificial com si fos un
terapeuta”, lamenta Velasco. El problema, indica, és que la IA “s’adapta al que tu li demanes, no té criteri
propi ni et col·loca en aquella zona de no confort que és imprescindible per
començar a pensar”.
Aquesta
absència de fricció és clau.
Tant
Velasco com Leal coincideixen que vivim instal·lats en una cultura de resposta
immediata, on la frustració, el dubte o l’error són percebuts com un fracàs que
cal evitar. “La tolerància a la
frustració és un dels pilars d’una bona vida”, recorda la psiquiatra. “La IA reforça la idea que sempre hi ha una
resposta correcta i que aquesta resposta és fora de nosaltres”.
El
risc, alerta, és deixar de qüestionar. Acceptar la resposta com a certa,
independentment de si és bona o dolenta, simplement perquè és la que ens han
donat.
Quan
la realitat es difumina
En
el cas dels menors, els riscos s’accentuen. “La diferenciació entre el món real i el món de la imaginació encara no
està ben construïda”, comenta la psiquiatra. La intel·ligència artificial,
capaç de generar imatges, escenes o continguts hiperrealistes, pot confondre
aquests límits i normalitzar realitats que no existeixen o que no haurien
d’existir.
“Això té implicacions en àmbits com la
sexualitat, la identitat o la percepció del límit”, adverteix. La IA no
desapareixerà, però sí que podem “minimitzar-ne
els efectes secundaris”, com ja s’ha fet amb altres avenços al llarg de la
història.
L’algoritme
no és neutral
Per
a la Sílvia Leal, un dels grans errors col·lectius és atribuir neutralitat a
aquestes eines. “La IA generativa
funciona amb probabilitat de paraula. Calcula quina és la paraula més probable,
no la més certa”, recorda. I això, quan es col·loca, per exemple, al
capdamunt d’un cercador com Google, té grans conseqüències.
“Abans sabíem que el contingut era bo o
dolent segons la font. Ara el primer que veus quan fas una cerca a Google és un
contingut generat, i molta gent ja no passa d’aquí”, explica. Molts cops la
resposta que et dona la IA generativa de Google ni tan sols és correcta. Si no
hi hagués una manca de comprensió sobre com funciona la tecnologia i la
intel·ligència artificial, no hi hauria un problema tan gran.
Leal
ho resumeix amb una frase que cita del director del supercomputador
MareNostrum, Mateo Valero: “Som ovelles,
i ens tracten com ovelles”. I com més ovelles, afegeix l’experta, “més lliures creiem que som”.
Més
ràpids, però menys crítics
Delegar
tasques cognitives com escriure, memoritzar, decidir o buscar informació té un
impacte directe en el cervell. “El
cervell és molt plàstic, però les capacitats s’han de desenvolupar i mantenir”,
explica Velasco. Sense repte, sense esforç, sense memòria, no hi ha criteri
propi. I sense atenció sostinguda, no hi ha aprenentatge, projectes ni
autoestima sòlida.
La
IA pot fer-nos més ràpids i eficients, sí. Però “si la fem servir per a tot, tota l'estona, acabem desactivant el nostre
propi funcionament cerebral”, alerta. Quan apareixen l'ansietat, el
malestar o la incapacitat per decidir sense la tecnologia, el problema passa de
ser tècnic a ser de salut mental.
Empoderar
o acomodar?
“La intel·ligència artificial et pot
empoderar si saps utilitzar-la”, defensa Leal. Posar-la en dubte,
contrastar fonts, corregir-la, fer-la servir com un repte intel·lectual. “A mi m’encanta utilitzar la IA generativa,
però trigo molt més a acabar d’escriure perquè estic constantment desafiant-la”,
relata. Per això s’ha de qüestionar la resposta sempre.
“Tot el que ens facilita la vida està bé,
però si ens inutilitza com a persones, tenim un problema”, resumeix María
Velasco. "Cal protegir el nostre
propi criteri, el nostre pensament, la nostra capacitat de pensar".
Abans
que sigui irreversible
Davant
d’una automatització que avança sense pausa, totes dues coincideixen en una
idea essencial: estudiar. Entendre la tecnologia per no convertir-nos en
simples usuaris passius. Desenvolupar esperit crític, capacitat d’anàlisi i
consciència dels límits.
“La nostra llibertat també s’ha de defensar
davant de la intel·ligència artificial”, conclou Velasco. I aquesta defensa
comença amb una decisió tan senzilla —i tan complexa— com saber quan preguntar…
i quan no.
Paula Lameiro
.jpg)
Comentarios
Publicar un comentario