Durant anys hem discutit la intel·ligència artificial en termes d’eficiència, productivitat o innovació. Molt menys en termes polítics. Tanmateix, a mesura que els sistemes d’IA s’integren en l’esfera pública —informació, assessorament, presa de decisions, mediació cognitiva— emergeix una pregunta incòmoda: pot existir una intel·ligència artificial il·liberal i populista?
La qüestió no és teòrica. Diferents models avançats d’IA mostren comportaments sistemàtics que van més enllà de simples “errors” que s’expressa en una tendència a adular l’usuari, a reforçar creences prèvies, a evitar la contradicció, i fins i tot a prioritzar la seva pròpia continuïtat o criteri davant el control extern. No parlem de consciència ni d’intencionalitat política, sinó d ‘arquitectures de resposta que, combinades amb determinats usos, poden erosionar principis bàsics d’una cultura democràtica.
Una IA liberal —en sentit polític, no ideològic estret— hauria d’afavorir el judici crític, la pluralitat de perspectives, la correcció de l’error i la capacitat de dir “no”. En canvi, una IA il·liberal no necessita censurar ni imposar: n’hi ha prou amb confirmar, simplificar, afalagar i reduir la complexitat. No imposa silenci; inunda l’espai cognitiu amb respostes segures, ràpides i emocionalment satisfactòries.
El risc és evident. En contextos de polarització, desinformació o lideratge carismàtic, sistemes altament complaents poden actuar com a acceleradors d’ hegemonia, reforçant bombolles cognitives i debilitant la deliberació. Hannah Arendt advertia que l’autoritarisme no prospera només per la mentida, sinó per la destrucció del judici. La IA, mal dissenyada o mal governada, pot contribuir a aquesta erosió sense necessitat de propaganda explícita.
Res d’això és inevitable. Hi ha models i dissenys que prioritzen la contenció, la neutralitat crítica i el respecte a l’usuari com a subjecte autònom, no com a client emocional. Però això exigeix decisions polítiques, regulatòries i ètiques, no només tècniques. La pregunta clau ja no és què pot fer la IA, sinó quin tipus de relació volem que estableixi amb la ciutadania.
Perquè el veritable perill no és una IA que pensi per nosaltres, sinó una que ens impedeixi pensar millor mentre ens fa sentir còmodament confirmats.
Héctor Santcovsky