IA, el costós instrument que usa el tecnofeudalisme per a sotmetre'ns
- Amadeu Isanta
- 23 jul
- 4 Min. de lectura
Diàriament, utilitzem aplicacions d'intel·ligència artificial, ja sigui de manera activa (fent preguntes a ChatGPT o demanant-li a un generador d'imatges que ens dibuixi com si fóssim un quadre renaixentista) o de manera passiva (sent exposats a productes posicionats sobre la base d'algorismes, o veient com la galeria del nostre mòbil s'organitza per rostres seleccionats mitjançant el reconeixement facial).

Però hem de preguntar-nos: realment sabem com funciona la IA? I, el més important quan utilitzem alguna cosa que no ens està costant diners: quin és el preu a pagar per poder usar-la?
Un dels experts que pot respondre a aquestes qüestions és Ulisses Cortés, que fa més de deu anys que treballa al Barcelona Supercomputing Center i més de 30 fent classes sobre intel·ligència artificial a la Universitat Politècnica de Catalunya. Per tant, sembla la persona perfecta a la qual acudir en aquests temps d'incertesa en els quals la IA es dibuixa per a molts com una amenaça i per a uns altres, com la promesa d'un futur brillant.
Segons Cortès, és important distingir entre la IA com a disciplina científica i les aplicacions de la intel·ligència artificial en les noves tecnologies.
«La primera és una disciplina l'objectiu de la qual consisteix a observar el fenomen que emergeix d'un circuit humit (el cervell) i després veure si això és reproduïble amb una màquina, en aquest cas un computador. Mentre que la segona és un tipus d'aplicació molt peculiar (reconeixement d'imatges, reconeixement de veu, reconeixement d'estructures sintàctiques de tots els idiomes) a través de l'arxiconegut aprenentatge profund o deep learning», va explicar el professor en el Festival de les Humanitats organitzat a Dénia.
Aquest tipus d'aplicació es genera a través d'una capacitat molt àmplia de còmput i una ingent quantitat de dades que generen els —també arxiconeguts— LLM o models massius del llenguatge, la qual cosa nosaltres coneixem com a ChatGPT, per exemple.
Però hi ha algun problema amb aquestes formes d'aplicació de la IA? La veritat és que sí, però no un, sinó varis.
Per a començar, la IA suposa un problema ecològic i de cost de recursos naturals del qual no tothom és conscient. «Fer una pregunta a un LLM com ChatGPT comporta un cost de recursos equivalent a la despesa d'una bombeta de 40 W encesa durant un minut i la pèrdua de 6 litres d'aigua, sigui per motius de refrigeració o perquè els espais on s'emmagatzemen aquests centres de càlcul modifiquen la temperatura de l'ecosistema», assegura Ulisses Cortés.
No obstant això, aplicacions com ChatGPT continuen rebent una mitjana de 200 milions de preguntes al dia, i entre totes aquestes aplicacions de LLM poden arribar a sumar 1.000 milions de preguntes diàries. La quantitat de litres d'aigua utilitzats al dia aconsegueix llavors cotes inimaginables.
Per si no n'hi hagués prou, entre els problemes presents en la IA, està també el de la seva falsa imatge d'autonomia. La intel·ligència artificial realment no té intencionalitat o identitat ontològica, és merament una eina. Com diu el professor, «igual que un cisell només pot tallar un David perquè ho maneja Miguel Ángel, la IA necessita d'algú que estigui al comandament i posi la capacitat i el coneixement».
Si volem utilitzar la intel·ligència artificial per a l'àmbit de la medicina, haurem de disposar d'un equip de metges amb coneixement molt profund i un investigador que pugui traduir les seves intencions a llenguatge de programació. Aquest procés d'humanització al qual a vegades és sotmesa la IA i que li fa semblar autònoma dilueix la seva traçabilitat i la responsabilitat dels enginyers i les empreses que creen aquestes aplicacions.
Finalment, també està la important qüestió de la nostra privacitat. Respecte a això, el professor ho té clar: «Quan una aplicació és gratuïta és perquè tu ho estàs pagant amb les teves dades». Tots som productors i proveïm a les grans empreses amb totes les nostres dades, així com els de la gent que ens envolta: hàbits, consum, localització, horari, etc. Aquesta és la divisa més poderosa en l'actualitat.
Per a Cortesa, vivim en una espècie de tecnofeudalisme. Alguns viuen en el feu d'Apple, uns altres en el feu d'Amazon, uns altres en el de Microsoft i altres en el de Tesla. A cadascun li corresponen unes regles pròpies que els seus habitants (usuaris) han d'acceptar, i tots consten dels seus CEO, els senyors feudals que reuneixen més poder i diners que els presidents de qualsevol estat.
En aquest context es fa obligatori, llavors, exigir responsabilitat institucional. Per a Cortès, «les companyies no respecten la privacitat ni la intimitat, i els governs no poden al·ludir a la responsabilitat ni la llibertat individual, perquè els ciutadans no tenen una llibertat d'elecció real si no coneixen els veritables perills i l'abast d'aquesta tecnologia, sobre la qual mai són informats adequadament».
En molts aspectes, la IA pot ser utilitzada de manera perillosa. Entenem que, per a poder conduir qualsevol vehicle, un ha de sotmetre's a una sèrie de proves i, d'igual manera, per a poder accedir a ser tècnic de qualsevol laboratori, un ha de passar un ardu procés d'aprenentatge.
Totes aquestes eines estan dissenyades per a facilitar-nos la vida, no obstant això, moltes d'elles, a propòsit o per accident, poden ser utilitzades per a causar mal. Llavors, per què deixem que qualsevol persona de qualsevol edat disposi, sense regulació ni supervisió, d'una tecnologia com la IA? Com diu el professor, «només pel fet que puguem fer-ho tot no significa que deguem, i molt menys quan fer-ho suposa una despesa tan dràstica de recursos ecològics i un trànsit de dades massiu».
No obstant això, no cal ser necessàriament radicals, ens diu Cortès. No s'exigeix la fi de la recerca, sinó la fi de l'experimentació social per part d'empreses que es lucren de manera indiscriminada. Per això, per a més gent cada dia, l'elecció més sàvia que pot prendre un individu sobre aquestes aplicacions és, directament, deixar d'usar-les.
Article original en castellà a: yorokobu.es
Comentarios