Vivim en un moment històric en què la tecnologia pren decisions de forma automàtica sobre nosaltres cada dia. A vegades ens adonem, però moltes altres no. Quan una persona obri el mòbil i consulta una xarxa social, quan busca informació a internet, quan rep un anunci o quan li deneguen un crèdit, darrere hi ha un algoritme que ha decidit què veu i què no veu, què se li ofereix i què no.
Per a començar a entendre-ho, va molt bé fer un paral·lelisme amb un cas que tothom coneix: el tabac. Durant dècades es venia lliurement, fins i tot dins d’hospitals i avions. No hi havia avisos, ni restriccions, ni consciència dels riscos. Amb el temps, la ciència va demostrar que el tabac provocava greus malalties i que també feia mal a les persones que no fumaven però respiraven el fum. Gràcies a la pressió social i als moviments ciutadans, es van aconseguir canvis importants:
Obligació de posar advertències clares als paquets.
Prohibició de fumar en espais tancats o públics sensibles.
Judicis i sancions a empreses que amagaven informació sobre els efectes.
És a dir, la societat va aconseguir drets nous: dret a la informació, dret a la protecció i dret a prendre decisions amb coneixement de causa.
Ara, amb els algoritmes de les xarxes socials i les grans plataformes digitals, estem en una situació molt semblant. En aquest cas, el problema no és la nicotina, sinó la manera en què els sistemes digitals retenen l’atenció, manipulen gustos i creen addicció. Afecten la salut mental, la convivència democràtica i fins i tot les relacions familiars.
Fer comprensible què és un algoritme i com actua en la vida quotidiana.
Entendre el negoci de les xarxes socials i com guanyen diners amb les nostres dades.
Detectar els efectes psicològics i socials de l’ús massiu de les plataformes.
Conéixer els drets que tenim com a ciutadania davant les empreses i les administracions.
Reivindicar la transparència algorítmica com a dret fonamental del segle XXI.
Aprendre a fer un consum més responsable de les xarxes socials i dels serveis digitals.
Experimentar de manera pràctica com funcionen els algoritmes, amb un exercici senzill de classe.
Amb aquesta guia, l’alumnat no sols tindrà informació, sinó que també adquirirà una mirada crítica sobre la tecnologia. Igual que vam aprendre a reconéixer els riscos del tabac i a defensar-nos, ara hem d’aprendre a fer-ho amb els algoritmes.
Per a entendre què és un algoritme, podem imaginar una recepta de cuina. Quan volem fer una truita, seguim una sèrie de passos: trencar ous, batre’ls, afegir sal, posar-los a la paella i girar la truita. En informàtica, un algoritme és també una seqüència de passos ordenats, però en lloc d’ous i paella utilitza dades i instruccions.
A les xarxes socials, aquests algoritmes tenen una funció clara: decidir què apareix a la teua pantalla i en quin ordre. No és casualitat que quan entres a TikTok, Instagram o YouTube, et trobes sempre amb coses que et resulten atractives. Eixa tria la fa l’algoritme, observant el teu comportament i buscant mantenir-te dins el màxim temps possible.
Observació constant: analitzen què mires, quant de temps, si fas like, si comentes, si et subscrius, si passes ràpid un vídeo.
Aprenentatge: a partir d’eixes dades, detecten patrons. Per exemple: t’agraden els vídeos curts d’humor en valencià, però passes ràpid els vídeos llargs de cuina.
Predicció i recomanació: quan entres de nou, et posen per davant més vídeos d’humor curt en valencià, perquè saben que això et farà quedar-te més estona.
Ajust continu: si de sobte mires tres vídeos de gats fins al final, l’algoritme canvia i et comença a recomanar més gats. És un sistema que s’adapta al moment.
Un dels exemples més coneguts és TikTok. El seu For You és tan potent perquè aprén en qüestió de minuts què t’enganxa. Si dediques uns segons més a un vídeo de dansa, la pròxima vegada tindràs més dansa. És un sistema hiperactiu que no para d’afinar el que et mostra.
Les xarxes no són un servei altruista. Encara que siguen gratuïtes per a l’usuari, el seu negoci és multimilionari i funciona així:
Extracció de dades: cada moviment que fas (scroll, like, comentari, temps de visualització) es guarda com a dada. Aquestes dades dibuixen un retrat molt precís de qui eres i què t’interessa.
Creació de públics: amb les dades de milions de persones, creen grups (“públics”) molt concrets: dones de 40 anys que miren vídeos de cuina, adolescents que segueixen influencers de moda, homes que veuen notícies polítiques, etc.
Venda de publicitat: les empreses paguen per mostrar anuncis a aquests públics. Per exemple, una marca de sabatilles compra un anunci que només vegen persones que ja han buscat sabatilles en Google i han vist vídeos d’esport a Instagram.
Generació de contingut gratuït: el que veiem a les xarxes ho creen milions d’usuaris, sovint sense rebre diners. La majoria posen el treball i el temps de manera gratuïta, mentre l’empresa obté beneficis enormes.
És com si milions de persones treballaren gratis en una fàbrica i només un 1% (influencers famosos) guanyara diners de veritat. Els grans beneficis se’ls queda l’empresa.
Perquè la gent continue creant contingut, les plataformes mostren històries d’èxit: youtubers milionaris, tiktokers que viuen de ballar o gamers que triomfen retransmetent partides. Però la realitat és que això només passa a una minoria ínfima, menys de l’1%. La resta crea contingut que alimenta el sistema, però sense recompensa.
És un miratge, igual que quan a les loteries apareix el guanyador del premi gros a la tele, però darrere hi ha milions de persones que han perdut els diners invertits.
Els algoritmes són com cambrers invisibles que trien què et posen al plat cada vegada que entres a una xarxa. El negoci es basa en mantindre’t enganxat per vendre la teua atenció i les teues dades a les empreses. Com més temps passes dins, més diners guanyen.
Els algoritmes no sols decideixen quins vídeos o notícies veiem, sinó que tenen un impacte profund en la ment i en la manera de conviure en societat. Igual que el tabac no sols és una qüestió individual sinó també col·lectiva (fumadors passius, despesa sanitària, etc.), els algoritmes afecten tant a cadascú de nosaltres com a la democràcia en conjunt.
Bombolles d’informació
Els algoritmes seleccionen sempre allò que més t’agrada o et manté més temps enganxat.
Això fa que visques en una bombolla, pensant que tothom veu el mateix que tu, quan en realitat cadascú té un món diferent a la pantalla.
Dependència de validació
Cada “like”, comentari o compartició funciona com un xut de dopamina, una recompensa química al cervell.
L’autoestima pot acabar depenent de quantes reaccions aconseguim.
Addicció digital
L’algoritme et dóna contingut curt, ràpid i infinit.
Et costa parar, igual que passa amb la patata fregida o el tabac: “només un vídeo més”.
Efectes en salut mental
Ansietat per comparació constant amb altres.
Sensació de buit quan no hi ha notificacions.
Alteracions del son i dificultats de concentració.
Uniformització cultural
Les xarxes tendeixen a potenciar allò que és global, viral i majoritari.
Això deixa arrere continguts en llengües minoritzades o cultures locals.
Influència sobre infants i adolescents
L’algoritme prioritza contingut atractiu, no educatiu.
Sense control parental, l’educació digital recau en empreses que busquen beneficis, no en el bé de la joventut.
Relacions més superficials
La pressió per “mostrar-se” i “agradar” pot buidar les relacions de profunditat.
Es confon la quantitat de contactes amb la qualitat de les amistats.
Polarització política
Els algoritmes premiem els missatges més polèmics i extrems perquè generen interacció.
Això trenca els espais de diàleg i fa que cadascú quede atrinxerat en la seua bombolla ideològica.
Circulació de fake news
Les notícies falses, per ser cridaneres i emocionals, circulen més ràpid que les verificades.
L’algoritme no premia la veritat, sinó el que genera clics i temps de pantalla.
Desigualtat en la informació
No tothom rep el mateix contingut: l’algoritme decideix qui veu un anunci, qui rep una notícia i qui queda fora.
Açò crea segregació digital i reforça desigualtats ja existents.
Els algoritmes no són neutres: modelen com pensem, com sentim i com participem en la societat. Igual que es va reconéixer el perill del fum passiu del tabac, ara hem de reconéixer el perill col·lectiu de les bombolles digitals i exigir transparència per protegir la salut mental i la democràcia.
Quan parlem d’algoritmes i de drets, ens trobem amb una tensió semblant a la que passa en altres àmbits econòmics: el secret comercial per una banda, i el dret de la ciutadania a estar informada per l’altra.
Les empreses tenen dret a protegir la informació que els dóna avantatge competitiu.
Un exemple clàssic és la fórmula de la Coca-Cola: durant dècades s’ha guardat sota clau i ni tan sols els treballadors saben la recepta completa.
La llegenda diu que dos dels seus creadors mai viatjaven junts en avió per evitar que la fórmula es perdera en cas d’accident.
Això és legítim: les empreses poden tindre secrets.
Però hi ha límits. Encara que Coca-Cola puga guardar la recepta, està obligada a informar sobre quant de sucre porta, quina cafeïna té i quantes calories aporta.
Per què? Perquè són elements que afecten la salut de la ciutadania, i aquesta té dret a prendre decisions informades.
Igual passa amb els algoritmes: no cal que ens donen tota l’equació matemàtica, però sí la part que ens impacta com a persones.
Significa que els criteris bàsics que utilitza l’algoritme han de ser visibles i entenedors.
És com l’etiquetatge nutricional d’un aliment: no ens diu el procés complet de fabricació, però sí els ingredients principals i els efectes sobre la salut.
En el cas de les xarxes socials: hauríem de saber si es prioritza el temps de visualització, si es promocionen uns idiomes més que altres o si hi ha filtres que marginen determinats col·lectius.
El dret d’accés va un pas més enllà. És la possibilitat de preguntar i obtindre resposta quan una decisió automatitzada ens afecta directament.
Exemple: si et deneguen un crèdit, tens dret a saber si ha sigut un algoritme i quins criteris ha utilitzat.
També tens dret a demanar una revisió humana si penses que la decisió és injusta.
Els secrets comercials són legítims, però mai poden estar per damunt dels drets fonamentals de la ciutadania. La transparència i el dret d’accés són com les advertències en els paquets de tabac o les etiquetes dels aliments: eines que ens permeten consumir de manera informada i protegida.
Els algoritmes ja no són una qüestió de futur ni de ciència-ficció: estan presents en tots els àmbits de la vida quotidiana. Per això és tan important exigir drets de transparència i accés. A continuació repassem alguns exemples concrets i els drets que hi estan en joc.
Quan comprem per internet, els algoritmes ens mostren uns productes i n’amaguen altres, decidint què tenim a l’abast.
En banca i assegurances, poden establir si obtenim un préstec o quin preu paguem per una pòlissa.
Dret implicat: accés a informació clara i possibilitat de recurs humà davant una decisió automàtica.
Algoritmes ajuden a prioritzar pacients en llistes d’espera o a detectar malalties en radiografies.
El risc és que discriminen sense voler, per exemple, per edat o per codi postal.
Dret implicat: segona opinió i garanties de privacitat en dades sensibles.
Sistemes automàtics assignen places en escoles o decideixen beques segons barems.
També apareixen en plataformes educatives que adapten continguts a cada alumne.
Dret implicat: igualtat d’oportunitats i accés transparent als criteris de selecció.
Ja s’usen càmeres amb reconeixement facial i programes de predicció del delicte.
Això pot acabar criminalitzant barris o col·lectius sencers.
Dret implicat: a no ser discriminat i a conéixer com s’aplica la tecnologia que afecta llibertats fonamentals.
Són l’espai on més clarament veiem el poder dels algoritmes.
Poden invisibilitzar llengües minoritzades, com el valencià, o reforçar només continguts globals.
Dret implicat: diversitat cultural i lingüística garantida en l’entorn digital.
Els menors són especialment vulnerables a continguts addictius o nocius.
Els pares i mares haurien de tindre eines per limitar temps i tipus de contingut.
Igual que no deixem fumar fins als 18 anys, tampoc hauríem de donar accés lliure a xarxes sense controls abans d’una edat de maduració adequada (mínim 16, ideal 18).
Dret implicat: protecció de la infància davant riscos digitals.
Cap d’aquests drets no arriba sol. Necessitem moviments socials i pressió ciutadana.
La història mostra com es conquereixen drets: primer invisibilitat, després conscienciació, mobilització i, finalment, reconeixement legal.
Ara estem just en el moment de mobilització: si no actuem, els algoritmes continuaran segregant-nos i decidint a l’ombra.
Els algoritmes travessen totes les dimensions de la vida. Sense participació ciutadana, quedarem en mans d’empreses i governs. Amb participació, podem aconseguir que la transparència algorítmica siga un dret civil fonamental en el segle XXI.
A més d’explicar conceptes, és important que l’alumnat experimente en primera persona com funcionen els algoritmes. Per això proposem un exercici pràctic senzill i unes reflexions finals per consolidar aprenentatges.
Objectiu: comprovar com de ràpid adapta el feed un algoritme quan li donem senyals clars.
Preparació
Cada persona posa el mòbil en silenci i només donar like als vídeos que tinguen subtítols.
Triar un tema concret (ex.: “alta capacitat intel·lectual”, “dieta”, “música en valencià”).
Triar també una llengua (valencià/català, castellà, anglés).
Búsqueda inicial (sembrar la dada)
Buscar vídeos del tema en la llengua escollida.
Veure tres vídeos complets que complisquen criteris (tema + subtítols).
Fer interaccions: donar like, comentar breument i subscriure’s/seguir almenys un creador.
Rentat i reentrada
Tancar l’app un minut.
Tornar a obrir-la i accedir al feed principal (For You, Inicio).
Mesura
Iniciar cronòmetre.
Anotar quant de temps i quants vídeos passen fins aconseguir tres vídeos seguits amb el tema i subtítols.
Registrar també si apareixen vídeos extremistes, repetitius o d’una sola llengua.
Discussió en grup
Comparar resultats entre plataformes.
Reflexionar: quin algoritme ha reaccionat més ràpid? S’ha detectat extremisme/polarització?
Els algoritmes són invisibles però poderosos. Igual que el fum del tabac, tenen efectes col·lectius sobre salut mental i convivència.
El negoci és la nostra atenció. Tot el que sembla gratuït es paga amb dades i temps.
No són neutres. Premien el polèmic, l’addictiu i el que més rendibilitat genera.
La transparència i el dret d’accés són imprescindibles. Hem de poder saber què hi ha darrere de les recomanacions i tindre control sobre dades i contingut.
La participació ciutadana és clau. Igual que es va aconseguir etiquetatge en aliments o restriccions del tabac, cal mobilitzar-se per regular els algoritmes.
Edat de maduració digital. No hauria de ser normal donar accés lliure a xarxes addictives a menors sense controls, igual que no deixem fumar abans dels 18 anys.
Els algoritmes no són màgia, són eines dissenyades per orientar el que veiem i pensem. Com més consciència i informació tenim, més capacitat guanyem per decidir lliurement. La transparència algorítmica no és un luxe tècnic, sinó un dret de la ciutadania en el segle XXI.