Avui més que mai la privacitat i la protecció de dades són crucials, i no només per la creixent quantitat d’informació personal que es recopila, tracta i comparteix. Els avenços tecnològics, com l’aparició de la intel·ligència artificial (IA), tenen grans implicacions en la privacitat de les persones. Per exemple, t’has preguntat mai com una IA recull les dades que troba a la xarxa per crear el seu propi contingut i amb quina base legal ho fa? Estàs segur que els usuaris han donat prèviament el seu consentiment per a aquest tractament?

Tot i que les dades provinguin de fonts públiques, es van facilitar per a d’altres finalitats i en altres contextos i normalment la persona interessada no sabia que podrien ser utilitzades per una IA. I si aquesta informació és falsa? Imagina’t que dona unes dades sobre la teva persona que no s’ajusten a la realitat o bé barreja informació d’una altra persona que es diu igual que tu. I si algú deliberadament introdueix informació errònia amb la intenció d’entrenar-lo perquè reprodueixi mentides? 

És evident, doncs, que aquest nou paradigma ens planteja grans reptes per protegir la nostra privacitat, però cada cop hi ha més tecnologies, no necessàriament basades en IA, que tenen incidència en la nostra privadesa. Per exemple, les que fan un monitoratge per investigar què fas, què t’agrada i establir un perfil comportamental. D’entrada pot semblar que això no envaeix la nostra intimitat i, fins i tot, hem arribat a sentir algú que diu que és positiu que les empreses ofereixin productes que s’adaptin als nostres interessos i gustos. Però al final aquest tipus de pràctiques limiten la diversitat de la informació fent que les persones no puguin ser creatives, gaudir d’altres opcions o alternatives que encara no han provat. 

De la mateixa manera, en els últims anys hem observat un augment de la radicalització en diferents assumptes cabdals de la nostra societat que es veuen especialment agreujats quan es tracta de delictes d’odi o contra llibertat d’expressió. I les empreses tecnològiques que a canvi de dades biomètriques, com l’iris, t’ofereixen uns diners? Quin model de negoci tenen? Quin valor tenen les teves dades: 50, 70 euros? Les dades biomètriques identifiquen una persona de forma inequívoca i no es poden modificar com un número de telèfon o un IBAN o contrasenya. Aquesta és una qüestió que les multinacionals semblen haver entès molt bé ja fa temps, però no així la major part de la ciutadania. 

Fa unes setmanes, des de l’Agència Andorrana de Protecció de Dades (APDA) vam assistir a una reunió virtual amb autoritats de diferents països en què vam abordar les implicacions de la IA en els entorns de la informació i la comunicació. Una de les principals conclusions que vam extreure està relacionada amb la necessitat de crear una mena d’acreditacions governamentals que certifiquin que les empreses que fan servir la IA ho fan de manera ètica i democràtica. I és que si els governs no intervenen, qualsevol empresa podria fer un ús inadequat i, per tant, vulnerar els drets de les persones sense conseqüències penals ni econòmiques. 

Una altra opció que es va plantejar va ser la distinció d’una marca d’aigua obligatòria per a totes les creacions fetes amb IA perquè tothom les pugui reconèixer com a tals i evitar la desinformació, tot i que en els sistemes per so, això suposa una dificultat afegida.  Perquè, en definitiva, les tecnologies haurien de servir per millorar i fer-nos la vida més fàcil i no pas per generar discriminacions o divisions, i els Estats democràtics tenim l’obligació de supervisar les empreses que les facin servir per garantir sempre els drets, les llibertats i la protecció dels ciutadans.