Ens trobem en un moment en què constantment sentim a parlar de l’ús dels sistemes d’intel·ligència artificial (IA) i les seves implicacions en diferents àmbits. La tecnologia està cada vegada més integrada en les nostres vides i les seves conseqüències tenen un abast considerable. La utilització de la IA ofereix un gran potencial per a la millora de molts aspectes, però també comporta assumir desafiaments importants, com ara el risc de perpetuar les desigualtats i els prejudicis de gènere que encara persisteixen a escala global.

Justament, una de les actuacions que preveu la Llei per a l’aplicació efectiva del dret a la igualtat de tracte i d’oportunitats i a la no-discriminació entre dones i homes és “integrar la perspectiva d’igualtat de tracte i no-discriminació per raó de sexe en totes les polítiques, els programes i les investigacions relacionades amb la IA per evitar el risc que la tecnologia perpetuï el sexisme i els estereotips de gènere”. En aquest context, des de l’Institut Andorrà de les Dones (IAD) i l’Agència Andorrana de Protecció de Dades (APDA) volem donar a conèixer els riscos i l’impacte de l’ús d’aquesta tecnologia en la perspectiva de gènere, perquè, d’una banda, els usuaris sàpiguen que les IA també poden comportar biaixos sexistes i, de l’altra, perquè els desenvolupadors d’aquests sistemes evitin el màxim possible pràctiques discriminatòries i generin IA imparcials des d’un punt de vista ètic i humanístic.

L’enfocament cap a la igualtat de gènere i la no-discriminació, doncs, és un factor fonamental en la creació i implementació de sistemes d’IA. Tot i que la tecnologia en si mateixa no té intencions ni emocions, sí que és susceptible de reflectir i amplificar els patrons de discriminació humana que han existit històricament. Quan els conjunts de dades utilitzats per entrenar els models d’IA presenten desequilibris de gènere o prejudicis, aquests poden ser ampliats en les decisions i recomanacions de la IA, fins i tot de manera implícita, de manera que és un deure de tots, dones i homes, assumir la responsabilitat de prendre les decisions més justes, respectuoses i sostenibles.

Per exemple, el cas dels sistemes de selecció de personal basats en IA podrien entrenar-se amb dades històriques, com la preferència per certes professions per a un gènere concret. També és molt il·lustratiu el cas de l’ús de la IA en la segmentació d’anuncis en grups de persones, ja que aquest sistema treballa amb dades que reflecteixen preferències estereotipades, com ara mostrar anuncis de productes de neteja només per a dones. Però endinsem-nos en el món financer: si els sistemes d’IA s’utilitzen per avaluar la solvència creditícia i decidir les condicions dels préstecs, podrien prendre decisions basades en patrons històrics de gènere, com la falsa percepció que les dones tenen menys estabilitat financera que els homes. La selecció de continguts en línia també podria ser una bona prova d’aquests riscos, tenint en compte que els algoritmes que seleccionen continguts, com les notícies o els articles, poden presentar preferències inconscients de gènere en funció dels interessos o les tendències històriques dels usuaris, reforçant així determinats punts de vista i rols de gènere. De fet, això ja succeeix en les pràctiques de seguiment i personalització mitjançant les galetes i altres tecnologies similars.

Per tot plegat, és fonamental que es dissenyin per defecte amb aquesta perspectiva de gènere, cosa que implicaria desenvolupar algoritmes no esbiaixats, alimentant els sistemes amb dades diverses i representatives, incloent-hi una varietat de veus, experiències i perspectives de gènere, fent una revisió ètica del sistema, establint equips multidisciplinaris amb experts en gènere, igualtat, ètica i drets humans.