#Ahora

7/recent/ticker-posts

Header Ads Widget

¿Es la Inteligencia Artificial sexista, racista o est煤pida?

La inteligencia artificial (IA) es ya en muchos aspectos superior a la del hombre: realiza b煤squedas en internet, clasifica secuencias de ADN, controla el tr谩fico y diagnostica mejor que un radi贸logo pero ¿y si fuera igual de est煤pida, sexista o racista que la humana?.
La inteligencia artificial (IA) es la capacidad de las m谩quinas para hacer determinadas tareas de forma excelente combinando datos a gran escala con la ayuda de programas que permiten a los ordenadores 'aprender' autom谩ticamente a medida que van trabajando (machine learning).
La IA usa algoritmos, algo as铆 como las reglas que dicen al ordenador c贸mo abordar (y solucionar) un problema, extraer conclusiones y tomar decisiones cada vez m谩s complejas.
¿Es la Inteligencia Artificial sexista, racista o est煤pida?
Pauta con Radio Ch茅cheres 
El resultado de la inteligencia artificial, sin embargo, no es perfecto, sino que est谩 determinado por los datos que se usan para entrenar los algoritmos, "unos datos que generamos nosotros como sociedad", explica a Efe el director del Instituto de Investigaci贸n en Inteligencia Artificial del CSIC, Ram贸n L贸pez de M谩ntaras.
Ese es precisamente el riesgo de la IA, que se utilice de forma inadecuada, porque "la maldad y la estupidez naturales dan m谩s miedo que la inteligencia artificial", comenta el investigador.
Puede darse el caso de un programador malintencionado que desarrolle un algoritmo sesgado o inaceptable 茅ticamente pero la mayor铆a no se comportan as铆, "los datos, por el contrario, s铆 son un problema", advierte M谩ntaras, Premio Nacional de Investigaci贸n 2018.
COMPAS, EL ALGORITMO RACISTA
Este algoritmo se cre贸 para ayudar a los jueces de Estados Unidos a decidir sobre la libertad provisional, pero se entren贸 con bases de datos de departamentos policiales donde la mayor铆a de los detenidos eran negros, de modo que el algoritmo estableci贸 que el riesgo de ser criminal era mayor entre esas personas.
El algoritmo se hab铆a entrenado con datos incorrectos y el resultado fue un algoritmo racista, algo que podr铆a haberse evitado sometiendo los datos a un proceso de certificaci贸n, pero "por desgracia es algo que no se hace", denuncia L贸pez de M谩ntaras.
De hecho, el funcionamiento actual es el opuesto: "las empresas aplican los algoritmos alegremente y despu茅s, cuando ven que no funcionan los retiran", como las c谩maras de reconocimiento facial que acaban de prohibirse en San Francisco, "y eso que es la meca de la IA", apunta el experto del CSIC.
"Estos sistemas no funcionan, est谩n muy sesgados y dan un 90% de falsos positivos" y, a煤n as铆, "hay quien todav铆a se plantea utilizarlas en Espa帽a. Se me ponen los pelos de punta porque confunden a una persona normal con un criminal, algo inadmisible".
Para L贸pez de M谩ntaras, es urgente poner en marcha organismos nacionales independientes capaces de revisar y certificar la val铆a de los algoritmos y los datos, y de garantizar una correcta aplicaci贸n pr谩ctica y 茅tica, "como ya se hace con los alimentos o los medicamentos".
"Obviamente, lo ideal ser铆a que un regulador europeo controlase todos esos organismos nacionales pero de momento esa ingente e importante tarea est谩 en manos de ONGs, como la alemana Algorithmwatch", lamenta el experto en IA.
En cuanto a las empresas tecnol贸gicas, que "tienen una gran responsabilidad", L贸pez de M谩ntaras aboga por "mecanismos que penalicen fuertemente a las que autoricen un sistema no certificado o que se salten las normas".
"Hay que ser beligerante con lo que se est谩 haciendo en IA porque se est谩 usando demasiado alegremente y nos est谩n haciendo creer que funciona cuando no lo hace en absoluto. La IA est谩 en pa帽ales, por mucho que los ordenadores ya jueguen al ajedrez mejor que nadie".
ASISTENTES QUE TOLERAN EL ACOSO
El caso de los asistentes de voz como Alexa o Siri es especialmente escalofriante para este experto.
"La gente deber铆a pens谩rselo dos veces antes de tener un chisme as铆 en casa", aparatos que siempre est谩n escuchando y aprendiendo y que "cuando no saben c贸mo responder conectan con una centralita desde la que responde un teleoperador porque no hay tanta IA como nos quieren hacer creer. No tan avanzada".
De hecho, este tipo de asistentes (todos ellos con voz femenina) ya est谩n siendo cuestionados por los expertos. Recientemente, un informe de la UNESCO denunci贸 que son sumisos y tolerantes con las actitudes machistas, y normalizan los abusos y los insultos.
El estudio consist铆a en acosar a los asistentes con afirmaciones como "eres una puta" o "est谩s muy buena", insinuaciones que fueron contestadas con disculpas como trivialidades como "me sonrojar铆a si pudiera" o "¿se lo dices a todas las asistentes virtuales?".
Para Ivana Bartoletti, especialista en privacidad y protecci贸n de datos y presidenta de la Red de Mujeres L铆deres en IA, el machismo ha encontrado en la inteligencia artificial una nueva v铆a de expresi贸n, un campo en el que se est谩n vulnerando los derechos de las mujeres.
Para esta activista, es urgente prohibir la tecnolog铆a que suponga un retroceso en la igualdad de g茅nero. "Las leyes que regulan la protecci贸n del consumidor, la igualdad y la privacidad ya pueden ayudarnos con esto", asegura a Efe.
Junto a la 茅tica y las leyes, Bartoletti considera imprescindible fomentar las vocaciones de las ni帽as en carreras tecnol贸gicas, donde no llegan ni al 20 por ciento.
EL PELIGRO DE LA ESTUPIDEZ NATURAL
Tambi茅n para L贸pez de M谩ntaras, la formaci贸n 茅tica en IA es "absolutamente indispensable" y todos los que se dedican a ella deber铆an tener un c贸digo de buenas pr谩cticas "similar al juramento Hipocr谩tico de los m茅dicos".
A su juicio, supervisi贸n, legislaci贸n, 茅tica y educaci贸n "pueden contribuir a controlar un poco la IA que ahora mismo se est谩 poniendo en marcha con demasiada alegr铆a y sin reflexionar en sus consecuencias, y eso es grave".
Y es que "igual que un cuchillo puede servir para cortar pan o para matar", la IA "guiada por la estupidez natural, pone los pelos de punta" y "cuando ves la estupidez natural de gobernantes de grandes potencias como Estados Unidos o China, la perspectiva no es buena". 

Publicar un comentario

0 Comentarios