Reporta beneficios y utilidades en todos los sectores y servicios y va a transformar la vida cotidiana, pero la Inteligencia Artificial (IA) se ha convertido en una nueva amenaza y en un reto para la adecuada protección de los datos personales ante la capacidad de esta tecnologÃa de recabar datos y trazar perfiles, y hacerlo además sin ningún consentimiento.
A través del "aprendizaje automático", de técnicas de "minerÃa de datos" o de algoritmos predictivos, las máquinas son capaces de tratar millones de datos y hacer análisis y deducciones, pero pueden hacerlo con sesgos que, si no son revisados y reinterpretados, podrÃan incluso definir perfiles personales que ni siquiera sean exactos, almacenarlos y tratarlos sin autorización.
La IA está detrás de la personalización de anuncios en internet; de la predicción de hipotecas; del diagnóstico de pacientes a partir de sus datos; del reconocimiento facial en lugares donde prima la seguridad; de los asistentes inteligentes en el hogar; de la optimización del recorrido que hace una persona; o de los procedimientos de muchas empresas para seleccionar a sus trabajadores.
Para poner de relieve los aspectos más importantes que se deben tener en cuenta a la hora de diseñar productos y servicios que incluyen el tratamiento de datos a partir de la inteligencia artificial y adaptarlos al Reglamento General de Protección de Datos, la Agencia Española de Protección de Datos (AEPD) ha editado una guÃa que repasa las inquietudes que genera el uso de esta tecnologÃa.
Luis de Salvador, responsable de la Unidad de Evaluación y TecnologÃas de la AEPD, ha señalado que la Inteligencia Artificial puede implicar riesgos "pero también puede ser una herramienta para la protección de los datos personales" y ha apuntado que existen ya aplicaciones basadas en esa tecnologÃa que podrÃan servir para reforzar la protección de los datos personales.
"Todo avance e innovación conlleva grandes beneficios y también posibles riesgos; el peligro de esos riesgos está en ignorarlos", ha expresado a EFE Luis de Salvador, quien ha manifestado que la IA supone desafÃos y retos importantes "pero no insuperables".
Está seguro de que el Reglamento español es suficientemente flexible para hacer frente a este desafÃo e incluye los instrumentos necesarios para que todas las aplicaciones que usan ese tipo de inteligencia respeten los derechos y libertades de los ciudadanos.
Leyes fuera de juego
Miguel Ortego, profesor de Derecho en la Universidad Europea y experto en derecho tecnológico, ha subrayado sin embargo que el riesgo de que los datos personales estén indebidamente protegidos es "evidente", y ha opinado que la legislación actual se basa en modelos "muy antiguos" y no se adapta a las realidades y necesidades actuales.
"La legislación española está fuera de juego", ha declarado a EFE el profesor, y ha señalado que aunque la legislación europea y española es mucho más robusta que la americana, tienen "muchos déficits y lagunas" y no está en lÃnea con la velocidad a la que avanza la tecnologÃa, por lo que a su juicio va a quedar "desfasada" en pocos años.
La guÃa de la AEPD incide en la importancia de la "dimensión ética" de la Inteligencia Artificial y de proteger valores como la libertad, la dignidad, la justicia frente al "razonamiento mecánico", en el riesgo de que las máquinas utilicen sesgos que deriven en discriminaciones, y de que los resultados de esta tecnologÃa sean aceptados como ciertos e inamovibles sin ningún espÃritu crÃtico.
Este organismo ha incidido por ello en la importancia de la "exactitud" de los datos personales, y en que ésta es especialmente crÃtica cuando el tratamiento de los datos está basado en información biométrica -como el reconocimiento facial o la huella dactilar- o cuando se recogen datos de personas con alguna discapacidad o singularidad fÃsica.
Un riesgo real
El profesor Miguel Ortego ha advertido del riesgo "real" de almacenar información con sesgos y se ha referido al caso del sistema holandés que utilizaba el Gobierno para detectar posibles delincuentes y fraudes y usaba de forma sesgada datos sobre la raza y condiciones socio-económicas para determinar quién tiene más posibilidades de delinquir.
Ortego ha diferenciado la IA "débil" , que a su juicio es "muy predecible" y está ampliamente controlada por los programadores y las personas; y la IA "fuerte": máquinas capaces de auto-aprender, de manejarse solas, de segmentar datos e información y hasta de vender datos sensibles por sà solas.
Ha incidido por ello en la importancia de la dimensión "ética" en una sociedad tan tecnológica y digitalizada, y se ha mostrado convencido de que en muy pocos años las maquinas van a tener una capacidad de procesar muy superior a la del cerebro humano, pero seguirán careciendo de la parte emocional. EFE
0 Comentarios