Fue en 1997 cuando la inteligencia artificial pasó de un concepto. que comúnmente se asociaba con películas de ciencia ficción futuristas, a una realidad:
«Cuando el campeón mundial de ajedrez Gary Kasparov cayó ante la supercomputadora de IBM Deep Blue».
Dos décadas después, los avances en este tipo de tecnología se han sucedido a pasos agigantados:
AlphaGo, un programa de ordenador desarrollado por Google Deep Mind, ganó a uno de los mejores jugadores de Go, un juego de estrategia que se caracteriza por tener más combinaciones posibles de las que pueden calcularse.
Ahora, la inteligencia artificial va haciéndose un hueco en nuestro día a día:
Desde los avances en coches autónomos, aplicaciones de música que hacen sugerencias en base a nuestro historial de reproducciones, o chatbots en páginas web que nos ofrecen su ayuda.
TECNOLOGÍAS DEL BIG DATA
Dentro de la Ciencia de Datos, las dos tecnologías de las que más se está hablando, ambas englobadas en el campo de la inteligencia artificial, son:
- el Aprendizaje Automático (Machine Learning)
- el Aprendizaje profundo (Deep Learning),
En los dos casos se busca la construcción de sistemas que sean capaces de aprender a resolver problemas sin la intervención de un humano.
Sistemas que van desde la predicción ortográfica o traducción automática , hasta los coches autónomos, o los sistemas de visión artificial, aplicados a casos de uso tan espectaculares como las tiendas de Amazon Go.
PROTECCIÓN DE DATOS Y BIG DATA
En este escenario, hay quien piensa que la normativa sobre protección de datos supondrá un freno a estos avances tecnológicos, cuando la información analizada contenga datos personales.
Sin embargo, de cara a que el progreso de esta tecnología se construya de manera eficiente, es necesario considerar la privacidad, como la base en la que debe apoyarse, y no como el techo que frene su crecimiento.
La inteligencia artificial es una forma de explotar Big Data, siendo actualmente el llamado «machine learning», o aprendizaje automático, su rama más comercializada.
El machine learning
Esta técnica supone la creación de algoritmos matemáticos basados en el análisis de grandes cantidades de datos, extrayendo correlaciones para crear modelos, que posteriormente se aplican a nueva información.
Así, esta herramienta es capaz de aprender de su propia experiencia, incluso con independencia del aporte de información por parte del hombre.
Podemos afirmar que los datos son la gasolina de la inteligencia artificial.
Es por ello que las empresas sienten rechazo a eliminar información, y almacenan un abanico de datos mayor del necesario, pues consideran que en algún momento podrán sacarle rendimiento.
Conflicto con el RGPD
Pero ya deberíamos saber que cuando se utilizan datos personales, no eliminar la información que no es necesaria, entra en conflicto con dos principios de la protección de datos:
- la minimización de datos
- la limitación de la finalidad.
De acuerdo con el RGPD, únicamente podrán tratarse aquellos datos adecuados, pertinentes y limitados a lo necesario en relación con los fines para los que son tratados, que a su vez deben ser: determinados, explícitos y legítimos.
Elaboración de perfiles
Una de las aplicaciones que se da al «machine learning» es en relación con la toma de decisiones automatizadas basadas en «profiling», o elaboración de perfiles de los interesados.
Cuando esta decisión produce efectos jurídicos en el interesado, o le afecta de manera significativa, se añaden obligaciones adicionales al genérico deber de informar del tratamiento de sus datos.
Es decir, que, deberá trasladarse al interesado, información relevante sobre la lógica implicada en la toma de decisiones.
¿Cuál es el problema?
El problema es que, por la naturaleza de esta tecnología, no siempre es posible determinar cómo se ha llegado a ese resultado, o razonarlo en términos entendibles al ser humano.
El Grupo de Trabajo del artículo 29 ha entendido que esta complejidad no es excusa suficiente para evitar cumplir con la obligación de informar, aunque interpretó de manera suavizada este requisito entendiendo que:
«lo que se traslade al interesado debe ser suficientemente comprensible para que pueda entender las razones detrás de la decisión, pero sin necesidad de dar una explicación compleja sobre los algoritmos utilizados, o revelar el algoritmo completo».
¿CÓMO SE APLICA LA NORMATIVA DE PROTECCIÓN DE DATOS AL BIG DATA?
Sin que seamos conscientes de ello, los nuevos tipos de datos se recopilan a través de diversos sensores, cookies, o se producen utilizando algoritmos de «machine learning», y métodos analíticos.
¿A quién no le ha pasado que tras buscar algo en la web, se muestra repetidamente en sus búsquedas?
Muchos sitios web insisten en mostrar el mismo objeto, o servicio, sobre el que el usuario hizo clic una vez.
Remarketing y retargeting. Las cookies
Remarketing y retargeting son variantes de la publicidad de segmentación por comportamiento, que selecciona a los destinatarios más adecuados para recibir la publicidad de un producto.
Los anunciantes cuentan, como aliadas, con las cookies:
Esos pequeños archivos de texto que, cada vez más webs, guardan en el ordenador o el móvil y que, en su versión más inocente, simplemente ayudan a que el dispositivo recuerde qué edición local de un diario prefiere el usuario o en qué idioma suele consultar una web.
La complejidad de los grandes análisis de datos no debe impedir que las empresas cumplan con las normas de protección de datos.
Las webs están obligadas a informar a los usuarios, y a obtener su consentimiento.
En el caso de que un aviso de cookies no cumpla con la normativa, el usuario puede acudir a la Agencia Española de Protección de Datos para poner una reclamación.
Base legitimadora
Si se invoca el consentimiento o los intereses legítimos, como fundamento jurídico para el tratamiento de los datos personales en el Big Data, deben cumplirse todas las condiciones pertinentes para dicho procesamiento, establecidas en la normativa de protección de datos.
Es improbable que el contrato sea una base válida para el análisis de datos de gran tamaño, ya que será difícil demostrar que el nivel de procesamiento de los grandes datos analíticos sea «necesario» para el desempeño de un contrato.
Dado que los grandes datos analíticos generalmente reutilizan los datos personales, las empresas necesitarán obtener el consentimiento informado para cualquier uso secundario de los datos personales, cumpliendo este escenario, también, cuando los datos personales se obtienen de otras organizaciones y no directamente de los individuos.
Pautas a cumplir
Aunque los principios de minimización de datos y retención de estos, podrían ser difíciles de cumplir, las empresas que realizan Big Data deben:
- definir el objetivo de dicho análisis desde el principio
- garantizar que los datos personales que utilizan no son excesivos
- que los datos son relevantes para el objetivo por el cual se entregaron o cedieron.
RECOMENDACIONES CLAVE
- Principio de Privacy by Design, entendiéndose que, desde el diseño de la tecnología, se deberá tener en cuenta el concepto de privacidad.
- La pseudonimización, o en la medida de lo posible, anonimización de los datos personales, cuando no sean necesarios para el análisis.
- Los tratamientos de datos en los que se utilicen herramientas de inteligencia artificial, deberán ser objeto de una evaluación de impacto o PIA, para analizar los efectos sobre los derechos y libertades de los interesados, al tratarse de tecnologías innovadoras e ir asociados normalmente a la elaboración de perfiles.
- Transparencia en el uso de datos personales en Big Data, proporcionando avisos de privacidad en las etapas apropiadas, y a lo largo de todo el proyecto de obtención de datos.
- Implementar auditorias internas, y externas, de los algoritmos de «machine learning», para verificar si hay sesgo, discriminación y errores.
Recordemos que más que poner frenos, lo que debe hacerse es equilibrar los avances de la inteligencia artificial con la privacidad.