La Universidad de Granada (UGR) y el Instituto Nacional de Ciberseguridad (INCIBE) han creado FLEX, una aplicación de inteligencia artificial que redefine la forma en que las máquinas aprenden de los datos, sin comprometer la privacidad de los usuarios. Este avance resulta fundamental para respetar dicha privacidad y cumplir con las normas que la regulan.
Esta solución hace uso del aprendizaje federado (FL por sus siglas en inglés), una técnica emergente que permite entrenar modelos de inteligencia artificial directamente en dispositivos locales, evitando la transferencia de datos sensibles a servidores centrales. FLEX lleva esta tecnología al siguiente nivel, proporcionando una plataforma modular y de código abierto que cumple con las estrictas normativas internacionales.
Cómo FLEX protege los datos de los usuarios
En lugar de enviar datos a un servidor central, FLEX permite que los modelos de inteligencia artificial aprendan directamente en dispositivos locales, como móviles o computadores, enviando solo información anónima. Este enfoque asegura que los datos personales nunca abandonen su lugar de origen, alineándose con las exigencias de privacidad. “Nuestra visión con FLEX es clara: demostrar que la tecnología puede ser innovadora y ética al mismo tiempo”, afirma Nuria Rodríguez, del equipo de desarrollo de la Universidad de Granada.
FLEX se ha diseñado para investigadores, empresas e instituciones. Permite la distribución de datos personalizada, el empleo de parámetros avanzados de privacidad y el desarrollo de estrategias de comunicación optimizadas. Además, incluye bibliotecas específicas para aplicaciones como detección de anomalías, uso de blockchain, análisis de ataques y defensas, procesamiento de lenguaje natural y algoritmos basados en árboles de decisión. Estas funcionalidades permiten su implantación en sectores tan diversos como la banca, donde la privacidad es clave; y la sanidad, donde manejar datos sensibles de pacientes es una prioridad.