Un equipo de la UPV diseña un sistema para proteger la privacidad en aplicaciones de IA generativa

La privacidad es una de las víctimas de la sociedad digital. Con toda nuestra vida en las redes sociales y en los sistemas de publicidad de los grandes buscadores, la inteligencia artificial se convierte en un arma realmente peligrosa en manos de quienes les quieren dar un uso criminal o fraudulento mediante falsificación de imágenes o deepfakes, por su término en inglés. Para proteger algo más a los usuarios, investigadores de la Universidad Politécnica de Valencia (UPV) han ideado un sistema dirigido a sistemas de inteligencia artificial generativa.

@elespanolcom 🫂 El abrazo de Sánchez y Feijóo por Navidad: la inteligencia artificial reconcilia a los políticos. 🎄 Un usuario de X (antes Twitter) ha compartido el vídeo generado con IA en el que se puede ver a varios políticos unidos y con gran espíritu navideño. #ia #ai #inteligenciaartificial #pedrosanchez #sanchez #feijoo #ayuso #yolandadiaz #navidad ♬ sonido original – EL ESPAÑOL 🦁

El sistema se ha desarrollado en el marco del proyecto PRI4GENAI, liderado por VRAIN, que también propondrá intervenciones educativas enfocadas fundamentalmente para niños, niñas y adolescentes con el objetivo de concienciarles sobre los riesgos de privacidad en este tipo de aplicaciones de inteligencia artificial.

El proyecto Privacy Risks in GenAI for Children, Teens and Adults (PRI4GENAI) está colaborando con la Cátedra de Infancia y Adolescencia de la UPV. Antes de realizar esta propuesta, está llevando a cabo un exhaustivo estudio sobre cómo las personas usuarias perciben los riesgos de privacidad en IA generativa y qué normas de privacidad consideran que se deben seguir al utilizar esta.

¿Cómo son quienes crean deepfakes?

En el marco de este proyecto se está estudiando qué perfiles de personas crean deepfakes, qué motivación tienen para crearlas, y con qué objetivo se crean, entre otras investigaciones.

A partir de toda esta información, el equipo del proyecto llevará a cabo una serie de acciones educativas con colegios, y trabajará en el desarrollo de los nuevos asistentes de privacidad.

José Such y Elena del Val están detrás de este sistema para proteger la privacidad de la IA.

Qué riesgos para la privacidad conlleva la IA generativa

La Inteligencia Artificial (IA) generativa “se ha vuelto muy popular en los últimos años. Este uso genera preocupación por los posibles riesgos para la privacidad, incluido el intercambio de datos personales o confidenciales y uso indebido de la información personal generada, entre otros”, explica el investigador de VRAIN y catedrático de la UPV, José Such, quien, junto a Elena del Val, también investigadora del VRAIN y profesora titular de la UPV, son los investigadores principales del proyecto.

Hasta ahora, añade Elena del Val “la investigación sobre la privacidad en IA generativa se ha centrado en la perspectiva del modelo, por ejemplo riesgos de memorización y extracción de modelos de IA generativa. Sin embargo, no existe una investigación exhaustiva sobre la privacidad en IA generativa desde el punto de vista de los usuarios finales de las aplicaciones que utilizan este tipo de IA”.

Con la evidencia científica que se genere, el proyecto planteará intervenciones sociotécnicas que asistan a los usuarios a la hora de preservar y gestionar su privacidad cuando usan IA generativa.