La Universidad de Granada, en colaboración con Repsol, ha conseguido una financiación de 1,6 millones de euros para crear una cátedra universidad-empresa que, en los próximos cuatro años, desarrollará el proyecto Inteligencia Artificial Ética, Responsable y de Propósito General: Aplicaciones en Escenarios de Riesgo.
La UGR presentó su proyecto en noviembre a una convocatoria del Ministerio de Asuntos Económicos y Transformación Digital que en el marco de la Estrategia Nacional de Inteligencia Artificial (ENIA), financiará cátedras universitarias dedicadas a la investigación, divulgación, docencia e innovación sobre Inteligencia Artificial (IA) y ciberseguridad. Este 23 de enero se ha hecho pública la resolución y el proyecto ha sido el mejor valorado de todos los presentados obteniendo la financiación máxima posible.
Inteligencia Artificial Ética, Responsable y de Propósito General: Aplicaciones en Escenarios de Riesgo es un proyecto cofinanciado por Repsol, que aportará a la cátedra 400.000 euros, que se suman a los 1,2 millones financiados por el Ministerio. Esta cátedra representa un nuevo hito en la colaboración entre la UGR y Repsol, que desde hace cinco años mantienen una estrecha e ininterrumpida colaboración a través de diversos proyectos de investigación y transferencia de tecnología basada en Inteligencia Artificial.
Qué aspectos de la inteligencia artificial se abordarán en esta cátedra de la UGR
En este caso, se trata de un ambicioso proyecto donde avanzar en uno de los grandes desafíos de la Inteligencia Artificial (IA) como es el desarrollo tecnologías inteligentes con una dimensión ética y de uso responsable se encuadran en la denominada IA fiable (Trustworthy Artificial Intelligence, en inglés). El proyecto incluye un amplio programa de divulgación científica para dar a conocer esta IA fiable, así como un espacio de formación que abordará la creación de cursos especializados en esta temática.
Esta cátedra universidad-empresa tiene además una proyección internacional con la inclusión de dos investigadores de la Universidad de Módena, Rita Cucchiara y Lorenzo Baraldi, con amplia experiencia en el campo de explicabilidad de los algoritmos de IA. Estos se unen a un equipo interdisciplinar de investigadores de Repsol y de la Universidad de Granada (Francisco Herrera, Enrique Herrera, Sergio Damas, Natalia Díaz, Coral del Val, Daniel Molina, Francisco Lara, Isaac Triguero, Victoria Luzón, Rosana Montes, Siham Tabik y Rocío Romero). Todos los participantes tienen una amplia experiencia en esta área de investigación.
Qué requiere el desarrollo de sistemas de inteligencia artificial fiables
El desarrollo de sistemas de IA fiables conlleva una serie de requisitos éticos y normativos que deben tenerse en cuenta. Estas cuestiones exigen bucear en la filosofía (en términos de ética), el derecho (en términos de regulación y derechos de los usuarios) con el cumplimiento de las normas reguladoras europeas de inteligencia artificial que se aprobará en el año 2024 y de cumplimiento dos años después (la denominada Artificial Intelligence Act) y la sociología (explorando las implicaciones sociales de los nuevos desarrollos tecnológicos). La cátedra abordará un reto acuciante de nuestra sociedad para el desarrollo de una inteligencia artificial que cumpla con los principios éticos así como con la regulación asociada.
El desarrollo de sistemas de IA fiables es un reto multidimensional que debe abordarse desde múltiples perspectivas. Desde un punto de vista técnico, los sistemas deben ser robustos, justos, garantizar la privacidad de los datos y ser transparentes y explicables. Muchas de estas propiedades trascienden su mero aspecto técnico, ya que deben validarse en un ámbito de aplicación específico. Por ejemplo, los conceptos de explicabilidad y equidad pueden ser diferentes en un contexto científico a un contexto social, o la robustez depende del caso de uso específico, etc.
A nivel del escenario aplicado en el ámbito de desarrollo de Repsol se plantea una línea de investigación para desarrollar modelos de inteligencia artificial para su uso en infraestructuras críticas, como puede ser una refinería de petróleo, que sean robustos y que garanticen seguridad en la toma de decisiones de los sistemas inteligentes. Los expertos del dominio de aplicación definirán procedimientos de validación y evaluarán la calidad de estos procedimientos. Repsol facilitará este escenario real para la aplicación de los sistemas y procesos que se desarrollarán en el proyecto. Este es uno de los denominados escenarios de alto riesgo del uso de la inteligencia artificial en la regulación europea y que por tanto requiere del desarrollo de modelos de inteligencia artificial fiable.
Por otra parte, la investigación en IA avanza a un ritmo acelerado y aparecen nuevas líneas que toman especial relevancia. Una de ellas es conocida como la IA de Propósito General (IAPG) que trata de desarrollo tecnologías de IA que se pueden adaptar a diferentes problemas y contextos de una forma casi automática. En este proyecto se abordan estos modelos avanzados que puedan ser aplicados en diferentes problemas de predicción presentes en una refinería mediante la transferencia de conocimiento de unos problemas a otros.
Durante los cuatro años de ejecución de la cátedra se contratará tanto a ingenieros que podrán realizar su tesis doctoral en las diferentes líneas que plantea el proyecto, así como a investigadores posdoctorales que puedan sumar su experiencia en el área.
Esta convocatoria del Ministerio de Asuntos Económicos y Transformación Digital movilizará cerca de 59 millones de euros a través de aportaciones público-privadas que permitirán becar a alrededor de 150 investigadores en los próximos cuatro años. El programa se enmarca en la Estrategia Nacional de Inteligencia Artificial (ENIA), en la agenda España Digital 20