La UGR crea un manual sobre IA para su uso con transparencia en salud, finanzas o temas legales
El trabajo es una colaboración internacional con expertos del Reino Unido, Francia y Austria
La Universidad de Granada promueve una jornada sobre nuevas estrategias de salud mental
Granada/Un equipo internacional ha creado un manual sobre inteligencia artificial (IA) orientado a mejorar la transparencia y fomentar la confianza en esta tecnología innovadora, especialmente en áreas sensibles como la salud, las finanzas y el sector legal.
Esta guía, liderada por la Universidad de Granada (UGR), proporciona métodos para verificar y certificar los resultados de modelos avanzados y contribuye al diseño de sistemas de IA que no solo sean eficientes, sino también comprensibles y equitativos.
En los últimos años, el uso de sistemas automáticos de apoyo a la toma de decisiones, como las Redes Neuronales Profundas (DNNs), ha crecido de manera significativa por su capacidad de predicción, pero su naturaleza opaca dificulta la interpretación detallada de su comportamiento y plantea riesgos éticos y de legitimidad.
Para abordar esta problemática, un equipo coordinado por la UGR ha presentado un manual exhaustivo de técnicas de inteligencia artificial explicable (XAI).
Este recurso pretende convertirse en una guía esencial para profesionales de la informática que busquen comprender y explicar los resultados de modelos de Machine Learning.
Cada capítulo describe técnicas de IA aplicables en situaciones cotidianas, con ejemplos y cuadernos de trabajo, además de un manual de ayuda a los usuarios para conocer los requisitos necesarios para cada técnica y los beneficios de esta tecnología.
La directora de esta guía es la profesora del Departamento de Ciencias de la Computación e Inteligencia Artificial de la UGR Natalia Díaz Rodríguez, y una de las integrantes del Instituto Andaluz Interuniversitario en Ciencia de Datos e Inteligencia Computacional (Instituto DaSCI).
"Es importante que seamos conscientes de las capacidades y limitaciones, tanto de los modelos avanzados de IA como de las técnicas de explicabilidad que tratan de argumentar y validar. En ocasiones, las explicaciones no son satisfactorias o fácilmente validables", ha añadido Díaz.
El trabajo ha sido realizado durante la estancia de la profesora Díaz en el Instituto Politécnico de París y es una colaboración internacional con expertos del Reino Unido, Francia y Austria, entre otros países.
Temas relacionados
No hay comentarios