Este recurso, que coordinó la Universidad española de Granada (UGR), ofrece una forma de verificar y certificar los resultados de modelos complejos y contribuye al desarrollo de sistemas de IA que no solo sean efectivos, sino también comprensibles y justos.
En los últimos años, el uso de sistemas automáticos de apoyo a la toma de decisiones, como las Redes Neuronales Profundas (DNNs), ha crecido de manera significativa por su capacidad de predicción, pero su naturaleza opaca dificulta la interpretación detallada de su comportamiento y plantea riesgos éticos y de legitimidad.
Para abordar esta problemática, un equipo coordinado por la UGR presentó un manual exhaustivo de técnicas de inteligencia artificial explicable (XAI).
Lea más: OpenAI lanza un buscador web en ChatGPT diseñado para dar “una mejor respuesta”
Este recurso pretende convertirse en una guía esencial para profesionales de la informática que busquen comprender y explicar los resultados de modelos de Machine Learning.
Cada capítulo describe técnicas de IA aplicables en situaciones cotidianas, con ejemplos y cuadernos de trabajo, además de un manual de ayuda a los usuarios para conocer los requisitos necesarios para cada técnica y los beneficios de esta tecnología.
La directora de esta guía es la profesora del Departamento de Ciencias de la Computación e Inteligencia Artificial de la UGR, Natalia Díaz Rodríguez, y una de las integrantes del Instituto Andaluz Interuniversitario en Ciencia de Datos e Inteligencia Computacional (Instituto DaSCI).
“Es importante que seamos conscientes de las capacidades y limitaciones, tanto de los modelos avanzados de IA como de las técnicas de explicabilidad que tratan de argumentar y validar. En ocasiones, las explicaciones no son satisfactorias o fácilmente validables”, dijo Díaz.
El trabajo fue realizado durante la estancia de la profesora Díaz en el Instituto Politécnico de París y es una colaboración internacional con expertos del Reino Unido, Francia y Austria, entre otros países.
Fuente: EFE.