Es un enfoque de IA que busca hacer que los modelos de inteligencia artificial sean más comprensibles y transparentes para los humanos. Esto implica desarrollar técnicas y métodos que expliquen cómo funciona un modelo de IA, cómo llega a sus decisiones y qué características de los datos influyen en esas decisiones. La XAI es importante para mejorar la confianza en los sistemas de IA, permitiendo que los usuarios comprendan y verifiquen el razonamiento detrás de las decisiones automatizadas.