La conversación sobre la inteligencia artificial ha llegado a un punto muerto predecible. Los usuarios dicen que no confían en la IA. Las empresas prometen transparencia. Los reguladores amenazan con intervenir. Sin embargo, el problema central persiste: las personas no pueden confiar en lo que no entienden, y la mayoría de los sistemas de IA todavía se comunican de maneras que resultan extrañas para los usuarios.
La crisis de confianza tiene menos que ver con la confianza en sí y más con la traducción. Cuando se rechaza una solicitud de préstamo, se filtra a un candidato a un trabajo o se marca la declaración de propósito de un estudiante por plagio de IA, el sistema rara vez explica su razonamiento en términos que los humanos puedan procesar. Los usuarios quedan adivinando, frustrados y escépticos.
La tecnología es altamente funcional, pero no muestra su trabajo; no hay explicabilidad.
Esta brecha de traducción tiene consecuencias económicas y sociales. Un estudio global de KPMG de 2023 encontró que el 61 por ciento de las personas desconfían de los sistemas de IA, y solo la mitad cree que los beneficios superan los riesgos. Esta desconfianza cuesta a las empresas miles de millones en productividad no realizada debido a la adopción retrasada de la IA.
Pero el problema va más allá de los resultados empresariales. En muchos sectores, los sistemas de IA ahora dan forma a decisiones con un impacto personal significativo. Cuando estos sistemas no pueden explicarse, se convierten en guardianes sin rendición de cuentas.
La educación es un ejemplo claro. Los algoritmos evalúan miles de puntos de datos, desde el rendimiento académico, la capacidad financiera, la ubicación, hasta los objetivos profesionales, y producen recomendaciones que influyen en el futuro de los estudiantes.
Similar: ¿Pueden los 'Jueces de IA' ser la solución a los problemas del sistema judicial de Nigeria?
Sin embargo, los estudiantes rara vez saben por qué aparecen ciertas opciones o cómo el sistema interpreta su información. Una opacidad similar aparece en la atención médica, la contratación, las finanzas y los servicios públicos.
El argumento de que la IA es "demasiado compleja para explicar" no da en el punto. La complejidad no es la barrera; la comunicación lo es. Otros campos traducen información compleja para no expertos todos los días. El desafío no es hacer que los sistemas subyacentes sean más simples; es expresar su lógica de manera que los usuarios puedan entender.
Mientras la investigación sobre explicabilidad técnica continúa avanzando, ofrece métodos para rastrear el comportamiento del modelo. Sin embargo, estos métodos significan poco si las explicaciones requieren un conocimiento básico del dominio. Abordar el problema de traducción requiere más que exponer la lógica interna; requiere producir explicaciones que sean comprensibles, relevantes y utilizables.
Resolver la brecha de traducción permitiría una adopción más rápida y confiada. Las personas usan herramientas que entienden. Cuando los usuarios comprenden por qué un sistema se comporta de cierta manera, es más probable que acepten y utilicen eficazmente sus recomendaciones.
Avanzando, los desarrolladores deben preguntarse no solo "¿funciona esto?" sino "¿pueden los usuarios entender por qué funciona?" Las organizaciones que implementan IA deberían invertir en diseño de comunicación junto con la optimización técnica.
Fuente de la imagen: Unsplash
Los reguladores deberían exigir explicaciones dirigidas a los usuarios, no solo documentación para auditores. Las explicaciones claras respaldan mejores decisiones, mayor compromiso y resultados más equitativos.
La traducción debe convertirse en una característica central de los sistemas de IA. Eso significa diseñar herramientas que se comuniquen en lenguaje sencillo, probar explicaciones con usuarios reales y retener la implementación de sistemas que no puedan articular claramente su razonamiento. La tecnología que influye en la vida de las personas debe poder explicarse a sí misma. Cualquier cosa menos que eso no es un problema de confianza; es un fallo de traducción.
Mathilda Oladimeji es investigadora doctoral en Sistemas de Información en la Universidad Estatal de Luisiana, donde estudia la explicabilidad de la IA y la confianza del usuario.
Anteriormente se desempeñó como Gerente de Marketing Regional para Intake Education en África, gestionando campañas digitales para más de 100 universidades.


