Investigadores de Paderborn y la Universidad de Bielefeld investigan una nueva forma de interacción entre humanos y máquinas.
Los investigadores de Paderborn y la Universidad de Bielefeld esperan cambiar esto, y están discutiendo cómo la comprensión de la inteligencia artificial puede mejorarse y adaptarse a las necesidades de los usuarios humanos. Su trabajo ha sido publicado recientemente en la respetada revista IEEE Transactions on Cognitive and Developmental Systems. Los investigadores describen la explicación como una práctica social, en la que ambas partes co-construyen el proceso de entendimiento.
Investigación de explicabilidad
«Los sistemas artificiales se han vuelto complejos. Este es un problema grave, particularmente cuando los seres humanos son responsables de las decisiones basadas en computadoras», dice el profesor Philipp Cimiano, un científico informático de la Universidad de Bielefeld.
Particularmente en el área del pronóstico médico o contextos legales, necesitamos entender cómo se toman las decisiones impulsadas por la máquina, continúa Cimiano. Señala que si bien ya hay algunos enfoques que abordan la explicabilidad de estos sistemas, no van lo suficientemente lejos.
La profesora Katharina Rohlfing, de la Universidad de Paderborn, está de acuerdo en que es urgente tomar medidas adicionales: «Los ciudadanos tienen derecho a que las decisiones algorítmicas se tomen con transparencia. Hay buenas razones por las que esta cuestión se menciona específicamente en el Reglamento General de Protección de Datos de la Unión Europea». El objetivo de hacer accesibles los algoritmos es fundamental para lo que se conoce como «inteligencia artificial eXplainable (XAI)». «En la investigación, el enfoque se centra actualmente en los resultados deseados de transparencia e interpretabilidad», dice Rohlfing, describiendo las últimas investigaciones.
Entender cómo se toman las decisiones
El equipo involucrado en este estudio de investigación va un paso más allá y está investigando explicaciones basadas en computadoras desde diferentes perspectivas. Parten de la suposición de que las explicaciones sólo son comprensibles para los usuarios si no sólo se les presentan, sino si los usuarios están involucrados en la formulación de las mismas: «Como sabemos de muchas situaciones cotidianas, las buenas explicaciones no valen nada si no tienen en cuenta el conocimiento y la experiencia de la otra persona. Cualquiera que se pregunte por qué su solicitud fue rechazada por un algoritmo no está generalmente interesado en averiguar sobre la tecnología del aprendizaje automático, sino que pregunta en su lugar cómo se procesaron los datos con respecto a sus propias calificaciones», explica Rohlfing.
«Cuando las personas interactúan entre sí, el diálogo entre ellos garantiza que una explicación se adapte a la comprensión de la otra persona. El interlocutor del diálogo hace preguntas para obtener más explicaciones o puede expresar una incomprensión que luego se resuelve. En el caso de la inteligencia artificial hay limitaciones a esto debido al limitado margen de interacción», continúa Rohlfing. Para hacer frente a esto, lingüistas, psicólogos, investigadores de medios, sociólogos, economistas e informáticos están trabajando estrechamente juntos en un equipo interdisciplinario. Estos expertos están investigando modelos informáticos y sistemas de IA complejos, así como funciones en la interacción comunicativa.
Explicación como práctica social
Los investigadores de Paderborn y Bielefeld han desarrollado un marco conceptual para el diseño de sistemas de IA explicables. Rohlfing dice: «Nuestro enfoque permite a los sistemas de IA responder a las preguntas seleccionadas de tal manera que el proceso se pueda configurar de forma interactiva. De esta manera, se puede adaptar una explicación al interlocutor del diálogo, y los aspectos sociales pueden incluirse en la toma de decisiones». El equipo de investigación considera las explicaciones como una secuencia de acciones conjuntas por ambas partes en forma de práctica social.
El objetivo es que esto se guíe por el «andamiaje» y el «seguimiento». Estos términos provienen originalmente del campo de los estudios de desarrollo. «En pocas palabras, el andamiaje describe un método en el que los procesos de aprendizaje son apoyados por las indicaciones y la orientación, y se dividen en pasos parciales. Monitorear significa observar y evaluar las reacciones de la otra parte», explica Rohlfing. El objetivo de los investigadores es aplicar estos principios a los sistemas de IA.
Nuevas formas de asistencia
Este enfoque tiene como objetivo ampliar la investigación actual y proporcionar nuevas respuestas a los desafíos sociales en relación con la inteligencia artificial. La suposición subyacente es que la única manera exitosa de obtener comprensión y nuevas acciones de una explicación es involucrar al socio de diálogo en el proceso de explicación. En esencia, se trata de la participación humana en sistemas técnicos asociados. «Nuestro objetivo es crear nuevas formas de comunicación con sistemas de IA genuinamente explicables y comprensibles, y de esta manera facilitar nuevas formas de asistencia», dice Rohlfing en resumen.
El documento está disponible aquí