Bosch ha establecido sus «líneas rojas» éticas para el uso de la inteligencia artificial (IA). La compañía acaba de publicar directrices para el uso de la AI en sus productos inteligentes. El código de ética de Bosch se basa en la siguiente máxima: los humanos deben de ser el árbitro último sobre cualquier decisión basada en inteligencia artificial. “La inteligencia artificial debe servir a las personas. Nuestro código de ética de AI brinda a nuestros empleados una guía clara para el desarrollo de productos inteligentes», declaró Volkmar Denner, CEO de Bosch, en la inauguración del Bosch ConnectedWorld (BCW), la conferencia anual de la compañía sobre IoT en Berlín. «Nuestro objetivo es que las personas confíen en nuestros productos basados en inteligencia artificial».
La IA es una tecnología de vital importancia para Bosch. Para 2025, el objetivo es que cada producto Bosch contenga inteligencia artificial o haya sido desarrollado o fabricado con su ayuda. La compañía quiere que sus productos basados en AI sean seguros, robustos y explicables. «Si la AI es una caja negra, entonces la gente no confiará en ella. En un mundo conectado, la confianza será esencial”, dijo Michael Bolle, CDO y CTO de Bosch. La empresa aspira a producir productos basados en inteligencia artificial que sean confiables. El código de ética se basa en el espíritu de Bosch «Innovación para tu vida», que combina la búsqueda de innovación con el sentido de responsabilidad social. En los próximos dos años, Bosch planea formar a 20.000 empleados en el uso de la inteligencia artificial. El código de ética AI de Bosch, que rige el uso responsable de esta tecnología, será parte de este programa de capacitación.
La inteligencia artificial ofrece un gran potencial
La inteligencia artificial es un motor mundial de progreso y crecimiento. La consultora PwC, por ejemplo, proyecta que, desde ahora hasta 2030, la AI aumentará el PIB de China en un 26 por ciento, en un 14 por ciento el de América del Norte y en alrededor de un 10 por ciento el europeo. Esta tecnología puede ayudar a superar desafíos como los de la acción climática y a optimizar los resultados en numerosas áreas como el transporte, la medicina y la agricultura. Al analizar grandes volúmenes de datos, los algoritmos pueden tomar decisiones de forma razonable. Mucho antes de la introducción de normas vinculantes en la UE, Bosch ha tomado la decisión de participar activamente en las cuestiones éticas que plantea el uso de esta tecnología. El fundamento moral de este proceso lo proporcionan los valores consagrados en la Declaración Universal de Derechos Humanos.
Las personas deben mantener el control
El código de ética de Bosch para la AI estipula que la inteligencia artificial no debe tomar decisiones sobre los humanos sin que este proceso haya sido supervisado por personas. Además, esta tecnología debería servir a las personas como herramienta. Se describen tres enfoques posibles y todos tienen en común lo siguiente: en los productos basados en AI desarrollados por Bosch, los humanos deben de mantener el control sobre cualquier decisión que tome la tecnología. En el primer enfoque (‘human-in-command’), la inteligencia artificial es únicamente una ayuda, por ejemplo, en aplicaciones de ayuda a la toma de decisiones, donde la AI puede ayudar a las personas a clasificar objetos u organismos. En el segundo enfoque (‘human-in-the-loop’), un sistema inteligente toma de forma autónoma decisiones que los humanos pueden, sin embargo, anular en cualquier momento. Un ejemplo sería la conducción parcialmente automatizada, donde el conductor humano puede intervenir directamente en las decisiones de un sistema de asistencia al aparcamiento. El tercer enfoque (‘human-on-the-loop’) le concierne a la tecnología inteligente, como los sistemas de frenada de emergencia. Aquí, los ingenieros definen ciertos parámetros durante el proceso de desarrollo. No hay margen para la intervención humana en el proceso de toma de decisiones en sí. Los parámetros proporcionan la base sobre la cual la AI decide si activar el sistema o no. Los ingenieros prueban retrospectivamente si el sistema se ha mantenido dentro de los parámetros definidos. Si es necesario, estos parámetros se pueden ajustar.
Construyendo confianza juntos
Bosch también espera que su código de ética de AI contribuya al debate público sobre la inteligencia artificial. «Dado que la AI cambiará todos los aspectos de nuestras vidas”, dijo Denner. “Por eso, este debate es vital». Se necesitará algo más que solo conocimientos técnicos para establecer la confianza en los sistemas inteligentes: también es necesario un diálogo estrecho entre los responsables políticos, la comunidad científica y la sociedad en general. Por eso, Bosch se ha adherido al High-Level Expert Group on Artificial Intelligence (Grupo de Expertos de Alto Nivel en Inteligencia Artificial), un organismo designado por la Comisión Europea para examinar temas como la dimensión ética de la AI. En una red mundial que actualmente comprende siete localizaciones, y en colaboración con la Universidad de Amsterdam y la Universidad Carnegie Mellon (Pittsburgh, EEUU), la compañía está trabajando en desarrollar aplicaciones de inteligencia artificial que sean más seguras y confiables. Del mismo modo, como miembro fundador de la alianza de investigación Cyber Valley en Baden-Württemberg, Bosch está invirtiendo 100 millones de euros en la construcción de un campus AI, donde 700 de sus propios expertos trabajarán, codo con codo, con investigadores externos y empleados de start-ups. Por último, pero no menos importante, el Digital Trust Forum, un comité creado por Bosch, tiene como objetivo fomentar un estrecho diálogo entre expertos de las principales asociaciones y organizaciones internacionales. Sus once miembros se reunirán en el Bosch ConnectedWorld 2020. «Nuestro objetivo común es hacer que el IoT sea seguro y confiable», dijo Bolle.
De un vistazo: las pautas del código ético de inteligencia artificial de Bosch
- Todos los productos AI de Bosch deben reflejar nuestro espíritu «Innovación para tu vida», que combina una búsqueda de innovación con un sentido de responsabilidad social.
- Las decisiones de AI que afectan a las personas no deben tomarse sin un árbitro humano. La AI debe de ser una herramienta para las personas.
- Queremos desarrollar productos AI seguros, robustos y explicables.
- La confianza es uno de los valores fundamentales de nuestra empresa. Queremos desarrollar productos AI en los que confiar.
- Al desarrollar productos de inteligencia artificial, observamos los requisitos legales y nos orientamos a los principios éticos.
Fuente de imágenes: Bosch