Mendoza, de de

Tecnología GeekWire 2019

El presidente de Microsoft pidió ponerle con botones de apagado a la inteligencia artificial

Para Smith, el mayor problema actual de algunas compañías es la imposibilidad de apagar las inteligencias artificiales que ellos mismos crearon

Jueves, 10 de Octubre de 2019

Durante la Cumbre GeekWire 2019, que finalizó este martes en Seattle y reunió a más de 800 líderes empresariales y tecnológicos para explorar las tendencias futuras de la nueva economía, el presidente de Microsoft, Brad Smith, habló sobre los peligros de la inteligencia artificial al hacer un comentario sobre economía regional y e industria aeronáutica.

"¿Cuál es el mayor problema relacionado con el software que afecta hoy en día sobre la economía del Estrecho de Puget (la región en la que se encuentra Seattle)? Un software para cabinas de aviones, un software que los pilotos no podían apagar", aseguró, refiriéndose a la crisis sufrida hace unos meses por la compañía Boeing, tras saberse que el software con el que habían equipado secretamente a los aviones 737 Max había sido el motivo de dos grandes accidentes de aviación en los que murieron 346 personas.

Se trataba de un sistema que bajaba el morro del avión cuando detectaba una inclinación muy elevada. Al recibir información incorrecta por parte de las sondas, el morro bajó más de la cuenta por efecto del software y la tripulación no fue capaz de desactivar este sistema automatizado, lo que provocó la caída de los aviones.

Para Smith, las lecciones que tenemos que sacar de esto "no deben estar dirigidas a una única empresa o a una única industria, sino a todos los que crean y usan tecnología. Es una lección que todos los sectores de la sociedad deberán recordar: debemos ser capaces de crear buena tecnología... y de poder desactivarla".

Hablando sobre el libro que lanzó el mes pasado ("Tools and Weapons: The Promise and the Peril of the Digital Age"), Smith hizo referencia explícita a la necesidad de que tanto la industria tecnológica como el gobierno se unan para abordar los peligros de la IA y el machine learning: "Somos la primera generación que decidirá el modo en que las máquinas habrán de tomar estas decisiones y qué tipo de principios éticos las guiarán su toma de decisiones. No es por presionar, pero sería mejor que lo hagamos bien".

Cabe señalar que la Unión Europea ya puso encima de la mesa el debate sobre la necesidad de este sistema de apagado de emergencia en 2017 y que, a día de hoy, la existencia de este mecanismo es una de las "Pautas de ética para la IA confiable", un documento oficial según el cual su fin debe ser cesar inmediatamente las operaciones de la IA en ejecución, así como delegar el control de las nuevas en manos de operadores humanos.