El debate sobre si vale la pena asumir los riesgos de la inteligencia artificial a cambio de los beneficios que brinda sigue vigente, en especial en las comunidades científica y tecnológica. A propósito, quizá el asunto no pasa por apostar o no a favor de la IA, sino por aceptar que llegó para quedarse y, por ende, pensar ¿cómo dirigirla para que supere sus retos pendientes y no ponga en peligro la vida humana?
La posibilidad de que surja una Inteligencia Artificial General (IAG) es lejana pero latente. Una entidad de IAG tendría conciencia propia, distinta a la humana, lo cual crearía un escenario de singularidad tecnológica.
En ese sentido, vale la pena conocer los riesgos de la IA que ya existen, los cuales podrían originar el escenario recién mencionado. Estar informados es el primer paso que debemos dar si queremos incidir en este proceso que tiene impacto directo en nuestra existencia.
En el artículo anterior ya hablamos de los primeros tres riesgos de la inteligencia artificial: desempleo por automatización del trabajo, privacidad y seguridad y sesgos que aumentan la desigualdad socioeconómica.
En esta entrega hablaremos de otros dos riesgos de la IA: armas autónomas e inestabilidad de la economía global.
Lo primero que es importante recalcar sobre este riesgo de la IA es que la autonomía de las armas no es una de sus cualidades intrínsecas; está dada por las personas que las imaginan, ordenan y fabrican. Entonces, la responsabilidad sobre este asunto sigue siendo humana y los fabricantes deben asumirla.
Según la opinión de más de 30 mil investigadores de inteligencia artificial y robótica, expresada en una carta abierta sobre el tema hace ya seis años, las armas autónomas sí podrían lanzar bombas nucleares o biológicas sin que un humano lo ordene.
Estos expertos en IA también manifestaron su preocupación sobre la posibilidad de que los drones no tripulados que lanzan bombas sean manipulados para afectar a objetivos civiles.
Con la idea de crear Estados y entornos más seguros se están creando armas y entes autónomos que sólo apuntalan la carrera armamentística mundial. Bajo este escenario faltará sólo un error humano, una idea perversa o una desobediencia tecnológica para que se desate un gran problema.
Asimismo, las armas autónomas no requieren materias primas tan difíciles de conseguir o manejar. Quizá esta es una de las razones por las que Elon Musk cree que la IA es más peligrosa que las armas nucleares.
Aparte, tras su masificación será cuestión de tiempo para que se vendan en el mercado negro y apuntalen el poder de distintos grupos, dictaduras y gobiernos. Y son ideales para que, si se usan contra personas, los responsables se laven las manos y no asuman las consecuencias de sus actos.
Un ejemplo claro de que las armas automáticas son una realidad con la cual debemos aprender a lidiar es que del presupuesto total de las Fuerzas Armadas de Estados Unidos para 2020, cerca de mil millones de dólares están destinados al desarrollo de IA en términos de logística, análisis y armamento.
Otro de los grandes riesgos de la inteligencia artificial consiste en que el comercio algorítmico podría colapsar los mercados financieros de todo el mundo.
El comercio algorítmico es el realizado por una IA capaz de ejecutar operaciones de gran volumen, frecuencia y valor, las cuales crean una extrema volatilidad del mercado.
Estas negociaciones tienen el objetivo de colocar miles de operaciones en la bolsa, vender casi enseguida y con ello lograr un beneficio económico inmediato. El problema es que desestabiliza las negociaciones a nivel mundial porque todos los mercados están interconectados.
Una venta de millones de acciones en el sector aeronáutico podría asustar a varios corredores de bolsa, lo que los llevaría a vender muchas acciones en otras industrias relacionadas como la hotelera, la manufacturera, la logística y la alimentaria.
En síntesis, ante el lanzamiento de una gran apuesta o venta por parte de un algoritmo financiero, los trabajadores digitales del mercado bursátil pueden considerar que las bolsas están por caer, y entonces ceder ante la incertidumbre y crear un desplome mundial.
Tras revisar cinco de los riesgos que surgen por la manera en la que se usa actualmente la inteligencia artificial, es momento de enunciar los principales retos que personas, instituciones y empresas tenemos con respecto a esta tecnología, la cual debe contribuir aún más al bienestar colectivo:
La tecnología no tiene ética, la humanidad tiene que insertársela
La idea es conciliar los aspectos científico y social, con el fin de que el primero no sea visto únicamente como una forma de obtener poder, y el segundo participe de manera activa en la concepción del sistema-mundo que se está moldeando a través de la inteligencia artificial.
¿En tu empresa utilizan algún tipo de inteligencia artificial? En general, ¿crees que el uso de IA mejora o empeora la vida cotidiana y laboral? ¿Piensas que la IA debe sustituir procesos productivos o únicamente complementarlos? ¿Qué otro reto debemos abordar como sociedad para que los riesgos de la IA no causen mayores problemas?
Comenta en el espacio de abajo y suscríbete a mi blog para conocer más sobre inteligencia artificial para empresas, así como otros temas de innovación y tecnología científica aplicada a los negocios.
Si quieres saber más sobre la aplicación de IBM Watson y el cómputo cognitivo en empresas, suscríbete a mi blog y mantente informado.