28 octubre 2021

Compartir en:

El desarrollo de la tecnología avanza como una progresión geométrica que, a la par de los múltiples beneficios que ha traído a la vida humana, plantea diversos retos; en especial, aquellos derivados de los riesgos de la inteligencia artificial. ¿Cuáles son estos riesgos, en qué consisten y cómo instituciones, empresas y ciudadanos podemos atenderlos?

El uso de los sistemas y las aplicaciones de inteligencia artificial ya es algo cotidiano en nuestras vidas, por lo que es importante ser partícipes del curso de su evolución.

La idea es no reducirnos a simples espectadores de un avance sin rumbo y catastrófico de la tecnología, sino incidir en las diversas formas en las que convivimos con ella, a fin de procurar que sus beneficios sean para todas las personas y sus perjuicios sean mínimos.

Por ende, primero debemos conocer cuáles son los principales riesgos de la IA:

  • Desempleo por automatización del trabajo
  • Sesgos que aumentan la desigualdad socioeconómica
  • Privacidad y seguridad
  • Armas autónomas
  • Inestabilidad de la economía global

Enseguida hablaremos acerca de los primeros tres riesgos.

Desempleo por automatización del trabajo

Una preocupación inmediata con respecto a la inteligencia artificial es la manera en la que está modificando las actividades laborales mediante sus mecanismos de analítica avanzada, cómputo cognitivo y machine learning.

Así, las industrias han automatizado procesos productivos repetitivos y predecibles, lo cual les ha generado ahorros en recursos humanos y materiales, no obstante los costos de la inteligencia artificial para implementarla.

Ante ello, miles de personas alrededor del mundo han perdido sus trabajos o han sido removidas de sus actividades principales. Esto no sólo afecta su desarrollo profesional sino su modo de vida, porque se les cierran puertas para trabajar y obtener un sustento personal y familiar.

De acuerdo con un estudio de 2019 de Brookings Institution, únicamente en Estados Unidos 36 millones de personas trabajan en empleos con alta exposición a que al menos el 70% de sus tareas se automaticen: servicio al cliente, ventas al por menor, trabajo en almacén, análisis de mercado y hostelería, entre otros.

Si bien es cierto que a partir del uso de la IA en el campo laboral se crearán más puestos de trabajo, muchos de los cuales no están definidos o aún no existen, la mayoría de estos serán inaccesibles para la mano de obra desplazada, puesto que requerirán un nivel de especialización que probablemente no adquieran y menos de forma casi inmediata.

Sesgos que aumentan la desigualdad socioeconómica

Como lo mencionamos en este artículo sobre reconocimiento facial y racismo, los softwares de inteligencia artificial están condicionados por los datos que introducen sus responsables y las variables que les indican que tomen en cuenta.

Aún más: la inteligencia artificial tiene un origen humano aunque en algún momento llegue a tener conciencia e incluso una propia cosmovisión. Por ello, existe el riesgo de que los sesgos de clase, sexo, religión y raza que afectan a millones de personas en el mundo puedan ser reproducidos y aumentados con esta tecnología.

Además, los sesgos algorítmicos de la IA pueden perjudicar a muchas personas por estar basados en datos sin contexto y que no comprenden las situaciones contradictorias que a todos nos atraviesan.

Aunado a ello, el uso masivo y homogeneo de la inteligencia artificial puede llevarnos a un escenario maniqueísta donde no existan matices ni se permita el libre albedrío, todo con la idea de hacer un mundo más sencillo, conectado, objetivo y eficaz.

Privacidad y seguridad

Con base en el documento titulado “The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation”, realizado por 26 investigadores de 14 universidades estadounidenses, el uso malintencionado de la inteligencia artificial podría amenazar a personas, compañías y gobiernos en estos tipos de seguridad:

  • Digital, por ejemplo, mediante hackeos o robos de identidad
  • Física, por ejemplo, mediante drones o vehículos autónomos
  • Política, por ejemplo, mediante la vigilancia, la elaboración de perfiles con base en puros datos digitales y campañas automatizadas de odio o desprestigio

El uso de la tecnología de reconocimiento facial en oficinas, escuelas y otros lugares, como ya sucede en China o como sucedió en la toma del capitolio, es otro asunto que menoscaba el derecho a la privacidad de las personas.

Otro riesgo en este sentido es que vayamos hacia una situación similar a lo que sucede con nuestros datos en internet: los cedemos para obtener beneficios inmediatos, pero desconocemos todos los usos que se le da a esta información personal.

Es decir, ¿podría ser que las personas lleguemos a aceptar algún tipo de videovigilancia omnipresente, en detrimento de nuestra libertad, para sentir que estamos seguras, cuidadas y al tanto de lo que sucede a nuestro alrededor?

Asimismo, la IA crea entes de apariencia hiperrealista que a través de las redes sociales influyen en la conciencia colectiva en términos de modos de consumo.

También ya es posible crear deep fakes: archivos de imagen, audio o video que, mediante sistemas de machine learning de procesamiento del lenguaje, replican una acción o comportamiento de una persona y se hacen pasar por originales.

Ante ello cualquier persona está expuesta a que bajo su nombre, cara y voz se emitan mensajes falsos que la pongan en problemas ante la opinión pública o las autoridades.

Si este uso de la inteligencia artificial llega a extenderse estaríamos en una era de posverdad: la distorsión de la realidad sería tal que ya nadie sabría qué es cierto y qué no. Y el objetivo de esto es manipular audiencias y clientes para obtener mayor control y poder de algún mercado o territorio.

Más riesgos de la inteligencia artificial

La búsqueda de la inmediatez en los resultados y la solución de necesidades y deseos es un factor determinante en cómo se piensa, crea y usa la tecnología en general.

Aunque no es exclusivo de este campo del conocimiento, este hecho afecta la manera en la que interactuamos con la IA y, a su vez, la manera en la que ésta conoce nuestro mundo. Por ende, es una herramienta muy poderosa para quienes la dominan.

Al respecto, hace unos meses Elon Musk (creador de un chip que busca unir al cerebro con la inteligencia artificial) declaró que la IA es más peligrosa que las armas nucleares.

A propósito, en el próximo artículo te hablaré de más riesgos de la inteligencia artificial, así como de algunos ámbitos de acción a partir de los cuales podemos informarnos al respecto y luego actuar de manera conjunta para que las palabras del magnate no sean más que una falsa alarma.

Comenta en el espacio de abajo y suscríbete a mi blog para conocer más sobre inteligencia artificial para empresas, así como otros temas de innovación y tecnología científica aplicada a los negocios.

Compartir en:

Si quieres saber más sobre la aplicación de IBM Watson y el cómputo cognitivo en empresas, suscríbete a mi blog y mantente informado.

Comentarios