12 octubre 2021

Compartir en:

Los modelos de machine learning para empresas e instituciones han llegado para quedarse y cada vez toman más decisiones relacionadas con la vida cotidiana. Por ejemplo: calificar quién es sujeto a crédito, sugerir contenidos a los usuarios de internet y determinar cuál es el lugar ideal para emprender un negocio. En ese sentido, ¿cuáles son los perjuicios y retos de esta tecnología?

La democracia del algoritmo

Con el propósito de analizar y procesar toda la información que forma parte del Big Data, científicos y tecnólogos han tenido que construir e implementar algoritmos cada vez más sofisticados.

Uno los principales beneficios que ha encumbrado a esta tecnología de inteligencia artificial es su precisión para segmentar mercados, datos y usuarios. Ejemplo de ello son la focalización política, la conducción autónoma, el reconocimiento facial y el diagnóstico médico.

Asimismo, los algoritmos tienden a reducir los costos operativos de una empresa a mediano y largo plazo. Y también permiten una mayor eficacia, ya que los trabajadores pueden dedicarse a tareas menos laboriosas y que sí requieren del aspecto humano.

En ese sentido, estos modelos matemáticos han cobrado mucho poder y, dada su capacidad de análisis y abstracción, de manera general se considera que sus resultados son objetivos y sus decisiones imparciales. A continuación veremos si esto siempre es así.

Problemas relacionados con los algoritmos

Cathy O’Neil es una doctora en matemáticas y experta en Wall Street que ha sido crítica con la democracia del algoritmo. En su libro Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy, señala que en la actualidad hay poca transparencia acerca de estas herramientas.

Ejemplo de ello es el uso de softwares de reconocimiento facial, los cuales tienen distintos sesgos porque suelen estar diseñados y administrados por personas con ideas y actitudes racistas.

O’Neil también señala que la falta de regulación de los algoritmos, debido a la excesiva confianza en ellos, termina por reforzar varias formas de discriminación, entre las cuales destacan las de sexo, clase y religión.

De hecho, considera que la arbitrariedad de los algoritmos crea círculos viciosos que no permiten la movilidad social. Esto se debe a que califican como no aptas para algún servicio público o privado a personas que, por distintas circunstancias de vida, no tienen los medios, las habilidades o el historial que se piden como requisitos.

La autora se cuestiona por qué se permite que estas tecnologías se apliquen de manera masiva y en distintos campos del conocimiento sin considerar contextos y circunstancias. De esa manera únicamente se refuerzan los prejuicios contra sectores desfavorecidos de la población, lo cual aumenta la inequidad social.

No obstante su pensamiento crítico, la autora no pretende que los algoritmos se prohíban o dejen de utilizarse, puesto que han mostrado su valía para automatizar diversas actividades y procesos productivos. Lo que plantea es regularlos, aplicarlos con cautela y bajo un criterio que no sacrifique el aspecto humano en aras de la eficiencia.

<< La inequidad en la digitalización de la salud >>

Retos pendientes de los algoritmos

De acuerdo con Cathy O’Neil, los modelos algorítmicos tienen que centrarse más en los procesos que en los resultados. Es decir, en asuntos en los que están involucradas las actividades cotidianas y hasta necesarias de las personas, estas herramientas no pueden simplemente emitir un juicio que encasille o revictimice.

Otro asunto que los creadores de algoritmos tienen que considerar es la retroalimentación, ya que si no cuentan con ella van a crear su propia versión descontextualizada, carente de empatía y maniquea de la realidad.

Así como la tecnología realiza auditorías cuantitativas y cualitativas a las personas, es momento de que el proceso se invierta: existen al menos tres ámbitos en los que la sociedad tiene que involucrarse más y presionar para que los algoritmos sean transparentes en sus objetivos, métodos, análisis y resultados:

  • La elaboración de perfiles y el control predictivo. Las autoridades y el poder judicial usan bases de datos para reconocer patrones en personas que han violado la ley. Sin embargo, la integración de esta información tiene que cuidar la privacidad, la integridad, la dignidad y los derechos humanos.
  • Los juicios legales. En algunos países como Estados Unidos se ha probado el uso de esta tecnología predictiva para determinar la probabilidad de éxito en los procedimientos judiciales. Esto ha sido de mayor utilidad en asuntos que tienen muchos casos, por ejemplo los divorcios, puesto que hay más y mejor información disponible para obtener resultados. No obstante, estas predicciones no siempre son certeras porque no consideran los detalles finos, las contradicciones humanas ni algunas anomalías matemáticas.
  • El cumplimiento ético por parte de las máquinas. Además de las reglas para su correcto funcionamiento, las tecnologías que incluyen algoritmos de machine learning deben afirmar la vida humana: considerar las normas de convivencia que permiten vivir en comunidad y procuran el bienestar de cada persona.

Mejora los algoritmos de tu empresa

Si quieres limpiar, actualizar y enriquecer los datos de tu empresa en tiempo real y bajo una perspectiva ética, prueba lo que en BDS tenemos para ti.

¿En tu empresa usan algún tipo de algoritmo para interactuar con sus usuarios internos y/o externos? ¿Tienen algún proceso regulatorio que permita dar contexto y retroalimentación a los resultados de procesos algorítmicos? ¿Conoces las implicaciones que tienen los algoritmos que usas en tu vida diaria?

Comenta en el espacio de abajo y suscríbete a mi blog para conocer más de machine learning para empresas, además de otros temas de innovación y tecnología científica aplicada a los negocios.

Compartir en:

Si quieres saber más sobre la aplicación de IBM Watson y el cómputo cognitivo en empresas, suscríbete a mi blog y mantente informado.

Comentarios