La toma del Capitolio por manifestantes pro-Trump reavivó la conversación sobre el uso de softwares de reconocimiento facial para identificar a los perpetradores; una tecnología que ha estado rodeada de polémica debido a que se ha comprobado que cuenta con sesgos raciales o viola la privacidad de los ciudadanos.
Una de las empresas que se ha visto envuelta en mayor controversia es Clearview AI, creadora de la homónima herramienta de reconocimiento facial. Su fundador, el australiano Hoan Ton-That, ha declarado ante el New York Times y el Wall Street Journal que a raíz de lo sucedido en el Capitolio (6 de enero), desde el 7 de enero el uso de esta plataforma ha aumentado 26%.
Actualmente es común que las fuerzas del orden utilicen la inteligencia artificial y el reconocimiento facial como herramientas para identificar delincuentes, pero la recopilación de información se hace con sus propias bases de datos. Lo que vuelve tan controversial a Clearview AI es que ofrece la posibilidad de buscar entre más de 3 mil millones de fotografías extraídas de redes sociales, por ejemplo, Facebook, YouTube y otras plataformas. Esto, además de ir en contra de las políticas de uso de las compañías, también vulnera el derecho a la privacidad de los usuarios.
El departamento de policía de Alabama ha admitido que tras el asalto al congreso han recurrido a esta plataforma para identificar a los sospechosos, incluso el FBI lanzó un aviso de Most Wanted convocando a ciudadanos y fuerzas del orden a denunciar a los involucrados, y la agencia de investigación está aceptando imágenes extraídas de redes sociales para identificar a los responsables.
Aunque el gobierno estadounidense ha admitido y promovido el uso de Clearview AI, y según propias declaraciones de la empresa, cerca de 2,400 agencias de aplicación de la ley en ese país la utilizan, dicha plataforma es cuestionada en el resto del mundo e incluso enfrenta cargos en varios países por violar las garantías de las personas.
La empresa Jumbo levantó una denuncia ante la agencia francesa de protección de datos, el CNIL, debido a que el software almacenaba información no autorizada de sus empleados en su base de datos. Por otro lado, la plataforma tuvo que dejar de operar en Canadá tras una investigación realizada por las autoridades de protección de privacidad del país que determinó que infringía los derechos de los ciudadanos. Además, a principios del 2020 el sistema de reconocimiento facial fue utilizado para identificar a los participantes en las protestas raciales del movimiento Black Lives Matter.
En el blog ya hemos hablado de cómo los sistemas de inteligencia artificial pueden contar con sesgos raciales si no se supervisa su programación y funcionamiento, y también hemos mencionado cómo se cuestiona su violación a los derechos ciudadanos.Por lo anterior, es sumamente importante que, antes de implementar cualquier tecnología, se cuente con un objetivo y se tenga una constante evaluación de su funcionamiento para verificar que la ética se haga respetar.
En el caso del Capitolio, un sistema de reconocimiento facial (que no tome fotos de fuentes no autorizadas, como es el caso de Clearview AI) podría ayudar a identificar a los perpetradores ya que el ataque se transmitió en vivo y se capturó en cientos de imágenes y videos; además, las personas que participaron en el motín nunca tuvieron la intención de cubrir su rostro u ocultarse.
¿Qué opinas sobre esta tecnología? ¿Crees que esté justificada su aplicación en este caso o transgrede las libertades individuales? Deja tu comentario en la parte de abajo y suscríbete a mi blog para conocer más temas sobre inteligencia artificial.
Si quieres saber más sobre la aplicación de IBM Watson y el cómputo cognitivo en empresas, suscríbete a mi blog y mantente informado.