En el artículo anterior, vimos cómo The Economist entrevistó a finales del año pasado a una máquina de inteligencia artificial sobre las predicciones tecnológicas, sociales y políticas para el 2020. En esta entrada conoceremos más sobre el uso de esta tecnología y cómo fue el proceso para realizar dicha entrevista.
El editor adjunto en la revista, Tom Standage, decidió hacerle preguntas sobre el 2020 a GPT-2, un sistema de inteligencia artificial que utiliza el aprendizaje profundo para analizar 40 gigabytes de texto extraído de cerca de 8 millones de páginas web.
Cabe resaltar que no es la primera vez que un medio recurre a la inteligencia artificial; la revista New Yorker también usó a GPT-2 para generar párrafos en uno de sus artículos escrito por John Seabrook, y el New York Times utilizó una tecnología similar para crear párrafos de noticias falsas y retar a sus lectores a diferenciar la desinformación generada por humanos y computadoras.
Por su parte, cuando la compañía OpenAI dio a conocer al GPT-2 en febrero del 2019, divulgó algunos ejemplos de historias de ficción al estilo de J.R.R. Tolkien y noticias falsas sobre material nuclear robado, citando fuentes inventadas que fueron escritas por la propia máquina.
Luego de esta prueba, la compañía decidió no lanzar la versión completa de GPT-2 de inmediato, para evitar el riesgo de que grupos propagandistas utilizaran este programa para crear fake news; de este modo, liberó el sistema por etapas, con una versión inicial diluida y así progresivamente hasta llegar a su totalidad.
OpenAI hizo esto con tres intenciones: la primera fue para tener más publicidad gracias a los encabezados alarmistas que proclamaban a GPT-2 como una “creación tan peligrosa que no podían hacerla pública”; la segunda fue para demostrar que toman en serio la mala utilización de su tecnología, y por último, como un llamado de atención para la industria sobre el uso responsable de esta tecnología.
Para realizar el artículo, Standage ha explicado que accedió al código que GPT-2 a través de Jupyter Notebook, un software que activa una poderosa computadora en Google y permite al usuario interactuar con la IA a través de un buscador web.
Por supuesto, GPT-2 no puede predecir el futuro y, como lo he explicado anteriormente en el blog, la IA en realidad no “entiende” nada, en este caso el sistema sólo es capaz de generar texto con palabras y frases que ha analizado dentro de un mismo contexto para responder preguntas.
Para que el periodista pudiera obtener una respuesta más relevante, requería ofrecerle al sistema una idea más clara del contexto, por lo tanto, escribió un párrafo introductorio del artículo con el fin de establecer el escenario e indicarle a GPT-2 el tono y el tema.
Al realizar la entrevista, para establecer las preguntas Standage escribía el prefijo “Q” (question) y en la siguiente línea colocaba una “A” (answer) para indicarle a qué debía responder, ya que además de otorgar respuestas a cuestionamientos, GPT-2 es capaz de generar listas o recetas.
Lo sorprendente de GPT-2 es que el periodista lo configuró para otorgar 5 posibles respuestas a cada pregunta, pero además de esto, el sistema generaba preguntas y respuestas subsecuentes al cuestionamiento original.
Ante esto, el autor del artículo seleccionó aquellas que consideraba más coherentes, interesantes o divertidas, por ello, algunas personas en Twitter cuestionaron que la entrevista se haya catalogado como no editada debido a que el criterio periodístico tuvo mucho que ver.
No obstante, para todas las funciones que es capaz de realizar GPT-2 (como crear recetas o escribir ficción y poesía), el juicio humano se ha visto involucrado y esto no demerita la sorprendente evolución tecnológica de la inteligencia artificial.
Si quieres saber más sobre la inteligencia artificial para empresas y sus innovaciones tecnológicas, suscríbete a mi blog y mantente informado.
Si quieres saber más sobre la aplicación de IBM Watson y el cómputo cognitivo en empresas, suscríbete a mi blog y mantente informado.