Este año amaneció convulsionado por el avance inédito de la inteligencia artificial. ChatGPT de OpenAI, Bard de Google, LLaMA de Facebook y Sydney de Microsoft ofrecen versiones básicas y gratuitas en la web y otras versiones pagas de sistemas de lenguaje basados en inteligencia artificial, pero ¿qué son estas nuevas tecnologías?
La inteligencia artificial en realidad no es inteligente por sí sola, la inspiramos nosotros -los seres humanos- a imagen y semejanza de nuestro cerebro. Los algoritmos -instrucciones diseñadas para resolver un problema- emulan la forma en la que aprendemos los humanos: con razonamientos lógicos y ejemplos.
¿Cómo consiguen el razonamiento lógico que deben seguir? Se lo dan los programadores ¿Y los ejemplos? Del contenido que generamos online todos nosotros ¿Cómo? No siempre nos preguntan. Cuando aceptamos los términos y condiciones (que casi nadie lee) no somos conscientes del destino de nuestros datos y, en otros casos, absorben nuestra información personal y preferencias por defecto. Toman la información de infinidad de sitios web como Wikipedia, diarios digitales, revistas científicas o la que nosotros mismos dejamos en internet cada vez que hacemos un posteo, una búsqueda, nos registramos en una página, comentamos o publicamos algo en cualquier red social. Incluso, de algunos electrodomésticos ‘inteligentes’, que se conoce como la internet de las cosas. Porque todo eso que usamos sin pagar, en realidad no es gratis: lo pagamos entregando nuestra información personal a la web. Dicho de otro modo: si no pagás, no sos un cliente; sos un producto. Esto se completa con el entrenamiento que le dan al algoritmo miles de trabajadores precarizados en países pobres, históricamente explotados y colonizados por países ricos. Estos trabajadores son los responsables de revisar todo el contenido que se usa para entrenar a las IA, eliminando contenido no deseado (por ejemplo racista o extremistas) y al mismo tiempo agregando las etiquetas (metadatos) que le indican a la IA si lo que está leyendo es real, ficción, canciones, un libro de un autor, etc. Sin este pre-procesado de los datos, los algoritmos no pueden ser entrenados.
Así, las multinacionales tecnológicas, dieron con la fórmula perfecta para simular una inteligencia que simula, a su vez, saberlo todo. Es una simulación porque en realidad arroja resultados estadísticamente probables. Es decir, hace un compendio, un ‘collage’ de todo lo que lo que se usó para entrenarla y te ofrece una respuesta basada en lo que más abunda en la nube. Y muchas veces, esa información es falsa o incierta, sobre todo considerando que la principal fuente de chatGPT es contenido de sitios web que puede no ser correcto. Así que su capacidad de recrear la creatividad y originalidad humanas son discutibles. Aunque, en general, da respuestas aceptables mucho más rápido que nosotros y con un bagaje de información que a nosotros nos llevaría años o toda la vida adquirir.
¡Asistentes personales para todes!
En sus versiones gratuitas, podés pedirle que te resuma un libro, que compare dos teorías, que escriba un análisis crítico desde el punto de vista de un autor específico o que redacte un cuento al estilo de Gabriel García Márquez. En las versiones pagas, va más allá: integra todas las herramientas de Google, Microsoft y otros (por ejemplo wolfram alpha, un servicio que resuelve cuestiones matemáticas, de cálculos y análisis de datos avanzadas) para responderte lo que le pidas. Por ejemplo: podés subir un pdf para que te haga un resumen y luego cree una presentación de power point y además un video con esa información.
Con estas IA haciendo todo nuestro trabajo, nosotros quedamos en el rol de directores de orquesta y supervisores del resultado. Eso suena a problemas.
En marzo de este año, 1.800 expertos y empresarios tecno pidieron en una carta abierta que se detengan los desarrollos de IA que superan a Chat GPT 4, Bard y Sydney. Dijeron que esto podría significar “un cambio profundo en la historia de la vida en la Tierra”. Sin embargo, más allá de las intenciones expresadas en la carta, hubo cuestionamientos en redes sociales tanto a la propuesta en sí (el tiempo sugerido, 6 meses, no era realmente suficiente para abordar el tema adecuadamente y nada impedía que se siguieran los desarrollos de forma “no pública”) y hacia algunos de los firmantes quienes tenían claros conflictos de interés económico. Estos cuestionamientos hicieron que dicha carta pierda parte del apoyo que recibió inicialmente.
Al ser capaz de crear imágenes, videos y texto con un alto grado de verosimilitud, distinguir información falsa de verdadera va a ser casi imposible. Y esa es una de las mayores preocupaciones. En este sentido, dada la facilidad y automatización disponibles con el uso de los servicios pagos de IA, algunos sitios web de noticias o de artículos en general, han generado cientos a miles de artículos directamente desde ChatGPT, sin pasar por controles apropiados, potencialmente diseminando información falsa. Lo que es peor, es que esta misma tecnología puede usarse de manera malintencionada: se puede indicar a la IA que genere un artículo a partir de premisas falsas y distribuirlo por decenas o cientos de medios o cuentas de redes sociales diferentes, inundando en internet con la fake news e impactando en muchas personas más, quienes además al buscar información al respecto terminan accediendo a sitios con copias de la fake news.
Según el lingüista Chomsky, estas IA pueden dar respuestas aparentemente correctas pero no pueden explicar. Porque solamente dan las respuestas más probables, las que más se han dado ya, pero (por ahora) no es capaz de razonar o deducir explicaciones. Más aún, algunos servicios como ChatGPT, la respuesta que dan depende del contexto en que se le hace la pregunta, es decir, el hilo de la conversación que se mantuvo hasta ese momento. Chomsky dice que “comercian simplemente con probabilidades que cambian con el tiempo”. Esas probabilidades se basan solamente en una parte del pensamiento humano: el razonamiento lógico, pero el ser humano no es sólo (ni siempre) una mente que piensa “bien”. Somos seres emocionales e irracionales ¿Será inconquistable ese resquicio impredecible del comportamiento humano?
Por otro lado, es cierto que la inteligencia que demuestran estos sistemas de lenguaje son, por el momento, de un solo tipo: lógico-matemática. Las demás, clasificadas por el psicólogo Howard Gardner a inicios de la década del ’80, solo las imita. Así que, en ese sentido –y reeditando al científico ficticio Frankenstein- más que crear un monstruo, han creado un chimpancé.
Esta IA puede escribir noticias sin profundidad ni crítica y solo con el insumo que nosotros le demos. Puede crear fotos realistas… siempre y cuando le demos instrucciones muy precisas respecto de la luz, la velocidad de obturación y la apertura del diafragma. Es decir, hay que ser un experto para que el resultado que nos devuelva sea realmente creíble. Por ejemplo aquí le hemos pedido al generador de imágenes por IA de Freepik que nos genere una foto de un carpincho comiendo queso en la cancha de Boca Juniors:
Pero si nuestro trabajo puede ser reemplazado fácilmente por una IA quizás significa que tiene poco de humano, que es un trabajo tan rutinario que ya estábamos robotizados desde antes. Si es así, la resistencia consistiría en ser lo más humanos posible. Combatir lo inhumano con lo humano. Recuperar todo eso que nos diferencia de una máquina.
El impacto de esta tecnología todavía es incierto y hay muchos interrogantes ¿Cómo va a ser la exclusión social y laboral del 37% de la población mundial que todavía no tiene acceso a Internet, según el Banco Mundial? El propio Chat GPT, siendo una parte importante del problema, admite un futuro pesimista. “La falta de acceso a Internet puede agravar la brecha digital entre las personas que tienen acceso a la información y las oportunidades en línea y las que no. Aquellos que no pueden acceder a la red pueden perderse oportunidades educativas, laborales y de participación cívica que son cada vez más importantes en la sociedad actual”, responde el 9 de octubre con esa exacta pregunta.
Las inteligencias humanas debemos, entonces, hacernos preguntas con implicancias éticas: ¿Es mi trabajo tan inhumano como para ser reemplazado por un algoritmo? ¿Cuán humano es nuestro comportamiento actual?
Por María Victoria Ennis