Por Santino Girardi
Lautaro Borrovinsky es científico de datos especializado en procesamiento de lenguaje natural. Se dedica particularmente a investigar la rama de la inteligencia artificial que se encarga del lenguaje, como lo es ChatGPT. En sus palabras, su trabajo consiste en “encontrar maneras de que la IA pueda resolver tareas que en principio requerirían de un humano que entienda sobre lenguaje para resolverlas”. Lo que antes parecía ciencia ficción, hoy es su profesión.
Hay algo hipnotizante en escucharlo hablar de inteligencia artificial con total naturalidad, como si no fuera un concepto todavía futurista, sino el presente cotidiano. Borrovinsky se mueve canchero entre conceptos como “modelos multimodales”, “agentes inteligentes” y “delegación cognitiva”. Pero no sólo trabaja con IA, también reflexiona sobre sus implicancias éticas y sociales: “La IA no puede asumir responsabilidad por sus acciones. No puede actuar desde principios morales propios. El juicio moral, la empatía y el criterio siguen siendo humanos”, asegura.
-¿Cómo creés que va a evolucionar la IA en los próximos años?
-Hay varios ejes. Al principio ChatGPT era solamente texto, ahora le podés mostrar una imagen, pasar un documento o incluso hablar mediante audio y que te responda mediante imágenes o texto. Probablemente dentro de poco se sume el video. Creo que en el futuro cercano vamos a estar viendo más modelos modales y multimodalidad, y al mismo tiempo, más modelos especializados, más pequeños, que ocupan y consumen menos recursos, pesan menos, y son entrenados para tareas más específicas, como, por ejemplo, medicina, derecho o periodismo.
-¿Ves un escenario en que la IA reemplace a los humanos en sus puestos de trabajo?
–En general, sí. Principalmente en áreas como soporte al cliente y traducción, porque, por ejemplo, en lo que es programación, que es lo que tengo más cerca, sé que hubo empresas que intentaron reemplazar programadores con IA pero que no les fue tan bien. En programación hay un margen de error muy chico; en cambio, en tareas como la traducción, ese margen de error es menos estricto. En principio, en ese tipo de tareas puede ser. Esto es todo muy reciente.
-¿Qué cualidades humanas considerás que no pueden ser reemplazadas por la inteligencia artificial?
–Una opinión genuina necesita de un humano formado. La IA puede generar una opinión, pero no hay un cuerpo que la siente propia. Un poco relacionado con esto, el tema de la empatía real y lo que es la conexión emocional. Hay gente que dice que la IA tiene inteligencia emocional. La IA puede simular empatía, pero no es lo mismo que tenerla. Es una cuestión medio filosófica. También hay muchos humanos que no tienen empatía, así que capaz que una máquina la tenga no es tan difícil. Por otro lado, la inteligencia artificial no puede asumir responsabilidad por sus acciones, no puede actuar desde principios morales propios. En resumen: empatía, juicio moral, responsabilidad y criterio, por el hecho de que detrás de una IA hay sólo cálculos matemáticos transformados en lenguaje.
-¿Hay una visión apocalíptica puesta sobre la IA? ¿Hay que tenerla o hay que naturalizarla?
–Hay que naturalizar la IA. No sirve vivir con ese pánico apocalíptico. Si el mundo se termina no va a ser por que la inteligencia artificial nos domine y decida eliminarnos. Al mismo tiempo, creo que se mezclan un montón de emociones lógicas, como con todo cambio. Hay un autor que define a una crisis como cuando lo viejo no termina de morir y lo nuevo no termina de nacer. Creo que estamos en una crisis. Hay un bicho que de repente hace cosas que pensábamos que sólo un humano podía, y eso nos llena la cabeza de preguntas. Lo mejor es aceptar que vamos a estar así un tiempo, transitarlo y adaptarnos.
–Se sabe que la IA se usa frecuentemente para crear fake news, ¿hay fake news sobre la IA que te gustaría aclarar?
-Un montón. Se habla todo el tiempo de que la IA genera noticias falsas y se habla poco de la cantidad de noticias falsas que hay sobre la inteligencia artificial. Me acuerdo de que en un momento dijeron que un dron operado con IA había matado a su operador. Después dijeron que pasó en una simulación, pero en realidad no hubo ni dron ni simulación, era todo mentira. Después, hubo una muy famosa que decía que dos IA empezaron a hablar entre sí y las tuvieron que desconectar porque parecía que estaban planeando algo, cuando en realidad las desconectaron porque no servían. Después hay narrativas falsas, como que la IA va a dejar sin trabajo a todo el mundo.
-¿Entonces no hay que pensar en “Terminator”?
-No, no, para nada (se ríe). Los creadores de Terminator no saben cómo funciona la inteligencia artificial. Son películas basadas en el imaginario de la IA desde el sentido común, pero la inteligencia artificial no está hecha de sentido común, está hecha de matemáticas y cómputos. Toda la saga Terminator son peliculones, pero no, no es por ahí. Es más, la historia de las películas cuenta que Skynet, la empresa que creó a Terminator, nos bombardeó a todos, pero lo que pasó, y que después te muestran, es que Skynet decidió estratégicamente bombardear a Rusia para que responda y que en esa respuesta el gobierno ruso lance una bomba atómica que hace desaparecer un porcentaje importante de la humanidad. Incluso en Terminator, los que destruyen a la humanidad son humanos.
-¿Qué sentís que hace falta en cuanto a legislación?
-Lo más urgente tiene que ver con las marcas de agua en videos y fotos generados por IA, por temas como deepfakes de chicas menores en situaciones sexuales. Eso me parece gravísimo y lo más urgente porque el daño que causan es irreversible. También proteger la propiedad intelectual. Con otras cuestiones es más difícil trazar la línea, porque depende del uso. No es lo mismo un periodista que usa ChatGPT para revisar errores ortográficos de una nota que él mismo escribió que otro que genera una nota enteramente con IA y la publica como propia. El tema de la inteligencia artificial puede ser difícil de legislar en algunos casos.
–¿Sentís que la IA puede generar dependencia y dificultar la capacidad de pensamiento propio?
-Es un temazo. Hay algo que se llama “delegación cognitiva”. Al usar ChatGPT u otra inteligencia artificial para cuestiones que requieren pensar, el cerebro se esfuerza menos. Algunos hablan de sedentarismo cognitivo, hacer menos fuerza con el cerebro para pensar, al haber algo externo que lo hace por nosotros. Lo mismo paso con el GPS y la ubicación. Entonces sí, puede haber dependencia, más que nada en los más chicos.
-¿Considerás que el uso actual de la inteligencia artificial se desvió de los fines para los que fue originalmente creada?
-El tema es que la IA no fue creada para algo específico. Es una búsqueda humana basada en la fantasía con la automatización inteligente que existe desde hace miles de años. Los griegos hablaban del mito de Talos, que era un autómata que protegía la isla de Creta de piratas. El mito del Gólem en el judaísmo, un muñeco de arcilla que le metían un mensaje escrito y cumplía con lo que le pedían. Entonces, creo que la IA fue creada como un fin en sí mismo, porque si bien explotó en los últimos años, viene desde hace rato. El término “inteligencia artificial” aparece en 1956 y, si hablamos de para qué se creó, hay que ir a ese momento en New Hampshire, Estados Unidos, cuando se hablaba de que ella pueda simular todo lo que puede hacer el cerebro. Pero también creo que es para explorar, jugar y crear.