La posibilidad de arrojar una pregunta y que una máquina nos responda no es nueva pero sí las características que revisten los nuevos avances de la Inteligencia Artificial que pone en jaque la noción de verdad, de propiedad intelectual y de ética, de quienes están detrás y operan con miles de datos que circulan en las redes sociales. En esta nota, el especialista Diego Evin, aclara el panorama y también lo complejiza, para invitar a pensar.
Mónica Borgogno
“Con una muestra alcanza, hoy las bombas que crearon sus mentes, son más inteligentes que los idiotas que las lanzan”, le contesta una computadora inteligente al vocalista del Cuarteto de Nos en la canción Contrapunto para Humano y Computadora. Ese fragmento de la letra sintetiza apenas una parte de los debates y controversias que trajeron las últimas novedades de la Inteligencia Artificial como el ChatGPT, ideado por la empresa Open IA.
Es que con esta tecnología hoy un usuario cualquiera puede entrar a la página https://openia.com/, crear un usuario y chatear en busca de alguna respuesta en particular. La experiencia resulta más que atractiva porque devuelve textos con un grado de coherencia y amabilidad que sorprende. Ahora esa misma capacidad, también prendió la voz de alarma de algunos sectores. Unos más extremistas, otros más mesurados.
El escenario a futuro más oscuro es el planteado por un grupo de investigadores (físicos, politólogos, computólogos), miembros del Instituto de la Vida Futura, a través de una carta abierta en la que piden pausar los desarrollos relacionados con ChatGPT. Esa solicitada, avalada por destacados desarrolladores de inteligencia artificial hoy ya tiene más de 27.000 firmas, entre las que está la del millonario empresario Elon Musk.
Allí piden frenar por un período de seis meses, este tipo de desarrollos, considerados “una amenaza para la humanidad”. El revuelo que trajo el documento, significó empezar a poner en agenda la necesidad de controlar el avance de estas tecnologías disruptivas. En paralelo, otro grupo de investigadores propone la necesidad de regulación, desde una mirada latinoamericana.
EL DIARIO consultó al bioingeniero Diego Evin, doctor en Computación, y docente de Bioingeniería en la UNER. Una de las intenciones fue repasar quiénes son los principales actores y movimientos detrás de la Inteligencia Artificial y lo que esta tecnología depara.
La manipulación de la información y de las personas, la sustitución humana de muchos trabajos, el fin de la verdad, fueron algunas de las escenas posibles -y preocupantes-, que quedaron resonando tras la entrevista que ahora repasamos en sus detalles más sustanciales.
–¿Cómo llegamos a estas controversias en torno a la Inteligencia Artificial?
–Open IA no es la única que está desarrollando esta tecnología de modelos de lenguaje dentro de la Inteligencia Artificial. De hecho, es una de las grandes empresas tecnológicas como las estadounidenses Google, Meta (Facebook, WhatsApp, e Instagram), Microsoft, NVidia, o las chinas Baidu, Tencent, Alibaba o Huawei.
Este ChatGPT se hizo muy famoso a partir de sus innovaciones en usabilidad del sistema y la fluidez de los diálogos entre humanos y computadora, además de ofrecerlo gratis al público sin necesidad de contar con una computadora especial para hacerlo. Es decir, aseguró que millones de personas puedan usar simultáneamente un servicio que generalmente tiene un costo muy elevado. El resto de las empresas mencionadas no vio en su momento el atractivo comercial, pero sí esta gente y ahora todas quedaron rezagadas.
–¿Qué es Open IA?
–Es una compañía de origen americano. Se funda en 2015 y su objetivo principal era hacer una compañía que democratice los beneficios de la inteligencia artificial, que llegue a toda la humanidad y por eso el perfil era de desarrollo abierto, no estaba motorizada por la renta. Ahí estuvo Elon Musk para financiar el proyecto, junto con Sam Altman; pero como Musk siempre está trabajando en distintos proyectos empezaron las competencias, lo fueron excluyendo de las decisiones. Se cambió el modelo de negocio hacia uno de rentabilidad limitada de modo de poder pagar servidores, etiquetadores de datos e investigadores, que fue lo que impulsó los nuevos desarrollos.
–¿Es factible el plazo de seis meses para frenar estas iniciativas?
–Esta sociedad americana llamada Instituto de la Vida Futura, tiene su hipótesis sobre tecnologías y cambios, que pueden llegar a ser terminales para la Humanidad. Una de esas es la IA; otra es la biotecnología; otra, el cambio climático y las armas nucleares. Desde esa Fundación, presuponen que esos factores pueden generar cambios tan abruptos que podrían exterminar a la humanidad y su misión, tal como expresan en su carta, es alarmar y concientizar a la sociedad.
Pero en seis meses, como piden, es inviable limitar, controlar y auditar los desarrollos. Hoy, a la solicitud la avalan cerca de 27.000 firmas. Muchos comparten la opinión de que la propuesta no tiene mucho sentido práctico, pero sí sirve para generar una reflexión en la gente y sobre todo en los gobiernos, respecto de si no es conveniente fijar un limite a la evolución de la tecnología.
En relación a esta decisión de alarmar a la sociedad, hace poco un investigador del campo de la Inteligencia Artificial, Eliezer Yudkowsky escribió un artículo en la revista Time diciendo que detener los desarrollos no era suficiente y llamaba incluso a bombardear a los centros de datos de estas grandes compañías.
Los que tienen más datos
–Si hablamos de la posibilidad de dominio del humor social que provocarían estos desarrollos, ¿se reproduce o aparece una nueva división entre Estados ricos y Estados pobres?
–Justamente, uno de los objetivos del documento de la Fundación, es generar algún ambiente de gobernanza porque todavía no está definido quién audita, quién controla. Y ahí hay controversia porque hay muchos que hablan de dejar que las empresas se autorregulen y sean responsables de los productos que sacan al mercado, lo que es una manera indirecta de que se ralenticen estos desarrollos que puedan implicar efectos perjudiciales.
Pero por otro lado hay bastante hipocresía ya que hay una guerra hoy. Así como en otra época lo fue por la carrera espacial, ahora es por el conocimiento; y ese conocimiento se obtiene de los datos. Se lo puede ver claro en la controversia geopolítica que hay en torno al 5G, la nueva generación de telecomunicaciones móviles. En este punto, China tiene un modelo de empresas estatales como Huawei, uno de los principales desarrolladores de esta tecnología móvil y de inteligencia artificial. En el otro extremo está Estados Unidos y Europa, que están susceptibles por el control de datos.
Y los datos, como se decía en los 2000, son el nuevo petróleo. En esta carrera ninguna de las potencias va a frenar o dejar de desarrollar por seis meses algo que es estratégico para ellos.
–China está ganando esta batalla entonces.
–China hizo un plan para el dominio de la inteligencia artificial para el 2030 y precisamente esa fue una de las razones que llevó a la guerra comercial con Estados Unidos. Éste no quiere perder predominio en materia de tecnología y en algunos segmentos China lo está superando porque, en inteligencia artificial, cuantos más datos, investigadores y supercomputadoras para hacer esos modelos se tenga, mejores van a resultar los algoritmos.
China tiene un ambiente muy propicio para este tipo de desarrollos: más de 700 millones de personas usando celulares con datos que van y vienen; además, sus empresas tienen bastante libertad para ciertas actividades y desarrollos; incentivos financieros para compra de equipamientos, y más flexibilidad en el uso de esos datos porque el Estado garantiza que las empresas los compartan entre sí. En Occidente cada empresa defiende muchos sus datos y clientes. Todos esos factores asustan a la competencia americana.
También tienen implementaciones controvertidas como un sistema de scoring o calificación social que es una suerte de premio y castigo a los ciudadanos según su comportamiento. Según cuántos semáforos en rojo cruzaste, o si pagaste fuera de término los impuestos, todo tiene una puntuación y luego eso te permite beneficios como reducciones impositivas, o acceder a determinado puesto de trabajo.
–Tal como ocurre en distintos episodios de la serie Black Mirror, de Netflix.
–Sí. El argumento de los distintos episodios de Black Mirror está basado en estos aspectos tomados de la realidad.
Brechas y razones
Para sortear el trago amargo que deja la poca distancia existente entre un mundo que puede parecer distópico -fascinante y peligroso a la vez-, y la realidad de los alcances de la tecnología más avanzada, se dejó en suspenso la conversación con Diego Evin. Se cambió rápidamente de tema y se arremetió con la cuestión de las desigualdades políticas y económicas, en un escenario de batalla mundial.
–¿Alguien recoge el guante respecto de estos temas en nuestra región?
–En paralelo a esa carta surgida de Estados Unidos, se lanzó otra tras el Encuentro Latinoamericano en Inteligencia Artificial, firmada por investigadores y desarrolladores reunidos en Uruguay. En el último congreso de marzo, para fomentar la actividad, se advirtió sobre otras razones más que tienen que llegar al conocimiento de los ciudadanos, como los sesgos que vienen junto con los datos.
–¿Cómo es esto?
–Dado que los sistemas están basados en datos, si en estos aparecen sesgos de racismo, o de machismo, eso luego se refleja y los sistemas resultantes van a tener esas características, presentes en la sociedad, y que usamos todos.
Por eso es importante hacer desarrollos en nuestra región, pero lo cierto es que estamos muy rezagados.
Historia
–¿De cuándo datan los comienzos de la Inteligencia Artificial?
–La IA tuvo un primer boom en los años ‘50. En la Facultad de Ingeniería de UNER, en Oro Verde, está como cátedra de Bioingeniería, desde 1987.
En 2012 surge el Deep Learning o aprendizaje profundo, una aparición disruptiva que consiste en un nuevo tipo de red de capas neuronales artificiales, que en otras palabras es un programa de computación con muchas capas de procesamiento de datos que tienen algunos comportamientos como las redes neuronales del cerebro. Es decir, un programa que permite aprender a partir de distintos ejemplos y experiencias. Fue un salto cualitativo en cuanto a lo perceptual, que posibilitó mejoras en el reconocimiento de rostros, reconocimiento de palabras, y traducción de textos.
Grandes conjuntos de datos para entrenar a los modelos, nuevos algoritmos y la infraestructura basada en placas de video, que pasaron de la industria de videojuegos a la del cálculo científico, confluyeron para dar impulso a esta revolución.
“Hoy está en discusión si se puede tomar como propiedad intelectual algo producido con inteligencia artificial”.
–¿Qué es lo que distingue al ChatGPT?
–Un hito de esta historia se da en 2017 cuando surge el modelo Transformers, otro tipo de redes neuronales artificiales que permitió tener en cuenta el contexto en el que se producen los datos, que es la base del ChatGPT (GPT es un acrónimo de Transformers Preentrenados Generativos).
En conclusión, son grandes modelos de lenguaje, o sea, algoritmos que aprenden, a partir del contexto en el que se encuentra una secuencia muy larga de palabras, cuál es la palabra siguiente, como los predictivos de los teclados de los celulares. Se entrena con muchísimos datos de internet, de libros, datos escritos, sin una supervisión.
Es un modelo generativo: una vez que se entrenó se le puede pedir que genere texto acorde al modelo aprendido, que es lo que hace cuando le pedimos, por ejemplo, que escriba un cuento sobre una luciérnaga y un ratón.
Ahora, uno le puede pedir referencias sobre un tema o una respuesta que le dio y si no las tiene, las inventa. Por eso es peligroso usar esta tecnología sin una supervisión posterior.
Por otra parte, hay un corte temporal en los datos que usó el sistema: trabaja con datos entrenados hasta 2021. La versión 4 del ChatGPT, que está disponible, pero es paga, permite usar internet para obtener información más actualizada en las respuestas.
Al ChatGPT se le puede pedir hacer una nota sobre este tema e incluso hacerle las mismas preguntas que en esta entrevista.
Tomar distancia para cuestionarse
La invitación a chatear con una máquina superpoderosa fue tentadora, casi un juego. Tras la experiencia, se puede deducir que la ética es el único límite a estas innovaciones sorprendentes. Qué se hace con esas muchas posibilidades de respuestas que ofrece el sistema ante una misma consulta. “¿Qué te parece este título para una nota sobre inteligencia artificial?”, por ejemplo ¿Se copia y se pega, se piensa sobre los propios límites, se toma distancia y se toman las distintas palabras combinadas entre sí para renovar la propia inspiración?
Estas inquietudes fueron transmitidas a Diego Evin.
–Se asoma el problema de la propiedad intelectual y la verdad.
–Sí. Hay un tweet de alguien que estaba cansado de ver sus imágenes en las redes sin que reconozcan su autoría; lo curiosos es que ahora el sistema -con esos datos que la persona hizo público- va a hacer lo mismo.
Hoy está en discusión si se puede tomar como propiedad intelectual algo producido con inteligencia artificial.
Todo esto, pienso, va a terminar con la verdad. Vamos a vivir con una verdad líquida, no se va a saber a quién creer o qué creer de lo que se ve. La frase ver para creer va a perder valor. Ese es uno de los inconvenientes.
Se dice que hubo una primera transformación social abrupta como la agropecuaria, en la que los pueblos pasaron de ser nómades a sedentarios; luego la industrial, donde los pueblos agrícolas migraron a la urbanidad; y, ahora, se cree que se va a llegar a un punto en el que no hará falta el trabajo humano. Entonces, cómo se va a hilvanar esa sociedad. No solo porque la IA puede redefinir sus algoritmos y no necesitar al ser humano, sino porque facilitaría otras invenciones genéticas, el descubrimiento de drogas, enfermedades, que significarían importantes cambios sociales.
“La IA tuvo un primer boom en los años ‘50. En la Facultad de Ingeniería de UNER, en Oro Verde, está como cátedra de Bioingeniería, desde 1987”.
Posicionamiento
–No tiene una mirada tan extremista…
–Veo grandes períodos de promesas y decepciones con la IA, a lo largo del tiempo, pero el riesgo de reemplazar trabajos -sobre todo repetitivos- está. Las labores que estarían más a resguardo, por ahora, son las manuales o físicas, como cambiar un caño, o levantar una pared.
Todos los cambios tecnológicos grandes despertaron miedos similares; lo especial de esta ocasión es la velocidad con la que esos cambios se van a dar.
Me parece una amenaza más concreta de estas tecnologías, por ejemplo, el actual uso de tantas aplicaciones móviles a las cuales les otorgamos el acceso y, en consecuencia, el uso de datos personales. Esas amenazas son más realistas que la de un Terminator que vaya a matarnos a todos. Hay predicciones a partir de encuestas que buscan anticipar cuándo se podrá llegar a la Inteligencia Artificial General, esa que se cree que reemplazaría a la mente humana. Algunos dicen que, como mínimo 20 años, otros que recién de acá a 50 años. Lo que parece claro es que la evolución se dará hacia ese objetivo.
“Con la inteligencia artificial sin límites, vamos a vivir en una verdad líquida, no se va a saber a quién o qué creer”.
En la comarca
–¿Qué desarrollos hay en IA aplicables a la salud u otros aspectos, en nuestra región?
–En la Facultad de Ingeniería que funciona en Oro Verde hay equipos que vienen trabajando hace muchos años en estos temas. Por ejemplo, en interfaz cerebro- computadora, que buscan “leer la mente”, relacionando señales electroencefalográficas con intenciones del paciente, en el monitoreo de apnea de sueño, en el desarrollo de modelos músculo-esqueléticos para mejorar prótesis, y nosotros estamos trabajando en detectar lo más rápido posible dónde hay alteraciones de la retina en bebés, que los puedan llevar a la ceguera y de este modo prevenirla, entre otras propuestas.