ChatGPT, una introducción realista
ChatGPT parece haber alcanzado el Santo Grial de la inteligencia artificial generalista, pero en realidad el único problema que resuelve (y no es menor) es el de interpretar y generar texto basado en sus lecturas
4 de Marzo de 2023
Ariel Torres
Si oíste hablar por ahí de ChatGPT y todavía no te queda claro si es un nuevo jueguito de carreras, un bot de inteligencia artificial o el Fin del los Tiempos, tengo dos buenas noticias. Primera, hay tiempo. Lo de este nuevo chat –que es mitad entusiasmo y mitad un avance notable– va para largo. Segunda, lo que sigue es una introducción concisa, pero medulosa y sin mística, al bot de inteligencia artificial creado por OpenAI y puesto al alcance del público el 30 de noviembre último.
Entusiasmo, para ponerle un poquito de sal etimológica al asunto, viene del griego y literalmente significa “poseído por los dioses”. Creo que, si vamos a hablar de asuntos técnicos, deberíamos dejar de lado la posesión divina. Pero vamos a los hechos.
El nombre
Las siglas GPT de este chat –que sostiene con idéntica convicción cosas ciertas y cosas disparatadas– vienen de Generative Pre-trained Transformer. Obvio, esto no te dice nada, y tampoco vamos a intentar desarmar el tema en unos pocos párrafos, porque tiene muchas vueltas muy técnicas, como ocurre con todo lo que etiquetamos de inteligencia artificial. Pero lo bueno de saber que GPT viene de Generative Pre-trained Transformer es que ya no te vas a confundir, como le pasó a más de uno estos días. Es GPT, no GTP, TGP ni PGT.
De dónde salió
Ya sé, la frase que origina estas siglas suena a delirio místico. Como dije, no lo vamos a desarmar ahora, pero los transformers no tienen (repito, no tienen) nada que ver con la película de Michael Bay. Son un tipo de modelo de aprendizaje profundo que lanzó Google en 2017, mediante su proyecto Brain, y se lo usa para visión artificial y para entender y generar lenguaje natural. Al revés que el modelo que los precedía, los transformadores procesan toda la entrada de datos de una vez, en lugar de hacerlo secuencialmente. Como adelanté, en el caso de ChatGPT, se trata de una tecnología que Open AI llama Transformadores Generativos Pre-entrenados (Generative Pre-trained Transformes) y que lanzaron en junio de 2018.
Lo de pre-trained se refiere a que estos modelos, basados en redes neuronales, son primero expuestos a grandes masas de datos. Entrenados previamente, como indica su nombre. Por ejemplo, toda la Wikipedia (en inglés) fue usada para entrenar a este bot que pide a gritos un nombre más lindo. No se trata de ninguna trampa. Las personas también llegan a decir cosas interesantes luego de un larguísimo entrenamiento previo. Pero cuidado, ahí terminan las similitudes.
Por supuesto, cuantas más personas conversaban (por así decir) con ChatGPT, más datos se suman a su dataset; esto, hay que aclararlo, deja de ser así desde ahora, porque OpenAI decidió no usar más datos de los usuarios para entrenar a su bot.
Solo para ver cuán profunda podría ser la explicación que da este bot sobre algún tema, le pregunté (después del cierre, en la madrugada del sábado) qué es exactamente un GPT. Se lo pregunté en inglés, porque chatGPT funciona mejor en inglés que en español u otros lenguajes, y luego le pedí que tradujera su respuesta a nuestro idioma. Este es el resultado:
“Un Generative Pre-trained Transformer (GPT) es un tipo de arquitectura de red neuronal que ha sido pre-entrenada con grandes cantidades de datos de texto para generar respuestas de lenguaje natural de alta calidad. La arquitectura del transformer es un tipo de red neuronal que utiliza mecanismos de auto-atención para procesar secuencias de datos de entrada, lo que la hace particularmente adecuada para tareas de procesamiento de lenguaje natural.
“El modelo GPT se pre-entrena utilizando un objetivo de modelado de lenguaje, donde el modelo se entrena para predecir la siguiente palabra en una secuencia dada de texto. Este paso de pre-entrenamiento permite que el modelo aprenda patrones y relaciones en los datos de lenguaje, lo que lo hace capaz de generar texto coherente y de alta calidad en función de una entrada o una consulta.
“Una vez que el modelo GPT está pre-entrenado, se puede ajustar finamente en tareas específicas, como la clasificación de texto o la traducción de lenguaje, mediante su entrenamiento con una cantidad menor de datos específicos de la tarea. Este paso de ajuste fino permite que el modelo se adapte a los requisitos específicos de la tarea en cuestión y mejora aún más su rendimiento.
“En general, el modelo GPT es una herramienta poderosa para tareas de procesamiento de lenguaje natural, especialmente para la generación de texto y la comprensión del lenguaje. Su capacidad de pre-entrenamiento y ajuste fino lo convierten en una herramienta versátil y efectiva para una amplia gama de aplicaciones relacionadas con el lenguaje.”
O sea, no sabemos casi nada más ahora que antes de hacerle la pregunta, aunque dentro de la verborragia propia de este bot podemos detectar que un mecanismo llamado de auto-atención podría ser importante. Claro, lo es. Pero el bot no abunda en detalles, incluso cuando esos detalles están suficientemente explicados por todas partes en la web. Si uno insiste y le pregunta al bot de Open AI qué es un mecanismo de auto-atención, responde de nuevo con un montón de texto y aclara un poco, pero en su abundancia pierde la capacidad de aislar el concepto central y traducirlo en una imagen más comprensible. Todo lo cual, no obstante, es comprensible y, además, podrá mejorarse.
¿No tiene asistencia humana?
Estos días de frenesí quedó la sensación de que ChatGPT es alguna clase de entidad autónoma, consciente y enteramente mecánica, si me permiten el viejazo. Bueno, sí y no. El modelo desarrollado por Open AI reduce la necesidad de asistencia humana para que un sistema de aprendizaje automático se represente (de nuevo, por así decir) el mundo; pero como ocurre con cualquier bot (sobre todo si se abre al público, como Boti, el de la Ciudad de Buenos Aires), hay personas trabajando detrás de escena. Personas humanas, quiero decir. Y hay temas con los que ChatGPT no se va a meter. Y, en general, no teniendo ni consciencia del mundo ni consciencia de sí (dicho esto por el mismo ChatGPT), el bot no va a hacer nada por voluntad propia.
En futuras notas vamos mirar un poco más lo que estos tecnicismos significan (favor de entender, vosotros, los iniciados) y cuánto hay de inteligencia aquí o de simple mímesis. Lo que sí me interesa dejar claro en una introducción es que ChatGPT no es Skynet, como se dijo en muchas ocasiones estos días; ni mucho menos.
Es más, la empresa que creó ChatGPT fue fundada –entre otros– por Elon Musk con el fin de investigar en inteligencia artificial de tal modo que resultara beneficiosa para la humanidad. El inocultable tufillo a Liga de Superhéroes que impregna este discurso habla claro de su misión, aunque OpenAI ya no es lo que supo ser. En 2019 dejó de ser una organización sin fines de lucro y Microsoft es hoy uno de sus principales inversores. En total: vamos a ver estos modelos de interpretación y generación de lenguaje natural hasta en la sopa, prometido. Dato importante: los propios responsables de Open AI y de ChatGPT quedaron atónitos con la viralización de su bot, según le dijeron a la revista del Massachusetts Institute of Technology.
¿Cómo lo solventan?
Por ahora el servicio es gratis, pero, aparte las inversiones de grandes compañías, el plan es monetizarlo. Podría costar algo así como 20 dólares por mes. Ahí se va a terminar el amor, supongo.
¿Es realmente una revolución?
Por supuesto, estuve hablando (digámoslo así) largo y tendido con ChatGPT y tengo varios experimentos muy interesantes para compartir con ustedes. Pero antes de eso me parece que es oportuno reflexionar sobre la súbita posesión divina que experimentó casi todo el mundo con el bot de OpenAI. Las palabras que más oímos fueron nuevo, revolucionario, reinvención y cambio de paradigma.
Va a haber un poco de todo eso, se los puedo garantizar, pero lo que en realidad pasó fue que OpenAI tuvo la idea (genial) de poner su bot al alcance de cualquier persona con una computadora, conexión con internet y un poco de curiosidad. La tecnología detrás de ChatGPT existe desde hace bastante y los transformadores en particular están desarrollándose desde hace cinco años. Pero como ocurrió con la computadora personal entre 1977 y 1981, el público de pronto tuvo la oportunidad de usar la inteligencia artificial en casa, en el trabajo, en la escuela, de una forma intuitiva y para su propio provecho. Por supuesto, la onda expansiva fue descomunal.
ChatGPT es un avance, no cabe duda. Tanto como lo era la IBM/PC respecto de las máquinas para hobbistas que existían antes. Pero la computación ya hacía maravillas antes de la PC. Es más, a las PC se las conocía en la industria como “esos juguetes de 8 bits”. Pero hasta entonces el poder de cómputo estaba reservado a gobiernos y grandes organizaciones, y de pronto la tuvimos en casa. Fue todo una locura; estuve allí, no me lo contaron. La PC fue persona del año de la revista Time en 1982.
Ahora, aunque no como persona del año, ChatGPT fue también tapa de la revista Time, aunque el planteo de base de la revista está, a mi juicio, equivocado. No importa, eso es algo que podemos debatir. Lo que parece evidente es que, Como pasó muchas veces, las tecnologías florecen cuando muchas personas tienen acceso a ellas.
Lo más disruptivo
El análisis de lo que puede y no puede hacer ChatGPT ahora y en el futuro es un debate muy interesante, muy técnico y multidisciplinario. Pero el fenómeno mediático ChatGPT no reside tanto en la tecnología como en la gente. Ahora que sabemos lo que estas tecnologías pueden hacer, es posible que los incalculables desafíos que la IA impone en algo tan sensible como el empleo lleguen por fin a la agenda de la clase dirigente. Ahora, digo, que un bot puede responder una pregunta incómoda con casi el mismo discurso pre digerido y desangelado que un político en campaña.
Fuente:https://www.lanacion.com.ar/tecnologia/chatgpt-una-introduccion-realista-nid04032023/