ChatGPT, ¿qué tanto de hype?

hype-curve emoji

ChatGPT y Dall-E son herramientas de la Generative AI, que se encuentran en lo más alto de la Hype-Curve, planteando numerosas preguntas, de las cuales muchas aún no tienen respuesta convincente!

Desde que se lanzó la aplicación ChatGPT en noviembre de 2022, esta ha generado múltiples reacciones, y al igual como lo fue la aplicación Dall-E (generador de imágenes basados en en Inteligencia Artificial). Ambas tecnologías forman parte de lo que se conoce como Generative AI (IA generativa), tecnologías que permiten producir texto e imágenes.

El software utiliza modelos complejos de aprendizaje automático para predecir la siguiente palabra en función de secuencias de palabras anteriores, o la siguiente imagen en función de palabras que describen imágenes anteriores, Thomas H. Davenport de la Harvard Business Review plantea grandes desafíos en el trabajo creativo. El mismo google muestra el crecimiento de las búsquedas en esta materia en los últimos meses, en la gráfica se ve una comparación entre el patrón Ukraine y ChatGPT.

Google trends de Chatgpt
Google Trends

ChatGPT y el Hype

Como en el pasado, cuando hace irrupción una nueva tecnología, se produce un efecto que muestra diferentes percepciones, desde la fascinación, hasta el temor por los efectos potenciales de su uso, algunos ejemplos de uso de ChatGPT (WhatsApp, Google Crome, Excel).

Estas reacciones, son un fenómeno bastante estudiado, incluso la consultora Gartner le dio un nombre, el ciclo y/o efecto hype.  Este ciclo lo muestra a través de un gráfico, la denominada hype-curve, la cual muestra que las tecnologías emergentes pasan por cuatro estados hasta llegar a su nivel de madurez:

  • Lanzamiento
  • Pico de expectativas sobredimensionadas
  • Abismo de desilusión
  • Rampa de consolidación
  • Meseta de productividad
Gráfico hype-curve de gartner

El paso por cada una de estos estados, puede durar bastante tiempo, incluso hay algunas tecnologías que mueren antes de llegar a la meseta de productividad. De hecho Gartner, el año 2022, ubicaba la tecnologías Generative AI entrando a lo más alto del pico de expectativas de la Hype-Curve.

Hype-Curve de Garte para inteligencia artificial para el 2022

¿Qué pasa con ChatGPT?

Se trata de una tecnología desarrollada en 2022, por la empresa OpenAI, la misma empresa que desarrolló Dall-E en enero de 2021. 

OpenAI define a ChatGPT, como la optimización de modelos lingüísticos para el diálogo. Para ello desarrollaron un modelo  que interactúa de forma conversacional. El formato de diálogo hace posible que ChatGPT responda a preguntas.

Como opera

El modelo actual de ChatGPT está basado en la tecnología GPT-3 (Generative Pre-trained Transformer 3), esto es, un modelo  de lenguaje autorregresivo que utiliza aprendizaje profundo para producir textos que simulan la redacción humana sobre la base de un análisis de grandes volúmenes de datos.

OpenAI utilizó trabajadores kenianos pagando menos de 2 dólares por hora para hacer menos tóxico ChatGPT

Time

Los grandes modelos lingüísticos (Large Language Model), como el GPT-3, se entrenan con grandes cantidades de datos de texto de Internet y son capaces de generar textos similares a los humanos, pero no siempre producen resultados coherentes. La función objetivo que utilizan es una distribución de probabilidades sobre secuencias de palabras, que les permite predecir cuál es la siguiente palabra de una secuencia, mientras más datos de entrenamiento se utilicen mejor es la predicción. Algunos de los problemas que tienen estos modelos son:

  • El modelo inventa hechos inexistentes o erróneos.
  • El lector del resultado no entiende como el modelo llegó a ese resultado/decisión
  • Resultados sesgados o francamente tóxicos, un modelo lingüístico entrenado con datos sesgados puede reproducirlos en sus resultados. De hecho según la publicación Times, OpenAI utilizó trabajadores kenianos pagando menos de 2 dólares por hora para hacer menos tóxico ChatGPT.

Un interesante análisis sobre como opera ChatGPT es el paper Entrenamiento de modelos lingüísticos para seguir instrucciones con retroalimentación humana y este artículo en ScienceFocus de la BBC.

El GPT-3 (versión actual) por su parte fue entrenado con 175 mil millones de ejemplos según Acquisition.com.  Actualmente OpenAI se encuentra desarrollado una nueva versión basada en GPT-4 que está siendo entrenado con 100 billones de ejemplos (está gráfica se la robé a Jaime Navón).

 

Datos de entrenamiento de GPT-4

Si bien son varios órdenes de magnitud mayor el volumen de datos de entrenamiento para la nueva versión, se espera que su comportamiento mejore en forma significativa, aunque algunos expertos plantean dudas y reparos respecto de las mejoras, ya que no se sabe exactamente cuanto más conocimiento hay en los ejemplos nuevos, podría no haber nada muy nuevo y solo aumentar el nivel de ruido. 

Algunos de sus problemas

Hoy, al usar esta tecnología nos encontramos con algunas cosas que llaman la atención, si bien, a primera vista por los resultados algunas respuestas son muy impresionantes, vemos algunas cosas que requieren de refinamiento, les dejo algunos ejemplos que son de mi cosecha: el primero de ellos es respecto de áreas del conocimiento que maneja ChatGPT y en el segundo la consulta se centra en los Derechos Digitales en la Constituciones.

primer ejemplo de inconsistencia de ChatGPT

segundo ejemplo de inconsistencia de ChatGPT

De seguro algunos de estos errores será corregidos en futuras versiones

Impactos de ChatGPT

ChatGPT, aún no es confiable, aún no comprende el mundo físico, aún no comprende el mundo psicológico y aún alucina.

Gary Marcus

Lo que está claro es que esta tecnología no ha dejado indiferente a nadie, y hay bastante planteamientos desde la vereda del tecno-pesimismo como del tecno-optimismo, incluso algunos como Gary Marcus de la ACM plantea que nos encontramos en el Parque Jurásico de la IA.

Hoy en día hay fuertes cuestionamientos y discusiones del impacto específico en diversas área, veamos algunas de ellas.

Educación

Algunos plantean que el uso por parte de estudiantes va a poner en tela de juicio los trabajos y tareas.  Con algunas de estas discusiones, me hizo recordar mis conversaciones con profesores respecto del uso de la web a mediados de los 2000 y su impacto en la educación, probablemente el ejemplo emblemático en nuestra país era el uso del sitio “El Rincón del Vago” (repositorio de resúmenes de libros), en ese entonces habían dos aproximaciones, las del ¿qué vamos a hacer? hasta ¿cómo podemos integrar el Rincón del Vago al proceso educativo?

Los ensayos enviados a los estudiantes están muriendo, nadie está preparado respecto de como la IA está modificando la educación.

Stephen Marche

Hoy los profesores y sistemas educativos plantean que van a tener que cambiar sus métodos (tareas, trabajos de investigación, evaluación, etc.), ya hay universidades que están evaluando sus prácticas académicas, así como sus normas de conducta, partiendo por la definición de plagio que tienen. Algunos incluso tomando medidas bastante inútiles como prohibir el acceso a estas tecnologías como lo hicieron en las escuelas en la ciudad de Nueva York, se llega a plantear que el ChatGPT va a matar los ensayos que profesores les solicitan a sus alumnos (The College Essay Is Dead).

Medios de comunicación han realizado evaluaciones y comparaciones, entre métodos tradicionales y ChatGPT, como lo muestra este video de Wall Street Journal.

Otro de los desafíos identificados en el área de la educación e investigación dicen relación con las citas. Con ChatGPT vamos a ver un nuevo fenómeno, que es gente citando referencias que no existen. Es fácil hacer que ChatGPT entregue algunas referencias plausibles pero que son incorrectas. Incluso hoy se está dando la discusión de si ChatGPT puede ser citado como autor en la producción científica.

Espero que la reflexión vaya en otra dirección, por ejemplo de que forma se pueden trabajar en conjunto con ChatGPT como lo plantea este artículo del NYT, “No prohíbas el ChatGPT en las escuelas. Enseña con él”, o modificando las formas de evaluación por ejemplo volviendo a métodos orales, dado que estas tecnologías ya están aquí y vamos a tener que convirtió con ellas.

Prerequisitos de ejercicio de la profesión (medicina, derecho)

Se han realizado algunas pruebas con ChatGPT en examinaciones prerequisitos en algunas áreas, como son Medicina y Derecho, con buenos resultados. En el caso de medicina se realizó un prueba con la examinación para obtener la licencia médica en Estados Unidos (United States Medical Licensing Exam – USMLE), que consta de tres exámenes. ChatGPT alcanzó o se acercó al umbral de aprobados en los tres exámenes sin ningún tipo de entrenamiento o refuerzo especializado. En el caso de derecho también se han realizado pruebas con el proceso de examinación del barra.

Marketing

Como no todo puede ser impactos negativos, he escuchado argumentos respecto de su potencial como herramientas muy poderosas para generar contenidos de marketing digital, responder preguntas frecuentes de clientes y promocionar productos, utilizando una menor cantidad de recursos.

Discusión Pública

Otro ámbito en el cual el ChatGPT y herramientas similares van a tener un impacto muy relevante es, en el debate público, por ejemplo cuando se discuten políticas públicas (consultas ciudadanas), lobby y otros mecanismos.  Ya que estas herramientas pueden generar contenidos en forma automática a gran velocidad e influir en el proceso de debate de cualquier política pública (leyes, normas, etc.).

Entonces, si bien es imposible predecir como será el cabildeo apoyado con IA, probablemente hará que los que ya son influyentes y poderosos lo sean aún más.

Nathan Sanders – Bruce Schneider

 Algunos van aún más lejos, Nathan Sanders Bruce Schneider, ambos de Harvard, plantean que existen un gran riesgo que el “ChatGPT pueda secuestrar nuestra democracia”

Nuestras normas respecto del cabildeo (lobby) se encuentra modelado en base a que esa actividad la hacen personas con nombre y apellido, pero cuando el lobby lo hace un software, lo más seguro es que nuestra normativas queden totalmente obsoletas. 

Desinformación 

Otro ámbito preocupante, es que estas herramientas van a permitir generar contenidos (redes de sitios web) con contenidos generados automáticamente, que pueden transformarse en herramientas muy potentes para la desinformación y la generación de fake news.  Recordemos que en estos procesos es más relevante el volumen que la confiabilidad de la información, como lo plantean algunos lo importante es crear una niebla de desinformación. No importa si los “grandes modelos lingüísticos” son incoherentes, si pueden aumentar enormemente el volumen. Y está claro que eso es exactamente lo que hacen posible esos modelos. 

El surgimiento de estas herramientas tecnológicas, nos plantean una serie de interrogantes respecto de nuestras prácticas (políticas, educativas, laborales, etc.), marcos normativos y procesos de generación de contenidos.

¿Dónde se encuentra usted, más en el lado tecno-optimista o tecno-pesimista?

Imagen de portada: https://smithhousedesign.com/models-predicting-future-gartners-hype-cycle/

La entrada ChatGPT, ¿qué tanto de hype? se publicó primero en El Escritorio de Alejandro Barros.



Fuente: Alejandro Barros (ChatGPT, ¿qué tanto de hype?).