Dicen los expertos que los resultados pre-Google y los de ChatGPT son parecidos. Pero esto no es precisamente un elogio —al menos no en su totalidad—. El chatbot impulsado por inteligencia artificial de OpenAI está en una fase temprana y probablemente estamos presenciando solo un ápice de lo que esta tecnología puede llegar a hacer y la revolución en la que puede convertirse.
Y precisamente esa es la palabra clave: revolución. Algunos consideran aquel proto Google que mencionábamos como la anterior gran revolución tecnológica y creen que la IA generativa será la siguiente. Desde luego, la sensación de que se trata de algo ‘mágico’ es muy similar.
Sin embargo, como en todo cambio de grandes magnitudes, los inicios son convulsos. Se funciona a base de prueba y error. Son esos errores lo que más se está destacando de ChatGPT: búsquedas que dan fallos, datos incorrectos. ¿Te suena de algo?
¿Cuál es el fallo en ChatGPT?
El problema de fondo es que, por el momento, ChatGPT ‘se fía’ de cualquier fuente, es decir, para generar su respuesta hace caso a toda la información publicada en Internet, se haya o no verificado. Ahí vienen las complicaciones, porque, en resumidas cuentas, lo que hace la herramienta es asumir como verdad cada dato que encuentra en la red. Y ya sabemos que esto no.
Esto ocurre así porque entrenar un modelo de inteligencia artificial como ChatGPT es extremadamente caro. Necesita tener y procesar enormes cantidades de datos para establecer patrones y, a raíz de esto, generar resultados. Para crear su IA generativa de textos, OpenAI hizo que sus sistemas estudiaran innumerables contenidos de Internet, desde estudios académicos hasta comentarios en foros y redes sociales.
Así es como ChatGPT aprendió cómo se expresan los humanos cuando escriben y por eso es capaz de ‘replicarlo’. Pero obviamente esta tecnología está aún inmadura y podemos manipular la herramienta, como se ha demostrado en varias ocasiones.
El uso de las redes sociales o de todo tipo de comentarios en páginas web de periódicos —y no periódicos— para entrenar este tipo de chatbots es uno de los motivos por los que todavía es poco fiable. Porque sí: para evitar que los sistemas muestren la parte más tóxica de Internet en su interacción con sus usuarios, sus desarrolladores han configurado filtros para que la IA modere su discurso, pero en su base de datos está grabado a fuego lo más rastrero y cruel de la red.
“Estos modelos se entrenaron con grandes cantidades de datos de Internet escritos por humanos, incluidas conversaciones”, explica OpenAI: “Es importante tener en cuenta que esto es un resultado directo del diseño del sistema (es decir, maximizar la similitud entre los resultados y el conjunto de datos con el que se entrenaron los modelos) y que dichos resultados pueden ser inexactos, falsos o engañosos en ocasiones”.
Es decir: que por muy sofisticado y avanzado que sea su algoritmo, el método de entrenamiento ha sido un poco ‘a lo bruto’, así que a pesar de los muchos filtros que pueda tener, tapar toda esa avalancha es bastante complicado.
Los inicios de Internet
Cualquiera que tenga algo de memoria —y que haya nacido en el siglo pasado— podrá recordar que la situación con ChatGPT es muy similar a lo que pasaba en el año 2000, en los albores de la Era de Internet. Cuando hacías una consulta en Yahoo —sí, Yahoo… aunque parezca irreal, entonces era el buscador más utilizado— y te respondía con decenas de enlaces, sentías que aquello se había logrado por arte de magia.
Pero, claro, era una magia sin depurar. Porque te incluía cualquier resultado que contuviese las palabras que habías buscado, estuviera o no relacionado con lo que querías encontrar. Porque te arrojaba cualquier información mínimamente similar, fuera o no verídica —el fact checking entonces ni se sabía lo que era—.
Como señala el ingeniero de Telecomunicaciones y editor jefe de MultiVersial, “Google solucionó esa situación construyendo un algoritmo parar establecer un ranking entre las páginas web. Así nace la autoridad de la web. Simplificando: The New York Times tiene una autoridad de 94 sobre 100, mientras que tu página web al crearse tiene un 1 sobre 100”.
Buscadores como Neeva tienen la autoridad en cuenta, pero todavía como un ‘filtro’ a posteriori, no está implementado dentro del algoritmo la inteligencia artificial. Eso sí: te informan de la fuente de la que han obtenido cada frase de la respuesta.
El cofundador de OpenAI admite que cometiero «un error» en respuesta a las críticas de Musk a ChatGPT
En una entrevista con The Information, el cofundador y presidente de OpenAI, Greg Brockman, admitió que la startup “cometió un error”, en respuesta a las críticas de Elon Musk.
El magnate reprochaba a la compañía de inteligencia artificial que no se han implementado medidas de seguridad que eviten que el chatbot produzca respuestas que podrían considerarse ofensivas y con sesgos políticos.
En los inicios de la herramienta, circularon por Twitter capturas de pantalla de una conversación de ChatGPT que mostraban que el chatbot se negaba a generar un poema positivo sobre Donald Trump, afirmando que no estaba programado para crear contenido “partidario, sesgado o político”. Pero cuando recibió la misma petición para Joe Biden, escribió un poema brillante. Musk calificó esto como “una preocupación seria”.
“Creo que no fuimos lo suficientemente rápidos para abordar eso. Y creo que esa es una crítica legítima hacia nosotros”, respondía Brockman. “Nuestro objetivo no es tener una IA que esté sesgada en una dirección particular. Queremos que la personalidad predeterminada de OpenAI sea una que trate a todos los lados por igual”, añadía en la entrevista
Musk había criticado previamente la tecnología, diciendo que el “peligro” de entrenar a la IA para que ‘se despierte’, en otras palabras, mienta, es “mortal”. No se debe perder de vista el hecho de que Musk fue también cofundador de OpenAI —aunque desde que se separó de la startup rompió todo tipo de lazos—.
¿Cuáles van a ser los siguientes pasos?
Dicho todo esto, parece lógico que lo que ahora toca a los que están moviendo los hilos detrás de la IA generativa sea introducir autoridad en la construcción de las respuestas.
Precisamente al respecto de los sesgos y del alcance de los errores de ChatGPT os contábamos este mismo miércoles que un grupo de tecnólogos —entre ellos, Musk— ha emitido un comunicado pidiendo que se le dé al botón de pausa en esta vorágine en torno a la IA generativa.
El magnate y otros empresarios tech quieren que durante seis meses se paralice el entrenamiento de sistemas de IA potentes como GPT-4 —la tecnología detrás de ChatGPT—. Más de 1.100 personas del sector han firmado una carta abierta con esta petición. Entre los firmantes, además de Musk, también se encontraban otros nombres conocidos, como Steve Wozniak, Stuart Russell y Yoshua Bengio.
En el mes transcurrido desde que Microsoft lanzó su chatbot Bing impulsado por la IA de GPT-4, el gigante tecnológico ha establecido límites de conversación en la herramienta, limitando a los usuarios a 50 preguntas por día y cinco preguntas por sesión.
Probablemente, el éxito de los chatbots conversacionales se consolide, por lo que encontraremos este tipo de recurso en muchas herramientas digitales. Lo que está por ver es si los gigantes tecnológicos pueden —y están dispuestos a— conseguir que el método de entrenamiento sea diferente para generar modelos menos sesgados y más precisos.
Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.