Si has pasado tiempo haciendo consultas a los modelos de lenguaje de gran tamaño, probablemente habrás notado que tienen una voz muy específica.
Les encanta la palabra complejidad. Están obsesionados con cualquier cosa que brille.
Y los personajes hablan constantemente con una voz apenas algo más alta que un susurro.
Este fenómeno se llama slop.
«Slop» es la frase repetitiva y estadísticamente sobrerrepresentada que hace que el texto generado por IA parezca obvio.
Acabamos de terminar una demostración que muestra un nuevo flujo de trabajo de técnica de inferencia diseñado para acabar con el «slop» y obligar al modelo a ser creativo.
Este es el flujo de trabajo que hemos creado:
Cómo funciona (el «ingrediente secreto»)
Si simplemente prohíbes la palabra manzana, el modelo se rompe cuando pides una receta de pastel de frutas.
El Antislop Sampler adopta un enfoque diferente. A medida que el modelo genera tókenes, el muestreador observa miles de clichés sobreutilizados identificados a través del análisis forense de miles de millones de tókenes.
Cuando el modelo intenta generar un cliché como «una profunda sensación de...» o «calles llenas de neón», el muestreador hace una pausa, rebobina la generación hasta el inicio de esa frase, reduce la probabilidad del cliché y obliga al modelo a encontrar una forma más original de expresar la idea.
También admite la prohibición ligera, lo que significa que si el contexto requiere absolutamente la palabra, la permite, pero, por lo demás, impulsa la variedad.
Los resultados
La diferencia es como la noche y el día.
¿Quieres verlo en acción?
Echa un vistazo al entorno de demostración completo y comprueba cómo el Antislop Sampler transforma el texto predecible de la IA en algo genuinamente creativo, todo ello en BUZZ HPC.