Estás en Telenord Medios

Puedes continuar navegando en esta versión o visitar nuestra web de Servicios.

Skip to main content

¿Por qué los textos que genera ChatGPT son tan aburridos? El fallo invisible de la IA

Si alguna vez te has preguntado por qué los textos de ChatGPT o Gemini se sienten genéricos, no eres el único. Cada vez es más común escuchar el concepto de "humanizar" el contenido generado por IA, el cual consiste en devolverle las características que hacen único a un texto redactado por una persona. ¿Por qué ocurre esto? ¿Es algo que OpenAI o Google pasaron por alto al entrenar sus modelos?

La falta de creatividad no es una percepción subjetiva, sino una consecuencia directa de la arquitectura de los modelos de lenguaje. Los sistemas actuales no están diseñados para la innovación lingüística, sino para la maximización de la probabilidad estadística. Esto se traduce en la eliminación de frases o estructuras complejas para favorecer aquellas que generan menor fricción lingüística.

Este fenómeno tiene su origen en el greedy decoding (o decodificación voraz), una estrategia que utilizan los modelos de lenguaje para generar texto. Cuando se produce una respuesta, el modelo evalúa la probabilidad de cada token (palabra o subpalabra) siguiente. Y si bien existen parámetros para introducir variabilidad, la tendencia es seleccionar secuencias que minimicen la perplejidad.

Manos de robot de IA escribiendo en un teclado

Manos de robot de IA escribiendo en un teclado
En términos prácticos, cuando le pides a ChatGPT que escriba el capítulo de una novela, recibirás un texto plano y sin las características que definen al autor. El algoritmo siempre favorece el camino de menor resistencia léxica, descartando términos precisos pero de baja frecuencia, que son los que aportan riqueza y matiz a un texto humano.

Otro agravante es el entrenamiento mediante aprendizaje por refuerzo a partir de la retroalimentación humana. Durante esta fase, los evaluadores humanos tienden a puntuar mejor los textos que son "claros", "seguros" y "educados". El modelo aprende que el uso de vocabulario especializado o ironía representa un riesgo lingüístico y lo penaliza, optando por un producto optimizado para el consenso.

La arquitectura de la mediocridad estadística
En un texto humano, la diversidad de vocabulario es alta; en uno de IA, el sistema recurre a un subconjunto limitado de palabras con alta probabilidad de aparición en el conjunto de datos de entrenamiento. Esta reducción convierte cualquier argumento, por complejo que sea, en una sucesión de lugares comunes y conectores predecibles que el cerebro humano identifica rápidamente como un patrón carente de valor informativo real.

Claudio Nastruzzi, profesor de la Universidad de Ferrara, define este comportamiento como "ablación semántica". La degradación del contenido se ejecuta a través de tres mecanismos de filtrado: neutralización de la fricción cognitiva, dilución de la precisión léxica y por último, la imposición de una plantilla de baja entropía.

Hojas de libros

Hojas de libros
Foto: Patrick Tomasso (Unsplash)
Los modelos están optimizados para la legibilidad, lo que implica que cualquier estructura gramatical no lineal o razonamiento que requiera un esfuerzo adicional de procesamiento es simplificado. Esto provoca que el texto se deslice por la mente del lector sin dejar rastro y provoque aburrimiento.

Cuando un experto escribe, utiliza términos que los modelos de lenguaje identifican como de baja probabilidad. Estos términos suelen contar con sinónimos comunes, por lo que la IA lleva a cabo una sustitución estadística. ChatGPT o Gemini preferirán una palabra general con una probabilidad de aparición del 0.8 frente a un término técnico exacto con una probabilidad de 0.02, lo que diluye la gravedad del argumento.

Por último, los modelos tienden a organizar la información en párrafos de longitud similar, con introducciones y conclusiones estandarizadas. El subtexto o la ambigüedad deliberada desaparecen, dejando una representación plana que sigue el rastro de los datos más comunes de internet.

Robot de inteligencia artificial

Robot de inteligencia artificial
¿Se puede hacer algo para que la IA sea más "humana" al escribir?
Aunque técnicamente es posible corregir el rumbo, eliminar estas características entraría en conflicto con los objetivos de la industria. El problema de los textos aburridos no es una limitación de hardware, sino una decisión de diseño en el entrenamiento de los modelos. Las empresas prefieren la seguridad y la generalización sobre la diversidad léxica.

Una solución podría ser implementar penalizaciones por repetición semántica. En lugar de predecir la palabra más probable, el modelo podría entrenarse con una función que incentive la exploración y proteja los términos de baja frecuencia (palabras raras). Otro camino es filtrar los conjuntos de datos para priorizar las fuentes con alta densidad informativa, o incluso ajustar el nivel de "creatividad".

El problema es que llevar a cabo ajustes para que el texto deje de ser aburrido aumenta el riesgo de alucinación. Si ChatGPT o Gemini reciben permiso para usar palabras raras o estructuras complejas, el modelo será más difícil de controlar y más propenso a generar errores.

Es por ello que OpenAI, Anthropic, Google y el resto de la industria preferirán un futuro genérico antes de arriesgarse a cometer un error que acabe con sus sueños de dominar la carrera de la IA.