Por: Dr. Jorge Alberto Hidalgo Toledo,
Human & Nonhuman Communication Lab,
Facultad de Comunicación,
Universidad Anáhuac México
Los modelos de lenguaje han sido diseñados para comunicarse con naturalidad, pero ¿por qué tienden a ser tan verborrágicos? La frustración con la "charlatanería" de los chatbots ha crecido, con usuarios que sienten que sus respuestas son largas, evasivas o redundantes. La cuestión es si esta tendencia es un error del diseño o una consecuencia inevitable de su entrenamiento en lenguaje humano.
La Verbosidad como un Mecanismo de Compensación
Investigaciones recientes han identificado un fenómeno llamado “compensación por verbosidad”, donde los LLMs (Large Language Models) tienden a hablar más cuando no están seguros de una respuesta. Este comportamiento se asemeja al de un humano que, al dudar, llena los silencios con explicaciones innecesarias o redundantes.
- Cuando la IA tiene baja confianza en una respuesta, tiende a extenderse para dar la ilusión de certeza.
- El sesgo en el entrenamiento favorece respuestas largas, ya que los modelos han sido expuestos a estructuras argumentativas detalladas.
- Falta de retención de información: algunos modelos olvidan lo que se ha discutido previamente, repitiendo preguntas o puntos ya explicados.
¿Se Puede Corregir la Verbosidad de la IA?
Algunas empresas han empezado a abordar este problema con ajustes en el entrenamiento. Modelos como DeepSeek han priorizado respuestas más concisas, mientras que Claude (de Anthropic) ofrece una mayor capacidad de autoevaluación para reducir el "relleno".
Más Brevedad, Mejor Precisión
La solución parece estar en encontrar un balance entre claridad y eficiencia. Para los usuarios, esto podría significar modelos que se adapten a preferencias de comunicación personalizadas, permitiendo ajustar el nivel de detalle en función de la tarea.
¿Debe la IA aprender a ser más concisa, o somos nosotros quienes debemos mejorar nuestras preguntas?
0 Comments