“Te están mintiendo”: por qué los modelos de lenguaje alucinan tan seguros de sí mismos
El paper “Why Language Models Hallucinate” de Kalai, Nachum, Vempala y Zhang propone una explicación bastante incómoda: los modelos de lenguaje no alucinan porque estén “rotos”, sino porque los entrenamos y evaluamos de una forma que premia adivinar con seguridad antes que decir “no sé” (IDK, una forma explícita de…











