Perplexity er et mål, der anvendes inden for sprogteknologi og maskinlæring til at evaluere, hvor godt en sprogmodel forudsiger tekst. Det kvantificerer modellens usikkerhed: jo lavere perplexity, desto bedre evne har modellen til at forudsige de næste ord i en sekvens.
Teknisk beregnes perplexity typisk som den eksponentielle værdi af den gennemsnitlige negative log-likelihood af forudsagte ord i et datasæt. Det bruges til at sammenligne forskellige modeller eller til at vurdere træningsfremskridt, hvor en lavere perplexity indikerer bedre præcision og mere konsistent tekstgenerering.
Perplexity anvendes bredt i udviklingen af sprogmodeller, herunder AI-chatbots, tekstgeneratorer og andre NLP-systemer, som et objektivt mål for modellens effektivitet.