MMLU-Pro est un nouveau benchmark d’évaluation des modèles de langage , conçu pour mesurer leurs compétences en compréhension, raisonnement et résolution de problèmes dans des contextes complexes. Il s’agit d’une version améliorée du benchmark MMLU (Massive Multitask Language Understanding) , largement utilisé pour évaluer les performances des grands modèles de langage.