Pendant des années, DeepSeek a entraîné ses modèles de langage à imiter le raisonnement humain. En leur donnant des exemples, des démonstrations pas-à-pas, des "chaines de pensée" soigneusement annotées, cette approche qui fonctionnait... jusqu'à un certain point.Mais voici le paradoxe : en contraignant l'IA à penser comme nous, sa capacité à penser mieux que nous est limité. C'est le défi qu'a relevé l'équipe DeepSeek avec leur modèle R1 - et la solution est aussi élégante que contre-intuitive.