La France se droitise-t-elle ?

On entend un peu partout que la France serait « de droite » et donc que son gouvernement devrait l’être aussi. Mais la réalité est bien plus complexe et subtile.