Menu
Libération
TRIBUNE

Les ratés numérisés du budget français

Pourquoi des promesses d’allégement fiscal deviennent-elles matraquage ? Quand les logiciels gèrent les deniers de l’Etat, la décision échappe aux politiques.
publié le 21 décembre 2015 à 19h31

Sans que personne ne l'ait vraiment remarqué, les députés ont achevé le débat budgétaire et voté, le 17 décembre, le cadre financier de l'action de l'Etat pour 2016. Les amis de la justice sociale y ont engrangé quatre grands succès : le rejet de la «taxe tampon» (le passage de la TVA de 5,5 à 22% pour les produits d'hygiène féminine), l'amendement Ayrault-Muet sur la baisse de CSG pour les revenus modestes, une décote qui devrait réduire les impôts de 3 millions de contribuables et l'abandon de dispositions fiscales frappant certains veufs et veuves. Cet épisode a même conduit le ministre du Budget à appeler à ne pas régler un impôt mal conçu et que le gouvernement allait supprimer. Une mésaventure identique est arrivée, en 2013, lorsque Jean-Marc Ayrault est monté à la tribune du Parlement pour déclarer que les mesures de justice fiscale prises par son gouvernement pour «redresser le pays» allaient permettre la baisse des impôts de 80% des Français. Las ! Quelques mois plus tard, une majorité de Français constatait que leur impôt avait augmenté. Et un Premier ministre plus tard, le gouvernement annonçait que les contribuables pénalisés allaient recevoir une somme forfaitaire pour atténuer un «matraquage fiscal» que nul n'avait semble-t-il prévu. Les deux anecdotes posent une question : comment se fait-il que des gouvernants prennent une décision (dont il y a tout lieu de penser qu'elle a été mûrement évaluée) qui, lorsqu'elle est appliquée, produit un effet contraire à celui que, pleins de certitude, ils avaient publiquement annoncé ? Sont-ils stupides, menteurs ou incompétents ? Une autre hypothèse existe : l'écart entre l'annonce et la concrétisation d'une disposition naît de ce que les systèmes d'information qui guident la décision politique n'ont aucune prise sur la réalité que celle-ci est censée modifier. D'où naît ce paradoxe ?

Depuis une vingtaine d’années, logiciels et progiciels de gestion publique ont été installés à grands frais dans les administrations par des firmes internationales privées qui se sont spécialisées dans la promotion d’une statistique prescriptive et prédictive dans laquelle le chiffre cesse d’être un instrument de savoir et de délibération pour devenir la source même des règles qui définissent le contenu des politiques publiques. En France, ce mode de quantification s’est institutionnalisé en 2006 avec la LOLF (loi organique relative aux lois de finances). Depuis dix ans, le budget de l’Etat se distribue en «missions» soumises à la mesure du degré de réalisation d’objectifs chiffrés à l’aide d’«indicateurs de performance». Et ainsi s’est imposé un modèle d’exercice du pouvoir : «gouverner au résultat», fondé ce qu’on peut appeler la «numérisation du politique». Ce modèle repose sur deux piliers : l’extension de la quantification au moindre élément de la «chaîne de production» d’une politique publique et l’«interopérabilité» des systèmes d’information. Ce qui requiert de standardiser et d’homogénéiser le recueil des données administratives afin de pouvoir traiter trois séries de chiffres : ceux relatifs à l’activité globale (performance), aux dépenses qu’elle engendre (coût par unité) et aux personnes qui la réalisent (productivité individuelle). C’est le croisement de ces données (mécaniquement effectué par des algorithmes) qui fournit aux gouvernants les moyens de rendre la dépense «efficace», au sens où chaque «produit» (de santé, d’éducation, de justice, de recherche, etc.) serait offert au meilleur rapport qualité/prix et où son rapport coût/avantage serait «objectivement» calculé pour savoir s’il faut y renoncer ou pas.

La numérisation engendre une sorte de cécité. C'est que la production de chiffres censés assurer le contrôle de la dépense publique alimente une croyance dans des «réalités informationnelles», c'est-à-dire d'entités statistiques construites de bric et de broc par des algorithmes qui s'avèrent incapables d'anticiper les conséquences en cascade que le croisement des données entraîne.

Or, la fixation sur la réalisation des objectifs quantifiés déduits de ces «réalités» conduit à oublier les questions relatives à leur validité et leur pertinence. C'est cet oubli qui explique bon nombre des avanies que subissent les gouvernants lorsque leurs décisions n'ont pas les effets que la prévision prédisait - et leur décision d'ignorer les calculs des experts et de prendre des décisions «à la louche» comme un rabais forfaitaire ou une décote. Ces accidents de la numérisation (et il en est chaque jour quantité d'autres qui ne font pas les titres des journaux) ne renvoient pas à l'opposition entre une technostructure qui n'en fait qu'à sa tête et un gouvernement qui ne peut la réduire. Ils dévoilent l'étendue de l'emprise que la quantification a aujourd'hui sur la décision politique. Et il n'est pas interdit de penser que l'écart entre le monde des «réalités informationnelles» des gouvernants et la vie vécue des citoyens contribue à creuser l'abîme qui les sépare aujourd'hui.