Cela peut faciliter la location dans un contexte de pénurie.
En outre, tous ces coefficients sont conventionnels, donc discutables.
Le gouvernement reconnaît, dans la fiche d’impact de son projet de décret, que l’abaissement du coefficient d’énergie primaire de l’électricité réduira l’incitation à rénover certains logements, notamment ceux chauffés à l’électricité. Cette réforme ferait sortir artificiellement 850 000 logements des classes F et G du DPE, ce qui permettrait aux bailleurs de reprendre l’indexation des loyers et d’augmenter les loyers à la relocation. L’association négaWatt dénonce un effet pervers : une diminution de la pression réglementaire à rénover et un risque de hausse de loyer pour les occupants.
Dans un marché immobilier tendu, marqué par une offre insuffisante de logements disponibles à la location, notamment dans les zones urbaines et tendues, toute mesure susceptible de réintégrer des biens dans le parc locatif actif peut sembler, de prime abord, bénéfique.
C’est dans ce contexte que s’inscrit la réforme du coefficient d’énergie primaire (CEP) appliqué à l’électricité dans le calcul du diagnostic de performance énergétique (DPE).
En abaissant ce coefficient, le gouvernement espère faire sortir artificiellement des centaines de milliers de logements du statut de « passoires thermiques » (classes F et G), permettant ainsi à leurs propriétaires de les remettre sur le marché sans être soumis aux restrictions légales sur la location (gel des loyers, interdiction de mise en location à terme, etc.).
Cela peut, en effet, faciliter la location dans un contexte de pénurie, en desserrant temporairement l’étau réglementaire.
Mais cette facilité apparente soulève une question plus fondamentale : sur quelle base repose-t-elle ?
Car tous les paramètres techniques utilisés pour évaluer la performance énergétique d’un logement — qu’il s’agisse du coefficient de conversion de l’électricité, des scénarios climatiques, ou des usages standardisés — relèvent de conventions, c’est-à-dire de choix méthodologiques, arbitraires à un certain degré, susceptibles d’évoluer selon les priorités politiques du moment.
Ces coefficients conventionnels sont donc par nature discutables.
Ils traduisent une vision normée de la réalité énergétique, qui ne coïncide pas nécessairement avec les usages réels, ni avec les impératifs climatiques.
Par exemple, abaisser artificiellement le coefficient de conversion de l’électricité revient à survaloriser son efficacité énergétique, sans que cela reflète nécessairement une amélioration concrète de l’isolation ou des équipements des logements concernés.
Ce glissement méthodologique peut affaiblir l’efficacité des politiques de rénovation énergétique, en réduisant l’incitation économique ou réglementaire à engager des travaux de fond.
En d’autres termes, une amélioration sur le papier ne signifie pas une amélioration dans les faits.
Et à terme, une telle approche risque de décrédibiliser les dispositifs de performance énergétique, en les rendant dépendants de paramètres techniques ajustés selon les circonstances, plutôt que de critères physiques ou objectifs.
Enfin, cette stratégie peut avoir des effets pervers.
Si les logements initialement classés F ou G sont reclassés sans travaux réels, les locataires, eux, n’en tirent aucun bénéfice en termes de confort thermique ou de facture énergétique, mais peuvent subir une hausse de loyer autorisée par la sortie du gel réglementaire.
Le risque est donc double : un relâchement de l’effort de rénovation, et une précarité énergétique maintenue, voire aggravée, pour les occupants.
Le bon exemple pour illustrer les effets parfois trompeurs des conventions énergétiques est sans doute celui de l’électricité.
Pendant des décennies, la contribution du nucléaire au bilan énergétique de la France a été majoritairement évaluée en énergie primaire, c’est-à-dire à partir de la quantité de chaleur produite à la source, dans les réacteurs, sans tenir compte des pertes ni de la réalité de la consommation.
Cette méthode, adoptée pour des raisons historiques et statistiques, privilégie une lecture technique de la production, mais ne reflète pas fidèlement les usages finaux de l’énergie.
Ainsi, dans les années 1990 et 2000, lorsque le nucléaire représentait environ 75 % de la production d’électricité en France, cette part, traduite en énergie primaire, faisait apparaître que le nucléaire pesait pour près de 40 % dans le bilan énergétique global du pays. Cette proportion importante renforçait l’idée — souvent relayée dans le discours politique — que la France était un pays « essentiellement nucléaire » sur le plan énergétique.
Mais cette lecture est biaisée par un choix conventionnel lourd de conséquences : celui d’un rendement théorique fixé à 33 % pour les centrales nucléaires, ce qui signifie que les deux tiers de l’énergie thermique produite sont considérés comme perdus sous forme de chaleur non valorisée (notamment dans les tours aéroréfrigérantes).
Or, dans un cadre d’analyse en énergie finale — c’est-à-dire celle effectivement disponible pour les usages domestiques, tertiaires ou industriels —, la part du nucléaire est bien moindre.
En effet, l’électricité ne représente que 25 % de l’énergie finale consommée en France (le reste étant constitué de carburants, de gaz naturel, de chaleur, etc.).
Et si 75 % de cette électricité est d’origine nucléaire, le calcul simple donne : 0,25 × 0,75 = 0,1875, soit environ 18,75 %, arrondi à 18 % de la consommation énergétique totale en énergie finale.
Autrement dit, le poids réel du nucléaire pour l’usager final est moins de la moitié de celui affiché en énergie primaire.
Cette divergence entre les deux modes de comptabilité énergétique — primaire et finale — a eu des effets non négligeables sur la compréhension des enjeux énergétiques par le grand public, mais aussi sur les politiques publiques elles-mêmes.
Elle fut d’ailleurs au centre d’une joute politique célèbre : le débat télévisé entre Jacques Chirac et François Mitterrand lors de la campagne présidentielle de 1981.
À cette occasion, Jacques Chirac se référait au poids du nucléaire en énergie primaire, brandissant l’argument d’une autosuffisance électrique et énergétique ; François Mitterrand lui répondait en énergie finale, soulignant que la réalité, pour les Français, était tout autre.
Résultat : un échange confus, deux langages techniques inconciliables, et une incompréhension généralisée chez les téléspectateurs.
Ce malentendu emblématique illustre parfaitement le pouvoir politique des conventions statistiques : en fonction du choix du référentiel (primaire ou finale), la perception du mix énergétique, des priorités d’investissement ou du poids du nucléaire peut radicalement changer.
Cela souligne la nécessité d’une pédagogie rigoureuse dans les débats publics et d’une transparence méthodologique dans les documents de planification énergétique.
KeyWoRDS :
- Trading court terme (électricité, gaz, CO₂)
- Analyse de marché & prévisions (spot, interconnexions, capacités)
- Statistiques appliquées à la modélisation des besoins physiques
- Optimisation opérationnelle & gestion du portefeuille
- Gestion active de la courbe de charge (valorisation de la flexibilité)
- Négociation de contrats d’achat long terme
- Back-office trading (confirmation, P&L, capture des deals)
- Expertise multi-énergies (gaz, pétrole, électricité)
- Arbitrage du risque prix dans des contextes de forte volatilité
- Opérations d’achat et de vente sur les marchés de gros français et allemands
- Analyse des fondamentaux du marché (production, interconnexions, CO₂)
- Modélisation statistique des besoins physiques
- Étude et optimisation des grilles tarifaires (transport/acheminement)
Finis rerum.
Direction des Études Économiques.
Copyright © 2025 SYNERGYGROUP. All rights reserved.
Par Alexis Vessat, docteur en économie de l’énergie, expert en systèmes énergétiques européens.