Le Peak-Oil « tout liquide” est-il passé?

La chute de la demande de pétrole du fait des conséquences de Covid-19 a masqué un évènement important:  le pic de production de pétrole a été atteint plus d’un an avant la pandémie Plus précisément, le maximum de production de pétrole liquide (crude + condensate dans le jargon pétrolier) a été atteint en novembre 2018.

Voici la courbe, construite à partir des données de l’IAE:

Source du diagramme:  : http://peakoilbarrel.com/  
Source primaire:  International Energy Statistics. Petroleum and other liquids. Data Options.

Les causes sont avant tout géologiques: le pic de production du pétrole conventionnel a eu lieu en 2008, et de plus de pays avaient leur production qui baissait depuis:


Quand aux USA, la production aux USA commençait à se tasser depuis quelques années, dans tous les bassins sauf le Permien:


Depuis plusieurs années, des analystes estimaient que le pic de production aurait lieu avant 2030. Voici par exemple les estimations de l’AIE dans son rapport de 2019 , selon les hypothèses « stated based policy » (diagramme  construit par l’APSO):

 On trouve ce même genre d’analyse dans un rapport publié en 2019 par le « Geological Survey of Finland« . Lire aussi mon article de l’an dernier pour d’autres sources. 

Ces données ont été largement reprises par les journaux américains comme le WSJ ou Bloomberg, qui parlent depuis plusieurs années de « supply crunch »  (effondrement de la production).  En France, des chercheurs de l’Institut Français du Pétrole avaient fait une analyse similaire en 2019 intitulée “Is the oil industry able to support a world that consumes 105 million barrels of oil per day in 2025?”  . Des Think Tanks font aussi la même analyse – voir par exemple  Matthieu Auzanneau du Shift Project (qui a eu accès récemment à des données de production de société d’intelligence économique spécialisée, confirmant ses analyses).

Covid-19 est un accélérateur.  D’une part, il a conduit à une baisse de la demande, qui devrait rester plus faible qu’en 2019 pendant 2 à 3 ans.  D’autre part, il a eu un impact sur les capacités des productions, dont certaines se dégradent si elles ne produisent pas assez . Enfin, il a encore plus fragilisé les producteurs de pétrole, en particulier ceux aux USA.  La plupart n’avaient jamais dégagé de cash-flow, et elles auront de plus en plus de mal à trouver des financements. 

Avec la plupart des pays ayant atteint leurs pics de production, on ne voit pas où sont les réserves de pétrole qui seraient exploitables dans les 20 ans à venir pour relancer fortement la production.  Et ce, d’autant plus que les conséquences de la baisse des EROI vont rendre les investissements de moins en moins rentables, financièrement et énergétiquement.

Certes, il y a des reserves importantes en Iraq et en Libye, mais ces pays ne pourront pas augmenter rapidement la production dans les prochaines années, compte tenue de la situation politique. L’Arabie Saoudite doit encore avoir quelques capacités de production de reserve, mais pas tant que ça. La Russie a dit que leur pic de production serait en 2021. Les Etats Unis peuvent sans doute continuer à faire tourner la planche à biller pour financer l’extraction non rentable de leur pétrole, mais c’est probablement les seuls à pourvoir faire ça, et arrivera un moment où ça ne suffira pas.

Pendant ce temps, on continue d’extraire, beaucoup

Il est donc très probable que la relance économique suite au Covid-19 butera assez rapidement sur une crise pétrolière. Pour peu qu’elle soit sévère, ce pourrait être une bonne nouvelle pour le climat.

Covid – La dernière chance

-6% à -8% ! Telle pourrait être la baisse des émissions de CO2 dans le monde en 2020. Du jamais vu ! Ce que 40 ans de conférences internationales sur le climat n’ont pas réussi à faire, un minuscule virus l’a fait.

Jusqu’ici, les nouvelles étaient mauvaises. Les scientifiques sont de plus en plus alarmistes concernant les conséquences du réchauffement climatique. Leurs modèles et de nouvelles mesures montrent de plus en plus de boucles de rétroaction positive qui accélèrent le réchauffement, et les effets de celui-ci. On sait que des zones où vivent des milliards d’êtres humains vont devenir invivables, ou avoir une production alimentaire très dégradée, ou soumises à des phénomènes météorologiques catastrophiques. C’est en milliards de victimes, disent les scientifiques, que vont se compter chaque degré en plus de réchauffement climatique.

Mais rien ne changeait. Aux États-Unis, au Brésil et dans d’autres pays, les populistes au pouvoir ont abandonné toute protection de l’environnement. Presque partout ailleurs, les dirigeants politiques ont de beaux discours, mais ne font guère mieux. Dans les priorités des gouvernements, le climat passe après la croissance, le pouvoir d’achat, les retraites ou la sortie du nucléaire. Tous espèrent une « croissance verte », où le PIB pourrait augmenter et les émissions de CO2 baisser en même temps. Mais c’est une utopie : depuis 50 ans, pour chaque point de PIB gagné au niveau mondial, il y a eu 0.6% en plus de CO2, et ce ratio ne s’améliore pas.

C’est cette activité économique tant voulue, tant recherchée que le coronavirus chamboule complètement, et durablement. Nous n’allons pas rentrer dans les détails, tant cette histoire est racontée par les médias. Le point important est que les émissions de CO2 baissent parce que l’activité économique baisse aussi, pratiquement en proportion, et ce bien plus que n’ont pu le faire toutes les initiatives telles que les mécanismes de quotas, les accords de Kyoto et autres régulations . Beaucoup de mesures pour réduire les émissions sont récessives, elles freinent l’activité économique, et c’est pour ça que les gouvernements sont aussi frileux que possible pour les appliquer. Mais le coronavirus n’a que faire de nos états d’âme et notre propension à minimiser les risques lointains.

Avec cette épidémie, l’espoir renait que nos petits-enfants puissent vivre sur une planète pas trop ravagée par les conséquences du réchauffement climatique. La condition en effet est que l’augmentation maximum d’ici à 2100 soit inférieure à deux degrés, et, pour cela, il faut que les émissions planétaires baissent de 4% par an. Un Covid supplémentaire tous les 2 ans, et c’est gagné !

Bien sûr, les gouvernements vont essayer, et c’est compréhensible, de tout faire pour relancer la machine économique, arrêter l’hémorragie des emplois, faire rentrer des recettes fiscales pour satisfaire les demandes des populations. De leur côté, les partis « de gauche » et « écologistes » voudront infléchir vers un mode moins carboné, mais peu sont prêts à expliquer aux électeurs que cela passe par une réduction du PIB, donc des retraites, du pouvoir d’achat ou des budgets pour les hôpitaux. Aucun n’est prêt à admettre que, de facto, la « société post-croissance » est une une société en récession.

Mais ces tentatives, qui peuvent fonctionner un moment, seront probablement vaines. D’une part, même si des traitements sont trouvés relativement rapidement (ce qui est loin d’être sûr ), les conséquences de la crise sanitaire seront longues et il y aura tout un tas de réactions en chaîne qui feront se réduire l’activité de nombreux secteurs économiques. D’autre part, et c’est sans doute le plus important, nous touchons des limites physiques de la planète, en particulier concernant le pétrole. Nous avions atteint le pic de production du pétrole conventionnel en 2008, et l’essentiel de l’augmentation depuis était dû au pétrole de schiste américain. Or la production de celui-ci commençait à s’infléchir depuis quelques années, pour des raisons géologiques. En conséquence, le maximum de production de pétrole, tout liquide, a été atteint en novembre 2018. Le coronavirus accélère cette décroissance de la production pétrolière, car en détruisant la demande, il détruit aussi une partie des moyens de production, du fait des faillites, réduction des investissements et dégradation des infrastructures sous-utilisées.

Trump aura beau mettre des milliards, l’industrie pétrolière ne pourra plus atteindre le niveau d’avant-crise, et la production va baisser, inéluctablement. Certes, on aura des rebonds, et les états vont faire tout leur possible pour produire de l’énergie par d’autres moyens – on le voit par exemple actuellement en Chine, qui relance massivement la construction de centrale au charbon. La croissance va repartir, un certain temps, dans certaines zones, mais elle sera bloquée à un moment ou un autre par la contrainte pétrolière – un peu comme cela a eu lieu avec les chocs pétroliers de 1973, 1979 et 2018. Sauf que, cette fois, la géologie limitera nos velléités à ce que le monde continue comme avant. Et il ne faut pas compter sur les énergies renouvelables, le nucléaire ou l’exportation des réserves de l’arctique – les ordres de grandeur n’y sont pas. La décroissance énergétique est inévitable – tout au plus peut-on la limiter et éviter un crash trop brutal.

Certes les conséquences sociales de ces crises dans les prochaines décennies vont probablement être terribles, et pourraient conduire à des régimes autoritaires, des guerres, des millions de réfugiés. Il eût mieux valu que le Monde prenne une autre direction, par exemple après le rapport Meadows sur les limites de la croissance. Il eût été préférable qu’on développe une vision de la prospérité qui ne soit pas basée sur le pouvoir d’achat et la croissance du PIB, qu’on réduise les inégalités dans le monde, qu’on sorte des énergies fossiles avant d’y être forcé. On aurait mieux fait de limiter le libre-échange et la financiarisation de l’économie, et d’intégrer le coût réel des externalités écologiques de nos activités productrices.

Mais on ne l’a pas fait, et il n’est plus temps de changer sans douleur, de trouver des solutions technologiques etc. Pour citer Churchill, « le temps de la procrastination, des demi-mesures, de l’apaisement des craintes, des expédients déconcertants et des délais touche à sa fin. Nous voici à l’aube d’une période de conséquences » . Face au risque croissant d’emballement du climat, ce coronavirus, associé au pic de production de pétrole, va nous contraindre de changer nos modèles économiques et nos modes de vie, et, peut-être, de réussir ce que nous n’avons pas réussi à faire depuis 40 ans : faire baisser fortement les émissions de CO2. Ce pourrait être une chance pour que nos petits-enfants héritent d’une planète vivable. Ce n’est pas rien. Pour paraphraser Hans Jonas, nous sommes obligés « d’agir de façon à ce que les conséquences de nos actions soient compatibles avec la persistance d’une vie humaine sur Terre« . Jonas parlait d’une « vie authentiquement humaine » – c’est à nous de faire qu’il en soit ainsi.

Car cette chance, il faut la mettre à profit. La vie de millions de personnes va être chamboulée par les récessions à venir, avec de fortes montées du chômage et de l’austérité. Mais ça serait arrivé sans Coronavirus. Celui-ci est un accélérateur, bienvenu au regard de l’urgence climatique. Surtout, ces mois de confinements ont profondément changé les esprits, rendant, espérons-le, peut être plus acceptables d’autres politiques concernant les transports, le logement, les loisirs, l’industrialisation – toutes choses qu’on sait indispensable à la lutte contre le réchauffement climatique. Il nous a aussi rappelé au réel, et notre relation à la science a sans doute changé dans le bon sens. Ce faisant, on peut espérer que les thèses complotistes ou populistes ne se développeront pas trop, et que la décroissance, imposée mais comprise et acceptée, sera perçue comme une trajectoire de moindre mal pour éviter la barbarie.

Covid-19 pourrait être une chance, sans doute la dernière. Ne la gâchons pas.

Reférences:

« Y’a-t-il un sens à prédire la Fin du monde ? »

Le journal “La Décroissance” m’a demandé de répondre à « Y’a-t-il un sens à prédire la Fin du monde ? », suite une question d’un lecteur: « Je constate que le chaos annoncé tarde à venir… tous ces discours en ce sens se retrouvent discrédités auprès de ceux qui n’y croient déjà pas ! Et c’est d’autant plus difficile de leur faire prendre conscience de la situation… ça nuit à la cause de la décroissance… merci de votre avis ».

Deux autres contributeurs ont publié leurs vues. Voici ma réponse:

—————————

Depuis des siècles et dans beaucoup de cultures, l’homme parle et prédit la « fin du monde », notamment dans un contexte religieux (eschatologie), Ça a donc du sens pour lui ! Mais force est de constater que, jusqu’ici, les prédictions se sont révélées fausses.

Le dernier avatar est « l’effondrement de la société thermo-industrielle », annoncé d’ici quelques décennies. La force des arguments scientifiques rend plus crédible la prédiction. Toutefois, je pense que les mêmes biais perdurent. J’en vois notamment deux.

Le premier est qu’on a tendance à voir ce qui nous concerne directement. «Le Monde », c’est d’abord notre monde, celui où on vit, où on a des amis, un pays, une culture. Mais celui-ci peut s’effondrer ou disparaître sans pour autant que tous les groupes d’individus sur Terre le soit.

Le second est qu’il est difficile, voire impossible, de prévoir l’évolution d’un système aussi complexe qu’est la société thermo-industrielle. On a tendance à ne considérer que les tendances qui renforcent notre intime conviction, et à minimiser les autres.

Par exemple, je pense que le rôle de la violence est la plupart du temps ignoré. 60 ans de croissance et de paix relative en Occident nous ont fait oublier ce qu’est la guerre. Pourtant, celle-ci, qu’elle soit civile ou entre états, a pour but premier de réduire les risques d’une fin du monde… pour celui qui la gagne. Au vu de l’histoire de l’humanité, il est probable que les hommes vont se battre pour les territoires les moins impactés par le réchauffement climatique ou possédant encore des ressources aquifères, agricoles, minières ou énergétiques. Les guerres vont provoquer des réductions de la population, et une domination accrue pour les perdants, ce qui réduira l’empreinte écologique globale de l’humanité. La guerre du Rwanda (800.000 morts en 3 mois) pourrait en être le prémisse, comme le suggère Harald Welzer dans « Les guerres du climat: pourquoi on tue au XXIe siècle ».

Ce scénario est d’autant plus crédible que les progrès en Intelligence Artificielle permettront des guerres avec peu de soldats, des régimes autoritaires avec peu de policiers, des usines avec peu d’ouvriers, etc. Certes il faut des ressources pour maintenir une société thermo-industrielle avec de tels moyens, mais ceci n’est pas un problème si peu d’humains en profitent – les autres étant maintenus à l’état de misère, ou victimes de massacres et famines. Peu de consommateurs signifie aussi un plus faible impact pour le climat et une possible stabilisation des émissions à des niveaux pas trop dangereux.

Fait-il donc sens de prédire une telle « Fin du Monde », plutôt qu’une autre ? Oui, si cela permet de réfléchir, d’échanger et d’agir. Mais il faut être conscient des biais cognitifs que l’on a tous quand on prévoit l’avenir, qui sont bien étudiés par les spécialistes des sciences cognitives comme Daniel Kahneman. Il y a par exemple le biais de confirmation d’hypothèse, qui nous fait préférer les éléments qui confirment plutôt que ceux qui infirment une hypothèse. Ou l’effet d’ambiguïté, qui est notre tendance à éviter les options pour lesquelles on manque d’information. Ou le biais d’optimisme, qui fait qu’on se juge moins exposé à la plupart des risques qu’autrui. Ou la perception sélective, qui nous fait interpréter les faits selon nos intérêts ou notre expérience. Et bien d’autres.

La capacité à construire une image mentale du Monde et à anticiper les conséquences des actions est le propre de l’homme. Elle est issue d’un million d’années d’évolution biologique et culturelle du genre Homo, et a été un facteur déterminant de sa domination de la Nature. Notre cerveau est formaté par nos origines, notre perception des menaces, les points aveugles de notre psyché et nos instincts défensifs. Le problème, c’est que ce formatage n’est pas adapté aux nouvelles menaces planétaires, comme le réchauffement climatique, la chute de la biodiversité ou la guerre atomique. Nos capacités à prédire en sont affectées.

Pour contourner ce problème, le solution est de donner du sens à prédire la Fin de Monde: nos prédictions individuelles sont un moyen pour partager et enrichir notre vision du monde, car c’est dans cet imaginaire que les humains peuvent se retrouver, et dans lequel ils inscrivent leurs actions . On doit prédire la Fin de Monde pour que, in fine , celle-ci n’arrive pas.

Vive la Récession !? (V2)

[Version originale publiée en Août 2019. Mise à jour en Mars 2020 – en pleine crise du Coronavirus, et publié par la revue Le Sauvage ]

Nous y sommes. Coronavirus renforce ce que de plus en plus d’économistes pensent: le monde risque d’entrer en récession en 2020, c’est à dire que le PIB – l’indicateur clef de l’économie – va baisser. Déjà les raisons ne manquait pas : Protectionnisme, Brexit, endettement privé et public, bulles spéculatives prêtes à exploser, augmentation des taux d’intérêt, tensions géopolitiques et géologiques sur l’approvisionnement en pétrole, faiblesse structurelle des banques centrales et privées, … . Coronavirus nous rappelle en plus combien notre monde est sensible à la moindre perturbation qui affecte le déplacement des personnes et des biens.

Pour tous, c’est une très mauvaise nouvelle, un risque majeur qu’il faut absolument éviter, car récession a toujours été synonyme de montée du chômage, recul des services publics, augmentation de la précarité, pour ne citer que ces conséquences. Personne n’a envie de revivre les situations de 1929, de 1998 en Argentine, ou de 2008 en Grèce.

D’autant plus que cette récession pourrait être sévère. La croissance mondiale moyenne diminue structurellement en effet d’années après années, tandis que le système financier n’a pas encore récupéré de la crise de 2008. Le prix du pétrole – cause des récessions de 1973, 1979 et 2008 – n’a jamais été aussi volatil, en partie du fait de la faiblesse de la production mondiale, en hausse seulement dans quelques pays – mais pour combien de temps ?

Mais cette récession pourrait être une bonne nouvelle pour le Planète, et en particulier pour le climat. On le vois avec Coronavirus, qui provoque une baisse significative des émissions de CO2 et de la pollution. Il est possible que cette épidémie sauve des vies !

Plus généralement, les récessions passées ont été les seuls moments où les émissions de CO2 ont baissé, et il est fort probable que ça sera la même chose pour les prochaines. La raison est qu’une récession est, par définition, une baisse de l’activité économique mesurée par le PIB, et qu’il y a un couplage entre, d’une part, activité économique et consommations énergétiques, et d’autre part entre consommation d’énergie et émissions de CO2. Typiquement, depuis 50 ans pour chaque variation de 1% du PIB mondial, il y a une variation de 0.7% des émissions de CO2. Certes, les économistes et hommes politiques rêvent d’une « croissance verte », c’est-à-dire d’un découplage entre consommation d’énergie et activité économique, mais on n’en a jamais vu la couleur au niveau mondial (car un pays peut améliorer son intensité énergétique en important des biens plutôt que les fabriquer) .

En fait, une récession mondiale est sans doute le seul espoir qu’on ait pour voir baisser les émissions de CO2 à un niveau compatible avec une stabilisation du climat à +2°C. Il ne faut en effet pas compter sur la volonté des USA, l’Inde ou la Chine pour y arriver ni sur les promesses des pays européens, toujours à la recherche de plus de croissance pour maintenir nos modes de vie destructeurs. Il ne faut pas non plus compter sur le progrès technique, qui n’a jusqu’ici pas tenu ses promesses pour améliorer la situation, et les facteurs qui limitent son impact pour la lutte contre le réchauffement climatique sont toujours là, tels que l’effet rebond, la quantité d’énergie toujours croissante pour extraire des matériaux ou fabriquer des objets technologiques, les limites du recyclage, l’acceptabilité sociale au changement, le financement, le coût environnemental des activités de services, etc.

Plus vite et plus forte donc sera la baisse de l’activité économique mondiale, plus forte seront nos chances d’éviter un emballement catastrophique du réchauffement climatique.

Certes, il eût mieux valu que le Monde prenne une autre direction, par exemple après le rapport Meadows sur les limites de la croissance. Il eût été préférable qu’on écoute les décroissants, qu’on développe une vision de la prospérité qui ne soit pas basée sur le pouvoir d’achat et la croissance du PIB, qu’on réduise les inégalités dans le monde, qu’on sort des énergies fossiles. On aurait mieux fait de limiter le libre-échange et la financiarisation de l’économie, et d’intégrer le coût réel des externalités écologiques de nos activités productrices.

Mais on ne l’a pas fait, et il n’est plus temps de changer démocratiquement le système partout dans le monde, ou trouver des solutions technologiques. Pour citer Churchill,  « le temps de la procrastination, des demi-mesures, de l’apaisement des craintes, des expédients déconcertants et des délais touche à sa fin. Nous voici à l’aube d’une période de conséquences« .  Face à l’urgence climatique, les récessions vont nous obliger à agir réellement pour le climat, enfin.

Soyons clairs : les risques que des récessions conduisent à des crises sociales majeures et à des régimes autoritaires sont très forts. En particulier, partout dans le monde des partis d’extrême droite et des élites sans scrupules sont en embuscade, utilisant la démagogie et la désignation de boucs émissaires pour pousser leur pions.

Mais d’un autre côté, les récessions sont inévitables, et elles sont requises pour éviter une catastrophe climatique.
Comment faire pour sortir de cette situation ?

La solution est l’écologie politique. Elle seule peut développer un imaginaire susceptible d’être suivi par le plus grand nombre, permettant à l’inévitable crise économique et financière qui vient de devenir la matrice d’une nouvelle société écologique décroissante.

Et de fait, beaucoup des mesures pour rendre les récessions acceptables, et déjà mises en oeuvre dans des crises passées, sont, ou ont été, dans les programmes des partis écologistes : relocalisations, réduction du temps de travail, nouveaux indicateurs de richesse, monnaies locales, systèmes d’échanges locaux, économie sociale et solidaire, redistribution, rationnements pour contenir les inégalités face aux pénuries, transport doux, low-techs, …

Tous les partis politiques se targuent aujourd’hui d’être écologistes.  Tant mieux.  Mais les seuls qui le sont vraiment sont ceux qui reconnaissent qu’on ne peut pas compter sur un découplage PIB/CO2, c’est à dire que la baisse du PIB est à la fois nécessaire pour éviter une catastrophe climatique, et inévitable. Donc qui souhaitent la récession, une récession comprise et acceptée par les citoyens, accompagnée par les Etats pour en limiter les conséquences . La seule alternative à la barbarie.

— Thierry Caminel
Peut être rediffusé sans restriction

Annexes :

  • De nombreuses études montrent pourquoi il ne peut y avoir de découplage entre PIB et énergie ou CO2. Voir la récente étude Decoupling Debunked, publiée par l’European Environmental Bureau en 2019, pour une liste assez exhaustive. 

    Voir aussi mes propres analyses .
  • Cette courbe montre que la consommation énergétique mondiale continue d’augmenter proportionnellement au PIB. Il n’y a pas de début de découplage (chaque point correspond à une année). On ne voit en particulier pas l’impact de l’informatique et de la supposée « dématérialisation de l’économie ». La courbe avec le CO2 est similaire (car l’électricité mondiale est toujours aussi carbonée).

PIB Mondial vs Consommation Mondiale, de 1965 à 2018.  Source: JM Jancovici

  • Ces courbes montrent l’évolution comparée du PIB et de la consommation énergétique en Grèce, avant et pendant la crise. On y voit qu’il n’y a pas de découplage. Notez que les évolutions de CO2 ont baissées de même: les Grecs sont devenus très écolos du fait de la crise.
    Le même phénomène est arrivé en Espagne à la même époque, en URSS en 1989, et plus généralement lors de toute les récessions.
  • Une autre courbe (en log/log) sur la relation entre PIB par habitant et émissions de CO2 par habitant, cette fois pays par pays.
  • Evolution mondiale du PIB, des émissions de CO2 et de la consommation énergétique. Notez les baisses simultanées en 1973, 1979 et 2008.
    Source: J.M. Jancovici

Information versus Effondrement

Information versus Effondrement

Comment tout ne va pas s’effondrer

(  Article associé à un séminaire à l’Institut Momemtum le 13 Octobre 2018.
 Un support de présentation sur ce sujet est disponible à https://goo.gl/bxVca9)

 

Il est devenu courant d’entendre de nos jours des propos sur « l’effondrement de LA société industrielle ». Mais c’est sans doute trop simpliste. Nous soutiendrons dans cet article que, en certains lieux, le capital informationnel qui caractérise cette civilisation (techniques, procédés, savoir-faire, organisations… ) continuera d’augmenter, ainsi que la résilience au réchauffement climatique et à la déplétion des ressources.

Nous partirons de la définition de l’effondrement de Joseph Tainter, un des pionniers de l’approche scientifique de cette notion. Elle tient en 3 points : 1/ Plus une société est complexe, plus elle requiert de l’énergie ; 2/ Après avoir épuisé l’énergie bon marché et la dette abordable, elle perd sa capacité à résoudre ses problèmes ; 3/ L’effondrement est la simplification rapide d’une société.

Cette définition lie l’effondrement à la notion de complexité, et celle-ci aux flux énergétiques. C’est un lien qu’étudie aussi la thermodynamique, en particulier à partir des travaux de Igor Prigogine sur les structures dissipatives : ce sont des structures qui reçoivent un flux énergétique de l’extérieur, mais qui créent des formes d’organisation à l’intérieur via importation et mémorisation de l’information. L’eau qui bout dans une casserole est l’image classique d’une telle structure, mais c’est aussi valable pour les cellules qui mémorisent l’information dans l’ADN, et pour les sociétés humaines qui la mémorisent via la transmission culturelle.

Ainsi l’évolution biologique se traduit par une augmentation de la complexité (des organismes eucaryotes aux animaux), qui a pour support une information stockée dans les gènes sous forme d’ADN. Selon la théorie darwinienne, les gènes se répliquent, évoluent par altérations et fusions, et transmettent les changements favorables à leur descendant. Ils augmentent ce faisant leur capacité à se perpétuer et à s’adapter à l’environnement, c’est-à-dire à ‘résoudre les problèmes’ selon les termes de Tainter.

L’évolution de la culture humaine est similaire. Les pratiques agricoles par exemple se transmettent de génération d’agriculteurs à la suivante, via le langage, l’imitation, les livres ou, plus récemment, Internet. Elles peuvent évoluer par le hasard ou l’adaptation de pratiques développées par ailleurs.  Les pratiques les plus efficaces augmentent la résilience des sociétés qui les adoptent, ce qui renforce leur diffusion. Il en est de même pour les pratiques militaires, les savoir-faire pour fabriquer des objets, les capacités à échanger ou à organiser une société en croissance démographique, etc.

Ces évolutions peuvent être considérées comme l’évolution d’algorithmes. Une recette culinaire est l’exemple typique d’un algorithme, et nous pouvons aussi considérer les pratiques agricoles, militaires ou de fabrication d’objets comme des algorithmes. Nous les appellerons ‘algorithmes culturels”. Les gènes peuvent aussi être considérés comme des algorithmes, que nous qualifierons de ‘biologiques”. Ils permettent la fabrication pas-à-pas de protéines et d’organismes selon un programme codé dans l’ADN. Les comportements des animaux, comme la sélection du partenaire pour assurer la reproduction, ou les choix à prendre face à un prédateur, sont aussi des algorithmes biologiques susceptibles de s’améliorer de génération en génération.

La révolution que nous vivons est liée à l’apparition d’une nouvelle forme d’algorithmes : les algorithmes numériques. Ceux-ci évoluent par des mécanismes similaires à ceux décrits précédemment : il y a un processus de génération de variantes, puis de sélection des celles qui apportent un avantage, et finalement transmission à une nouvelle génération.  Par exemple, des dizaines de milliers d’informaticiens modifient tous les jours des algorithmes numériques disponibles en open source. Une de ces modifications pourrait avoir un intérêt pour améliorer une fonctionnalité du noyau Linux, être sélectionnée et intégrée dans le noyau, et se retrouver quelques années plus tard dans des millions de smartphones et d’ordinateurs.  

Le processus de création et d’amélioration des algorithmes numériques est en train de s’accélérer.  Plusieurs processus sont en cours : d’une part, le « big data » et l’apprentissage automatique permettent de créer des algorithmes à partir de très grands volumes de données. C’est ainsi qu’un ordinateur peut faire un algorithme pour reconnaître un objet si on lui a fourni au préalable des centaines d’images de cet objet. C’est la technique de base de l’intelligence artificielle (IA). Mais d’autres techniques plus puissantes apparaissent, où des algorithmes créent d’autres algorithmes avec peu de données. Par exemple, le programme de jeu de Go développé par Google, qui a gagné contre le champion du monde, a d’abord été entraîné à évaluer des positions à partir d’un catalogue d’un million de parties jouées par des humains. Puis, une nouvelle version a appris à évaluer la position seulement en jouant des milliers de parties contre elle-même.  Le processus s’apparente d’ailleurs à l’évolution biologique : après chaque jeu, quelques changements sont introduits dans la version qui a gagné pour produire d’autres versions, qui jouent les unes contre les autres, etc.

Un autre processus d’accélération est la concentration des données et des algorithmes dans les grandes plateformes numériques, telles que celles détenues par Amazon, Microsoft, Google ou Alibaba, qui proposent des services facilitant la composition de milliers d’algorithmes qu’elles mettent à disposition. Ces services sont utilisés par ces entreprises pour leurs besoins propres, mais aussi par d’autres entreprises, notamment les startups pour développer de nouvelles idées à moindre coût. Ces startups, à leur tour, peuvent mettre en open source leurs propres variantes, qui pourront éventuellement être intégrées à ces plateformes. Elles peuvent aussi développer leur propre plateforme (comme Uber, AirBnB,..), essentiellement pour fournir des services qui vont servir à collecter des données, et alimenter ainsi la création d’algorithmes par des techniques d’apprentissage automatique.  Les plateformes numériques servent ainsi de catalyseurs : en mettant à proximité données et algorithmes, et en facilitant la modification et combinaison des algorithmes ainsi que la création de ceux-ci par apprentissage, elles accélèrent le processus de création et d’amélioration des algorithmes numériques. C’est cette amélioration exponentielle des algorithmes numériques qui explique qu’ils sont en train de remplacer algorithmes biologiques et culturels pour de plus en plus de tâches.

Tous les pays industrialisés luttent maintenant pour développer et contrôler les algorithmes d’IA, car ils sont une partie essentielle de leur souveraineté et de leur indépendance.  Le contrôle du processus d’innovation et des plates-formes deviennent d’une importance capitale, et la Chine et les gouvernements américains ont pris un avantage certain. Ils l’ont obtenu via les agences de recherche militaires, comme le DARPA aux USA, qui investissent massivement, et souvent en cofinancement avec les grands fournisseurs de plates-formes commerciales. En résulte un flux de nouvelles idées et d’algorithmes, qui sont sélectionnés d’une manière ou d’une autre. Ceux qui apportent un avantage sont incorporés dans ces plateformes pour les usages commerciaux, mais peuvent également être utilisés par les États pour contrôler l’information et améliorer leur défense (comme les armes basées sur l’IA, les systèmes de renseignement, etc).

Revenons maintenant à l’effondrement. Notre analyse est qu’une nouvelle forme de structure dissipative est en train d’émerger, essentiellement aux USA et en Chine, où s’accumulent des algorithmes numériques qui leur permettent une meilleure connaissance de l’environnement, et des capacités accrues d’agir sur lui. C’est un peu comme l’évolution biologique et culturelle, mais ici l’environnement est perçu grâce à des algorithmes qui surveillent l’Internet, contrôlent et analysent des images de satellites, drones ou les caméras dans les rues, etc. L’action sur l’environnement se fait via d’autres algorithmes au coeur de système d’armes sophistiquées, de robots (pour fabriquer des objets, combattre, lutter dans la cybersphère…), ou d’autres algorithmes permettant la propagande de masse.

Grâce à ces algorithmes, les structures dissipatives pourront s’approprier les ressources naturelles (énergie et matière première) nécessaires à leur adaptation à un monde où ces ressources deviendront de plus en plus rares. Par ailleurs, les algorithmes numériques pourront aussi modifier directement les algorithmes biologiques codés dans l’ADN via les techniques de modification génériques comme CRISPR, pour notamment accélérer l’adaptation des plantes au réchauffement climatique.  Avec les outils de propagandes et de contrôle de l’information, il sera possible de contrôler les populations et, associé à quelques contraintes, l’amener à s’adapter plus vite aux changements à venir. Ce sera d’autant plus facile que les robots et le remplacement grandissant des emplois humains par des algorithmes affaiblissent la plupart des classes sociales, limitant leur capacité de réaction par la grève. Les algorithmes augmenteront aussi la résilience des sociétés en facilitant la transmission du savoir par Internet, la mise en place de systèmes de rationnements, la création de monnaies locale, l’optimisation des déplacements et flux d’énergie.

Reprenons l’exemple de la Chine pour illustrer nos propos. Le réchauffement climatique et la déplétion des ressources fossiles pourraient y provoquer de gigantesques famines, de très fortes tensions sociales, un effondrement financier, économique et politique, etc. Mais le Parti communiste chinois (PCC), dernier avatar d’un système politique commencé il y a 2200 ans, n’est pas inactif. Il investit massivement dans la recherche en IA et toute la chaîne en amont de traitement de l’information, depuis les métaux rares pour fabriquer les puces électroniques jusqu’à l’infrastructure internet, ce qui lui permet de construire des systèmes de propagandes et de contrôles de la population jamais vue dans l’histoire, et bientôt d’avoir tous les économiques contrôlés et optimisés par de l’IA. Il développe la puissance militaire et une stratégie pour contrôler l’accès aux matières premières qui manquent, en particulier alimentaires. Il fait étudier toutes les sortes de centrales nucléaires à surgénération, ce qui, en complément des énergies renouvelables, des smart-grids et du charbon, devrait atténuer les conséquences du pic de production de pétrole, notamment via l’électrification des transports. Tout cela, et bien d’autres éléments, laissent à penser que le PCC se prépare à un effondrement, et accumule des moyens de ‘résoudre les problèmes’ – pour reprendre l’analyse de Tainter – même avec moins d’énergie et de ressources naturelles. Les algorithmes et les biotechnologies seront cruciaux, pour toutes les raisons que nous avons présentées, ce qui nécessite et justifie la continuation d’une société industrielle, au service d’une minorité.

Nous avons donc 2 phénomènes concomitants. Dans certains endroits de la planète, l’accumulation d’information algorithmique permet une augmentation de la complexité qui augment fortement les capacités d’adaptation à un environnement en rapide changement, notamment grâce à l’IA et les biotechnologies. Les armées auront un rôle essentiel, car elles sont capables d’accaparer les ressources, maintenir la complexité d’une société même en cas de crise, focaliser la recherche, construire des infrastructures, réduire la concurrence etc.  

Mais partout ailleurs, le réchauffement climatique, la déplétion des ressources et le pillage de celles restantes entraîneront effondrement, guerres et famines,réduction de la population et de la complexité et la capacité de s’adapter. L’empreinte écologique globale se réduira fortement, ce qui éloignera la Terre des seuils – notamment climatiques – susceptible de la rendre quasiment inhabitable pour l’homme.

Nous avons montré que le développement des algorithmes s’accélère, et ça devrait continuer en nécessitant de moins en moins de données et d’énergie. Les processus d’effondrement vont aussi s’accélérer, car ils impliquent des boucles de rétroaction positives comme le montrent toutes les études de collapsologie. Ces 2 évolutions de nature exponentielles s’opposent, et il est impossible de prévoir comment elles vont s’imbriquer. On peut toutefois imaginer qu’une situation assez stable émerge, dans laquelle continueraient à se développer des sociétés complexes, très technologiques, efficaces en matières premières, probablement impérialistes, peu nombreuses et relativement peu peuplées. Un futur hélas pas réjouissant pour la grande majorité des autres habitants de la planète, et notamment sans doute pour nous, Européens.

 

Numérique et Décroissance

Cet article était une contribution à un livre sur “Gouverner la décroissance”, mais il n’a pas été retenu.

Il fait suite à un séminaire à l’Institut Momentum du 2/07/2016 sur “De l’accélération des algorithmes”.

Nous vivons une révolution en matière de « numérique », avec l’explosion des informations collectées et l’augmentation des capacités d’échange et de traitement algorithmique de celles-ci, conduisant notamment à l’émergence de formes d’Intelligence Artificielle (IA). Certains veulent croire que cette révolution apportera de la croissance, plus de démocratie ou plus de bonheur, tandis que d’autres craignent pour les libertés individuelles et les emplois, ou doutent de la pérennité d’une société hyper-technologique du fait de la déplétion des ressources naturelles.
Dans cet article, nous soutenons l’hypothèse qu’effondrement sociétal et algorithmes sont liés par la thermodynamique, et qu’une nouvelle forme de darwinisme est à l’œuvre dans l’évolution des sociétés. Une telle hypothèse concilie différentes tendances que nous pouvons observer : augmentation des inégalités, accélération du progrès technique, concentration des données, signes d’effondrement. Elle nous amène à proposer des mesures pour augmenter la résilience de nos sociétés.

Information et résilience

Nous allons aborder dans un premier temps le lien entre information et résilience. Partons pour cela du concept de ‘gène égoïste’ de Richard Dawkins. Le gène est le support de l’information du vivant, qui permet à une cellule de synthétiser des protéines pour capter les flux énergétiques (par la photosynthèse et l’alimentation), transformer l’énergie en travail,  constituer des organes, et se reproduire. Ce dernier point le rend résilient vis-à-vis de la disparition de l’organisme, et ce sur de longues durées. Dans le même ordre d’idée, Dawkins a introduit la notion de “mèmes”, qui sont des unités d’information enregistrés dans le cerveau, et qui se reproduisent par le langage et le mimétisme. Selon cette théorie, les mots, les traits culturels, les pratiques, les savoir-faire, les conventions, les symboles, etc sont des mèmes, qui se répliquent au sein d’un milieu social, et évoluent. Gène et mèmes suivent un processus de darwinisme généralisé, qui a 3 composantes: 1/ création de variantes, typiquement par mutation, recombinaison ou hybridation 2/ sélection des variantes les plus adaptées pour se reproduire et donc les plus stables 3/ transmission des caractères à des descendants. Ce faisant, il y a accumulation de l’information le long de lignées, et émergence de formes d’organisation. Les gènes permettent l’auto-organisation des organismes, les “mèmes” permettent l’organisation de sociétés humaines, formées d’individus partageant des connaissances et croyances identiques.  Les sociétés humaines toutefois évoluent bien plus vite que les gènes, grâce au langage. Il y a eu en particulier une accélération avec l’invention de l’écriture, puis de l’imprimerie. Les nouvelles technologies de l’information démultiplient cette capacité de mémorisation de l’information, et la vitesse du changement.

Robots et startups

Pour se rendre compte de ce changement, considérons les robots humanoïdes tels que ceux fabriqués par Boston Dynamics. Il a fallu un million d’années d’évolution génétique pour que l’homme acquière la bipédie, mais il n’a fallu que quelques décennies après l’invention du transistor pour que des robots sachent marcher sur des galets, monter des escaliers, etc. D’autres robots, déjà, analysent mieux une image médicale qu’un médecin formé pendant des années, ou bientôt feront mieux qu’une armée d’avocats pour parcourir des jurisprudences, mieux qu’un chauffeur de taxi pour déplacer des passagers, etc. Le robot et l’écosystème technique qui le supporte (ingénieurs, constructeurs, société high-tech, finance  …) mémorisent l’information bien plus vite que n’importe quelle structure de l’univers, et évoluent plus vite.

Cette “intelligence” des robots vient de dizaines de milliers d’algorithmes intriqués et combinés entre eux, et implémentés sous forme de code informatique. Un algorithme définit une séquence d’opérations, qui peuvent être simples comme trier des nombres, ou plus compliquées comme reconnaître des paroles et des images, planifier des actions ou répondre à des questions. Les gènes peuvent aussi être considérés comme des algorithmes, qui permettent la fabrication pas-à-pas de protéines et d’organismes selon un programme codé dans l’ADN. Les mèmes associés aux procédés, qui se transmettent au sein d’une culture donnée, comme les recettes de cuisine, les techniques de chasse ou les pratiques agricoles, peuvent aussi être considérés comme des algorithmes.  

Gènes, mèmes et code informatique sont des supports de l’information dont l’action se renforce mutuellement. Les récents progrès en matière d’ingénierie cellulaire illustrent ce point: l’accumulation de connaissances mémétiques et le progrès des algorithmes informatiques permettent de comprendre le fonctionnement du code ADN, et de le reprogrammer par des techniques comme celle dite CRISPR-Cas9.  Ces techniques de modification de l’information génétique ouvrent, par exemple, la possibilité de développer de nouvelles espèces de plantes, bien plus vite que ne peut le faire la sélection naturelle.

L’évolution des algorithmes suit un processus darwinien. Ils sont essentiellement développés par des programmeurs, puis sans cesse recombinés, utilisés dans d’autres contextes, et améliorés dans des versions successives. Les programmeurs partagent certains de leurs algorithmes au travers de communautés dites “open source” (comme celle développant le système d’exploitation Linux), ce qui accélère ce processus. Ils peuvent être embauchés par des startups, qui vont agréger des milliers d’algorithmes pour construire des produits. Ces startups sont en compétition entre elles, et les plus performantes sont acquises par de plus grosses entreprises. Celles-ci s’efforcent de contrôler certains algorithmes clefs, mais en diffusent d’autres afin d’entretenir ce mouvement darwinien de création et de sélection. Une société comme Google a ainsi pu accumuler plus de 2 milliards de lignes de code, ce qui est le même ordre de grandeur que le nombre de paires de bases dans l’ADN d’un humain. Cette accumulation lui permet de fabriquer des systèmes de plus en plus “intelligents”, à un rythme de plus en plus rapide.

Le processus s’accélère encore avec l’explosion des techniques d’apprentissage automatique, qui créent de nouveaux algorithmes à partir de grands volumes de données. Elles sont au cœur de l’IA (Intelligence Artificielle), et à l’origine de l’augmentation récente des capacités des robots ou des “assistants intelligents” évoquées précédemment.

Les sociétés thermo-numériques

En permettant une accumulation de l’information et une augmentation de la complexité, les mécanismes darwiniens semblent s’opposer à l’augmentation de l’entropie, pourtant inéluctable du fait du second principe de thermodynamique. En fait, comme, François Roddier l’a montré en reprenant les travaux d’Ilya Prigogine et d’Alfred Lotka, organismes et sociétés humaines sont ce que les physiciens appellent des structures dissipatives. Ces structures reçoivent un flux énergétique et maximisent la dissipation d’énergie et l’exportation d’entropie. Or on sait depuis Claude Shannon (1948), qu’entropie et information sont deux aspects opposés d’un même concept. En exportant de l’entropie, une structure dissipative importe et mémorise de l’information venant de son environnement. À l’intérieur de la structure se crée de la complexité et s’accumule l’information. À l’extérieur, il y a augmentation du désordre. C’est valable pour les cellules qui mémorisent l’information dans l’ADN, et pour les sociétés humaines qui la mémorisent via la transmission des mèmes. Notre hypothèse est que le même phénomène se produit avec les algorithmes.

Nous observons en effet une concentration des algorithmes. Alors que, techniquement, Internet pourrait être totalement distribué et sans contrôle, on voit émerger des plateformes comme Google, Amazon, Facebook, Microsoft ou Uber aux Etats-Unis, où comme Baidu et Alibaba en Chine, qui accaparent l’essentiel des requêtes. Ce faisant elles accumulent des données, et augmentent leur stock d’algorithmes par les procédés expliqués auparavant (open source, rachat de start-ups, IA, …). Certes la création d’algorithmes se fait dans le monde entier, mais ils s’accumulent dans certaines zones seulement où sont ces sociétés, comme autour de la Silicon Valley, Seattle et Boston aux USA, ou dans la région de Shenzhen en Chine. Ces zones ont les caractéristiques des cellules dissipatives: elles sont traversées de flux énergétiques, qu’elles dissipent en mémorisant de l’information. Nous appelons ces structures dissipatives des sociétés thermo-numériques. Elles ont une forte connexion avec une structure dissipative particulière, l’armée. Une armée en effet accumule le plus possible d’information, et a la capacité de détruire, donc de créer rapidement de l’entropie. Les armées, à commencer par la plus importante du monde, celle des États-Unis, investissent massivement dans les technologies de l’information pour construire des systèmes d’armes de plus en plus efficaces. Elles sont à l’origine de presque toutes les inventions de rupture, comme l’ordinateur, le transistor, Internet, le GPS ou les drones. Les armées cofinancent une bonne partie de la recherche fondamentale dans ce domaine, souvent en partenariat avec les grosses sociétés informatiques. Cette coopération contribue au darwinisme des algorithmes évoqués plus haut, puisque ceux ainsi créés peuvent rapidement se diffuser et participer au mouvement global d’amélioration du stock algorithmique, servant in fine à la fois la société thermo-numérique et son extension militaire.

Résilience des sociétés thermo-numériques

Nous avons donc deux phénomènes liés: d’une part, une consommation d’énergie et de matières premières, qui pourrait conduire à des déplétions et un effondrement global, et d’un autre côté l’accumulation d’information sous forme d’algorithmes dans certaines structures. La question qui nous intéresse est de savoir si ces structures peuvent perdurer après de fortes perturbations et réduction des flux de matière et d’énergie. En d’autres termes, les capacités d’adaptation qu’apportent aux sociétés thermo-numériques la capitalisation de l’information et la supériorité militaire leur permettront-elles d’être résilientes aux profonds changements à venir? Cette question est importante, car en dépend l’évolution des autres sociétés, et en particulier de la nôtre.

Nous pensons que la réponse est positive. L’évolution pourrait être comparable à celle de la vie sur terre, où des évènements externes ont provoqué des extinctions massives d’espèces (comme les dinosaures à la fin du Crétacé), mais pas celle de l’information génétique accumulée, ce qui a permis à des organismes ayant acquis des capacités d’adaptation ad hoc de prospérer dans le nouvel environnement.

Certes, le développement et la diffusion des algorithmes demandent actuellement des technologies numériques qui requièrent d’énormes dépenses énergétiques et de matière première.  Ainsi, environ 10% de l’électricité mondiale est utilisée pour alimenter l’infrastructure Internet et la fabrication des équipements, qui demandent en outre de nombreux matériaux rares. Mais c’est en grande partie lié à une grande gabegie que permet encore notre monde actuel, avec un très fort effet rebond (on stocke des millions de vidéos de chatons ou d’anniversaire) et un renouvellement rapide du matériel. Il y a là un fort potentiel de réduction des consommations, en limitant les usages et augmentant la durabilité des équipements. Par ailleurs, il y aura encore du progrès technique, et il devrait être possible de transporter, stocker et traiter encore plus d’information avec beaucoup moins d’énergie. On peut également penser que la création automatique d’algorithmes pourra continuer même si les flux d’information décroissent, en se basant essentiellement sur l’énorme quantité de données déjà collectées, et avec des infrastructures réduites.

Enfin, et c’est peut être l’argument le plus important, les avantages compétitifs que procurent les technologies de l’information sont tels que les gouvernements qui les maîtrisent continueront très probablement à les soutenir quand les tensions augmenteront. Certes, les très fortes récessions à venir et les conséquences du réchauffement climatique mettront à mal les modèles économiques des actuels bénéficiaires de ces technologies, basés essentiellement sur la publicité et la consommation, mais la connaissance algorithmique accumulée restera disponible pour les systèmes sécuritaires et militaires..

La résilience des sociétés thermo-numériques pourrait aussi être mise à mal par les conséquences sociétales que provoqueront les destructions d’emplois consécutives à la multiplication de robots et d’assistants intelligents de toutes sortes. Mais pour le moment, force est de constater que les citoyens et hommes politiques se satisfont du changement de société que nous vivons. La plupart des partis politiques sont favorables à une plus grande dématérialisation de l’économie et de la vie en société, et votent des lois dans ce sens en espérant que cela conduira à un nouveau type de croissance. Même les partis anti-capitalistes semblent approuver cette économie numérique, alors que les mécanismes d’accumulation des algorithmes que nous avons décrits renforcent de facto le capitalisme. Quant aux citoyens, ils utilisent les innombrables services numériques, sans se préoccuper outre mesure des conséquences pour l’emploi, ou l’environnement. Peut-on imaginer un nouveau mouvement des canuts ou des luddites où les salariés se révolteraient contre les machines? Certes, ponctuellement, des catégories professionnelles protesteront et arriveront à bloquer quelque temps leur remplacement par des robots, mais nous voyons mal comment un tel mouvement se généraliserait. Le numérique conduit à une baisse du pouvoir des salariés par rapport aux propriétaires des algorithmes.

Les sociétés thermo-numériques, de plus en plus complexes et dépendantes des ordinateurs, pourraient aussi être victimes de cyberattaques massives, capables de bloquer les infrastructures et accélérer leur effondrement. Mais une telle attaque demanderait des besoins extrêmement sophistiqués, que seul un état peut mobiliser, et ne peut se faire que dans le cadre d’une guerre, ce qui est envisageable. Elles seront aussi victimes de mafias, qu’on pourrait qualifier de sociétés thermo-numériques car à la pointe de la technologie et munies de moyens importants de collecte de données, mais qui ne cherchent pas à détruire une société. Quoiqu’il en soit, le point à noter est que, pour détecter et contrer des virus informatiques bardés d’algorithmes, les sociétés développent d’autres algorithmes, toujours plus sophistiqués. On est dans une situation très proche d’organismes avec leurs systèmes immunitaires, qui sélectionnent et mémorisent des séquences d’ADN pour détecter et contrer des virus biologiques, et augmentent ce faisant leur résilience. Nous émettons l’hypothèse qu’il en est de même pour les sociétés thermo-numériques, qui sont globalement renforcées par les cyberattaques et, plus généralement, par tout ce qui stimule la sélection et l’accumulation des algorithmes. C’est un schéma proche de ce que Nassim Nicholas Taleb appelle l’anti-fragilité, où l’adaptation continue à des menaces augmente la résilience d’un système. L’exemple typique d’une telle adaptation est l’aviation, où l’analyse des accidents conduit à rajouter des mécanismes de sécurité qui complexifient les avions, ce qui se traduit par une augmentation globale de leur fiabilité. Plus généralement, l’accumulation d’information peut augmenter la résilience d’un système (une cellule, un avion, une société, …), avec une augmentation de la complexité.

Pour conclure cette liste d’arguments, rappelons aussi que les technologies de l’information permettent une modification du patrimoine génétique des organismes, bien plus rapidement que les mécanismes de sélection naturelle ou agricole, et donc plus à même à s’adapter aux rapides changements provoqués par le réchauffement climatique. Les perspectives sont vertigineuses, et inquiétantes, par exemple pour fabriquer des plantes adaptées à une baisse des ressources hydriques et des engrais, ou pour se défendre des maladies. Les sociétés qui les maitriseraient pourraient ainsi mieux résister aux famines et épidémies dont seront probablement victimes une grande partie des habitants de notre planète. D’autres pourraient créer des virus sélectionnant leur cibles… Ces perspectives sortent toutefois du cadre de cette étude.

Quelles Institutions de la décroissance

Nous avons esquissé dans les chapitres précédents les principaux arguments qui nous font penser que, dans certains endroits de la planète, des groupes humains continueront à développer les technologies de l’information et de l’Intelligence Artificielle. Ils pourraient ainsi être capables de maintenir une relative prospérité et les acquis du progrès. Cette prospérité ne sera pas partagée équitablement, car ces technologies, notamment les déclinaisons militaires, leur permettront d’accaparer les ressources dont elles ont besoin, au détriment d’autres sociétés qui, elles, s’effondreront au travers de guerres, régimes autoritaires et famines.

Nous ne voyons pas ce qui pourrait arrêter un tel mouvement, du moins dans les décennies à venir. On peut le regretter, mais nous préférons étudier comment ces technologies numériques, dans la mesure où elles seront disponibles, pourraient être utilisées à bon escient par les sociétés auxquelles la décroissance sera imposée.

Nous prendrons comme point de départ une des solutions les mieux adaptées pour faire face à la réduction des quantités tud’énergie disponibles: les systèmes de rationnement. Bien conçus, ils permettent d’organiser le partage d’une ressource de telle sorte que les inégalités ne se creusent pas, et d’assurer la résilience de la société face à une crise énergétique. C’est une solution qui a fait ses preuves dans le passé, par exemple pendant la dernière guerre mondiale, ou à Cuba durant la “période spéciale” qui a suivi l’effondrement de l’URSS.  

Ces pays n’ont certes pas eu besoin de technologies de l’information pour mettre en place des tickets de rationnement, mais celles-ci peuvent grandement aider.  Par exemple, dans le monde actuel où une grande partie des échanges monétaires se font via des moyens de paiement non matérialisés comme les cartes bancaires, il suffirait d’interdire tout paiement en liquide, et de mettre en place un décompte centralisé de tous les biens achetés par les particuliers et les entreprises.  Les algorithmes dits de “Big Data” d’analyse de grandes quantités de données détecteront les tricheurs et éviteront le marché noir, en analysant finement toutes les transactions. Il serait assez facile également de mettre en place des monnaies électroniques complémentaires, afin d’augmenter la résilience du système financier local face à un krach financier.  À partir de toutes les informations existantes, des modèles prédictifs pourront anticiper la production, et allouer au mieux les produits aux citoyens en fonction de la production et des besoins. Des systèmes similaires adapteront de manière optimale la production et la consommation de l’énergie, en pilotant le stockage local dans des batteries ou des chauffe-eau et l’adaptation de la demande en fonction de l’équilibre du réseau. Il sera possible avec ces solutions d’augmenter la part d’énergie renouvelable et décentralisée, donc la résilience à la pénurie d’énergies fossiles. Des vehicules électriques, éventuellement sans chauffeur, et dont la taille et les parcours seront optimisés par des algorithmes adresseront les problèmes de mobilité de manière bien plus efficace énergétiquement que les bus et les voitures individuelles actuelles, même partagées.

Par ailleurs, la vie dans une société post-pétrole demande la réappropriation rapide et massive de savoir-faire perdus et l’acquisition de nouvelles connaissances. Là encore, les technologies de l’information peuvent aider, via des cours en ligne dont les contenus faciliteront la transmission de savoir, par exemple pour produire localement de l’alimentation ou des biens, réparer les objets, se passer des engins agricoles, etc. Ils accéléreront aussi la formation aux nouveaux métiers. Plus généralement, les médias hautement interactifs et au contenu adapté à chaque audience aideront à la prise de conscience des citoyens sur la nécessité de changer de société. Mieux informés, ceux-ci pourront plus facilement participer aux débats et prises de décisions, grâce au vote électronique et la transparence des données. Une véritable société écologiste peut se mettre en place.

Mais un autre scénario est possible, proche de celui-ci, mais avec une conclusion différente, celle d’une dictature telle que décrite par Orwell dans “1984”. Le risque est en effet fort que, en cas de décroissance subie, des régimes totalitaires se mettent en place, et utilisent les mêmes technologies du numérique citées précédemment pour mettre au pas la société et forcer son adaptation à un monde post-croissance, au travers de la surveillance de masse, le contrôle de l’information, la propagande, des robots de maintien de l’ordre, etc. Pour un tel régime, le rapport coût-bénéfice de telles technologies peut être très important, car elles permettent à peu de personnes de diriger des masses d’individus pour un coût énergétique et matière relativement réduit. Les sociétés thermo-numériques qui maîtrisent ces technologies auront tout intérêt à autoriser cet usage, du moins ponctuellement pour assurer leur propre approvisionnement en ressources.

Pour éviter ce scénario, il faut organiser la décroissance, notamment au travers d’institutions destinées à faire face cette double rupture que constitue la fin de l’énergie abondante et la multiplication des algorithmes. Le chantier est immense. Concernant la partie ‘numérique”, il consiste pour l’essentiel à maîtriser autant que possible les algorithmes, avec l’assentiment des citoyens, et dans le but premier de réduire les consommations énergétiques.

Cette maîtrise a pour préalable la prise de conscience des mécanismes darwiniens décrits précédemment, et leur utilisation à bon escient. Ainsi, nous l’avons vu, la capitalisation des algorithmes passe par une phase préalable de dissémination. Des milliers de ‘hackers’ du monde entier savent capter ces algorithmes, les utiliser, les améliorer et les intégrer dans des produits. Il serait possible, pour une institution de la décroissance, d’utiliser et d’organiser cette connaissance et ces algorithmes pour créer des monnaies locales, des formations, des systèmes de quotas énergétiques, etc.  En ce sens il faut encourager les mouvements de hackers, en particulier quand ils sont organisés pour satisfaire un but politique et réduire le pouvoir des sociétés géantes de la Silicon Valley, comme le Chaos club en Allemagne ou Framasoft en France. Leur action vise aussi à minimiser l’accumulation de données par ces sociétés, ce qui est une très bonne chose. Il faut développer les projets de réseaux Internet locaux et associatifs, basé par exemple sur des communications WiFi longue distance, qui permettent de se passer d’infrastructures lourdes et de maîtriser les flux. Un exemple de tel réseau est Guifi.net, en Catalogne, qui relie 30 000 nœuds dans une région peu dense. Au niveau étatique, les algorithmes devraient être considérés comme des biens communs. Des structures de recherche publique devraient être mises en place pour développer les applications de l’IA utiles pour la société.

Par ailleurs, il faut minimiser autant que possible la consommation énergétique et de matières premières d’Internet et des équipements. Beaucoup de pistes sont possibles. On pourrait par exemple limiter l’usage de réseaux sans fil pour diffuser de la vidéo, ou construire des téléphones et ordinateurs facilement réparables. Il pourrait y avoir un ralentissement du renouvellement des équipements, et une standardisation accrue, comme on peut le voir par exemple avec des calculateurs de type Arduino, dont les plans sont en “open source” et qui peuvent servir de base à de nombreux équipements numériques. De manière générale, les institutions de la décroissance devraient pouvoir limiter l’effet rebond et l’obsolescence programmée, et faire en sorte que les progrès techniques, et en particulier l’amélioration et l’intégration croissante d’algorithmes, servent vraiment à réduire les consommations énergétiques.

Conclusion

Nous avons fait un parallèle entre l’évolution des algorithmes accumulés par un groupe humain et celui des gènes dans un organisme. Nous avons montré que les processus darwiniens de sélection étaient comparables, et pouvaient conduire à une augmentation de la résilience de ces groupes, grâce notamment à une meilleure adaptabilité et une supériorité militaire permettant l’accaparement des ressources physiques.

Si cette théorie est juste, alors les technologies numériques continueront d’être améliorées, même dans un monde globalement, mais très inégalement, en décroissance énergétique, économique et démographique. Nous concilions ainsi plusieurs visions de l’avenir, entre ceux qui estiment inéluctable une baisse de la croissance et un effondrement de nos civilisations lié à un dépassement des limites physiques de la planète, et les optimistes qui estiment que le progrès technologique permettra d’autres formes de prospérité.  Ces deux visions ne sont pas incompatibles.

Quels seront les contours de ce monde à venir? Verra-t-on une majorité de sociétés en situation d’effondrement et quelques îlots de prospérité, ou des choses plus complexes? Il ne nous est pas possible de répondre. Tout au plus pouvons-nous souhaiter que, dans des pays comme la France, il y ait à la fois une prise de conscience que les technologies ne permettront pas une augmentation importante du découplage entre activité économique et consommation énergétique, et également qu’elles peuvent faciliter la transition vers un monde en décroissance, et qu’on ne peut les ignorer. Cette prise de conscience devra conduire à des décisions démocratiques d’appropriation de ces technologies, assorties à une réorientation de leurs usages. C’est aussi tout l’avenir de nos sociétés industrielles qu’il faut repenser, face à cette double rupture que constitue la fin de l’énergie abondante et la multiplication des machines intelligentes.

__________________________

Diagrammes

voir https://docs.google.com/presentation/d/1W9VTG59E7QotgI6gZSV4ffRwvJ9j1G1m5SH_f4WHBSw/edit