Citations

Citations collectées au fil du temps sur la connaissance, les croyances, la décroissance, l’effondrement, l’optimisme, les technologies, …
[Lien direct pour une meilleure lecture]

Gaz Naturel et Climat

9 ans après avoir écrit un article sur les dangers du gas comme source énergétique, il est temps de faire une mise à jour. Comme on pouvait s’y attendre, la situation ne s’est pas arrangée.

La France est ainsi devenu le premier importateur Européen de gaz de schistes. Ceci alors que l’exploitation des gaz de schistes est interdite dans notre pays, et qu’on est supposé se débarrasser des énergies fossiles. 

Les Allemands, eux, vont enfin réussir à doubler le gazoduc North Stream pour importer du gaz russe. Un projet à 10 milliards d’Euros. Et ils ont un terminal méthanier en projet, histoire de pouvoir en plus importer du gaz de schistes US. Qui peut croire qu’ils veulent sortir des énergies fossiles? 

Tout vas donc bien pour le gaz. La production augmente dans le monde (+4.5% en 2018), il y a de plus de pipelines et de terminaux méthaniers, .. Voir ce document pour quelques chiffres: https://www.iea.org/gas2019/

Coté production, il en reste dans quelques régions du Monde, et le pic mondial devrait être après 2030. Mais l’Europe (essentiellement Mer du Nord et Pays-Bas) a passé son pic de production il y a quelques années , et comme la consommation se maintien malgré nos discours sur le climat, il y a de plus en plus d’importation.  

Cerise sur le gâteau, il y a peu de protestations, car le gaz dit « naturel » est  relativement peu cher, et il supposé être mieux pour le climat que le pétrole et le charbon. Les lobbys, surfant sur la libéralisation du secteur de l’énergie, ont fait un super boulot,  (en se servant notamment du mouvement écolo). 

Mais c’est faux: si on prends en compte les fuites (lors de la production, dans les pipeline ou dans les réseaux), et compte tenu du très fort pouvoir de réchauffement global du méthane, le gaz a impact du même ordre de grandeur que le fioul ou le charbon.

Les études montrent en particulier que le gaz que nous importons des USA est aussi polluant que le charbon, et toute mesure qui conduirait à une augmentation de la consommation de gaz aggravera les catastrophes climatiques à venir.

Le méthane est le gaz à effet de serre qui croit le plus vite, ce qui en fait une inquiétude majeure concernant l’avenir de l’homme sur Terre. 

Peut on espérer une prise de conscience ? 

Pour en savoir plus:

Des Nouvelles du Peak-Oil

Les choses se précisent concernant l’évolution de la production de pétrole. Voici quelques informations, avec leurs sources: 

  • Dans son dernier rapport paru fin 2018, l’AIE (Agence Internationale de l’Energie)  confirme que la production mondiale de pétrole conventionnel (près des 3/4 de la production totale de pétrole) « a franchi un pic en 2008 à 69 millions de barils par jour (Mb/j), et a décliné depuis d’un peu plus de 2,5 Mb/j ».   
  • Dans ce même rapport, l’AIE estimait que « Le risque de resserrement de l’offre est particulièrement prégnant pour le pétrole. Ces trois dernières années, le nombre moyen de nouveaux projets approuvés de production de pétrole conventionnel ne représente que la moitié du volume nécessaire pour équilibrer le marché jusqu’en 2025, compte tenu des perspectives de demande du scénario « Nouvelles politiques ». Il est peu probable que le pétrole de schiste prenne le relais à lui seul. Nos projections prévoient déjà un doublement de l’offre de pétrole de schiste américain d’ici 2025, mais celle-ci devrait plus que tripler pour compenser le manque persistant de nouveaux projets classiques. » 

    En d’autres termes, si l’offre de pétrole de schistes ne triple pas aux USA, on atteindra rapidement le pic de production « tout liquide ».
    Cette analyse est reprise et corroborée par d’autres sources. Voir par exemple le Wall Street Journal évoquant le « looming oil crunch ».  (« imminence de l’effondrement du pétrole »)
  • Et justement, la production de pétrole de schiste, loin de tripler, a cessé de croître.  La productivité stagne, la majorité des sociétés perdent des quantités astronomiques d’argent
    Beaucoup d’analystes commencent à être inquiets (lire aussi cet article publié hier). Certains pensent, ou veulent croire, qu’une 3° vague de pétrole de schiste va arrive , grâce à de nouvelles techniques de récupération, mais rien n’est sûr.  
    C’est la principale source d’incertitude, et elle est importante. Mais ça ne change rien sur le fond: un jour ou l’autre, les réserves vont passer un pic. C’est mathématique.
  • De leur côté, les Russes ont faut savoir qu’ils atteindront leur pic de production en 2021  ; Le patron d’Aramco (Arabie Saoudite) prévoit, lui, un risque d’effondrement de la production prochainement.  Le patron de Total, de son côté, prévoit des problèmes d’approvisionnement dès 2020.
    On peut penser qu’ils  forcent le trait pour qu’il y ait plus d’investissements ou faire monter les cours. Ou pas. C’est en tout cas en phase avec ce qu’on sait par ailleurs..
  • Jamais le niveau de découvertes de nouveau réservoir de pétrole n’a été aussi faible. En 2018, pour 6 barils de pétrole consommés, 1 seul a été trouvé pour les remplacer . On découvre depuis des années qu’une fraction de ce qu’on consomme, et ça s’aggrave.  Ça finira bien par avoir un impact.
  • Aucun pays en dehors des USA n’a réussi à exploiter les pétroles de schistes. Il faut en effet que beaucoup de choses soient réunies: une géologie favorable, de la technologie, beaucoup d’eau, une infrastructure routière dense, de l’expertise, des conditions réglementaires favorables (droit au sol,…), et beaucoup, beaucoup d’argent sans garantie de bénéfice. On ne voit pas ce qui pourrait changer d’ici 2030.
  • Du coup, on voit de plus en plus de projection avec un pic de production « tout liquide » vers 2025 – 2030. Voici par exemple ce qu’on trouve dans l’Energy Outlook 2019 de la société  de certification norvégienne DNV-GV (source)
  • Notez que le pic de production du gaz arrive quelques années après. En Europe, il est passé, et en conséquence on en importe de plus en plus (c’est pour cette raison qu’on construit des terminaux méthaniers, des  gazoducs, ….).  Pour combien de temps? 
  • Le pic de la production de pétrole et de gaz  est déjà une réalité pour des pays comme l’Algérie, à quelques km de l’Europe. Avec une population en croissance et des millions de jeunes au chômage, on peut s’attendre à de sérieux troubles.
    Le pic de production du pétrole est aussi une cause majeure de l’effondrement du Venezuela (article recommandé).
  • Même si le pic de production de pétrole est après 2030, il se peut tout de même qu’on ait de sérieux problèmes avant.  Par exemple, le pétrole de schistes américain est très léger, et ne convient pas directement pour faire de l’essence.
    Il y a aussi les EROI qui deviennent de plus en plus faibles.  Ils faut de plus en plus d’énergie pour extraire du pétrole. Nous approchons de la zone où l’énergie nette (celle disponible pour la société) s’approche de la falaise:
  • Si on a un crise énergétique d’ici 10 ou 15 ans, il est peu probable qu’on puisse trouver les financement gigantesque, et l’énergie, pour exploiter les zones difficiles d’accès et dont l’EROI est faible, comme l’Arctique ou l’offshore profond.
  • Le pétrole représente 40% de l’énergie consommée en Europe. Mais face aux USA et à la Chine, il n’est pas du tout évident que nous continuerons à pouvoir nous approvisionner en pétrole (et en gaz) quand les tensions se feront plus importantes.
  • Si ces projections sont justes, c’est une bonne nouvelle pour le climat: moins de pétrole signifie des crises économiques et des récessions, donc moins d’émissions de CO2.

    C’est par contre un sérieux risque pour nos démocratie, si on ne s’y prépare pas.

« Y’a-t-il un sens à prédire la Fin du monde ? »

Le journal “La Décroissance” m’a demandé de répondre à « Y’a-t-il un sens à prédire la Fin du monde ? », suite une question d’un lecteur: « Je constate que le chaos annoncé tarde à venir… tous ces discours en ce sens se retrouvent discrédités auprès de ceux qui n’y croient déjà pas ! Et c’est d’autant plus difficile de leur faire prendre conscience de la situation… ça nuit à la cause de la décroissance… merci de votre avis ».

Deux autres contributeurs ont publié leurs vues. Voici ma réponse:

—————————

Depuis des siècles et dans beaucoup de cultures, l’homme parle et prédit la « fin du monde », notamment dans un contexte religieux (eschatologie), Ça a donc du sens pour lui ! Mais force est de constater que, jusqu’ici, les prédictions se sont révélées fausses.

Le dernier avatar est « l’effondrement de la société thermo-industrielle », annoncé d’ici quelques décennies. La force des arguments scientifiques rend plus crédible la prédiction. Toutefois, je pense que les mêmes biais perdurent. J’en vois notamment deux.

Le premier est qu’on a tendance à voir ce qui nous concerne directement. «Le Monde », c’est d’abord notre monde, celui où on vit, où on a des amis, un pays, une culture. Mais celui-ci peut s’effondrer ou disparaître sans pour autant que tous les groupes d’individus sur Terre le soit.

Le second est qu’il est difficile, voire impossible, de prévoir l’évolution d’un système aussi complexe qu’est la société thermo-industrielle. On a tendance à ne considérer que les tendances qui renforcent notre intime conviction, et à minimiser les autres.

Par exemple, je pense que le rôle de la violence est la plupart du temps ignoré. 60 ans de croissance et de paix relative en Occident nous ont fait oublier ce qu’est la guerre. Pourtant, celle-ci, qu’elle soit civile ou entre états, a pour but premier de réduire les risques d’une fin du monde… pour celui qui la gagne. Au vu de l’histoire de l’humanité, il est probable que les hommes vont se battre pour les territoires les moins impactés par le réchauffement climatique ou possédant encore des ressources aquifères, agricoles, minières ou énergétiques. Les guerres vont provoquer des réductions de la population, et une domination accrue pour les perdants, ce qui réduira l’empreinte écologique globale de l’humanité. La guerre du Rwanda (800.000 morts en 3 mois) pourrait en être le prémisse, comme le suggère Harald Welzer dans « Les guerres du climat: pourquoi on tue au XXIe siècle ».

Ce scénario est d’autant plus crédible que les progrès en Intelligence Artificielle permettront des guerres avec peu de soldats, des régimes autoritaires avec peu de policiers, des usines avec peu d’ouvriers, etc. Certes il faut des ressources pour maintenir une société thermo-industrielle avec de tels moyens, mais ceci n’est pas un problème si peu d’humains en profitent – les autres étant maintenus à l’état de misère, ou victimes de massacres et famines. Peu de consommateurs signifie aussi un plus faible impact pour le climat et une possible stabilisation des émissions à des niveaux pas trop dangereux.

Fait-il donc sens de prédire une telle « Fin du Monde », plutôt qu’une autre ? Oui, si cela permet de réfléchir, d’échanger et d’agir. Mais il faut être conscient des biais cognitifs que l’on a tous quand on prévoit l’avenir, qui sont bien étudiés par les spécialistes des sciences cognitives comme Daniel Kahneman. Il y a par exemple le biais de confirmation d’hypothèse, qui nous fait préférer les éléments qui confirment plutôt que ceux qui infirment une hypothèse. Ou l’effet d’ambiguïté, qui est notre tendance à éviter les options pour lesquelles on manque d’information. Ou le biais d’optimisme, qui fait qu’on se juge moins exposé à la plupart des risques qu’autrui. Ou la perception sélective, qui nous fait interpréter les faits selon nos intérêts ou notre expérience. Et bien d’autres.

La capacité à construire une image mentale du Monde et à anticiper les conséquences des actions est le propre de l’homme. Elle est issue d’un million d’années d’évolution biologique et culturelle du genre Homo, et a été un facteur déterminant de sa domination de la Nature. Notre cerveau est formaté par nos origines, notre perception des menaces, les points aveugles de notre psyché et nos instincts défensifs. Le problème, c’est que ce formatage n’est pas adapté aux nouvelles menaces planétaires, comme le réchauffement climatique, la chute de la biodiversité ou la guerre atomique. Nos capacités à prédire en sont affectées.

Pour contourner ce problème, le solution est de donner du sens à prédire la Fin de Monde: nos prédictions individuelles sont un moyen pour partager et enrichir notre vision du monde, car c’est dans cet imaginaire que les humains peuvent se retrouver, et dans lequel ils inscrivent leurs actions . On doit prédire la Fin de Monde pour que, in fine , celle-ci n’arrive pas.

Vive la Récession !?

Nous y sommes. De plus en plus d’économistes pensent que le monde risque d’entrer en récession en 2020, c’est à dire que le PIB – l’indicateur clef de l’économie – va baisser. Les raisons ne manquent pas : Protectionnisme, Brexit, endettement privé et public, bulles spéculatives prêtes à exploser, augmentation des taux d’intérêt, tensions géopolitiques et sur l’approvisionnement énergétique, faiblesse structurelle des banques centrales et privées, etc.

Pour tous, c’est une très mauvaise nouvelle, un risque majeur qu’il faut absolument éviter, car récession a toujours été synonyme de montée du chômage, recul des services publics, augmentation de la précarité, pour ne citer que ces conséquences. Personne n’a envie de revivre les situations de 1929, de 1998 en Argentine, ou de 2008 en Grèce.

D’autant plus que cette récession pourrait être sévère. La croissance mondiale moyenne diminue structurellement en effet d’années après années, tandis que le système financier n’a pas encore récupéré de la crise de 2008. Le prix du pétrole – cause des récessions de 1973, 1979 et 2008 – n’a jamais été aussi volatil, en partie du fait de la faiblesse de la production mondiale, en hausse seulement dans quelques pays – mais pour combien de temps ?

Mais cette récession pourrait être une bonne nouvelle pour le Planète, et en particulier pour le climat. En effet, les récessions passées ont été les seuls moments où les émissions de CO2 ont baissé, et il est fort probable que ça sera la même chose pour les prochaines. La raison est qu’une récession est, par définition, une baisse de l’activité économique mesurée par le PIB, et qu’il y a un couplage entre, d’une part, activité économique et consommations énergétiques, et d’autre part entre consommation d’énergie et émissions de CO2. Typiquement, depuis 50 ans pour chaque variation de 1% du PIB mondial, il y a une variation de 0.7% des émissions de CO2. Certes, les économistes et hommes politiques rêvent d’une « croissance verte », c’est-à-dire d’un découplage entre consommation d’énergie et activité économique, mais on n’en a jamais vu la couleur au niveau mondial (car un pays peut améliorer son intensité énergétique en important des biens plutôt que les fabriquer) .

En fait, une récession mondiale est sans doute le seul espoir qu’on ait pour voir baisser les émissions de CO2 à un niveau compatible avec une stabilisation du climat à +2°C. Il ne faut en effet pas compter sur la volonté des USA, l’Inde ou la Chine pour y arriver ni sur les promesses des pays européens, toujours à la recherche de plus de croissance pour maintenir nos modes de vie destructeurs. Il ne faut pas non plus compter sur le progrès technique, qui n’a jusqu’ici pas tenu ses promesses pour améliorer la situation, et les facteurs qui limitent son impact pour la lutte contre le réchauffement climatique sont toujours là, tels que l’effet rebond, la quantité d’énergie toujours croissante pour extraire des matériaux ou fabriquer des objets technologiques, les limites du recyclage, l’acceptabilité sociale au changement, le financement, le coût environnemental des activités de services, etc.

Plus vite et plus forte donc sera la baisse de l’activité économique mondiale, plus forte seront nos chances d’éviter un emballement catastrophique du réchauffement climatique.

Certes, il eût mieux valu que le Monde prenne une autre direction, par exemple après le rapport Meadows sur les limites de la croissance. Il eût été préférable qu’on écoute les décroissants, qu’on développe une vision de la prospérité qui ne soit pas basée sur le pouvoir d’achat et la croissance du PIB, qu’on réduise les inégalités dans le monde, qu’on sort des énergies fossiles. On aurait mieux fait de limiter le libre-échange et la financiarisation de l’économie, et d’intégrer le coût réel des externalités écologiques de nos activités productrices.

Mais on ne l’a pas fait, et il n’est plus temps de changer démocratiquement le système partout dans le monde, ou trouver des solutions technologiques. Pour citer Churchill,  « le temps de la procrastination, des demi-mesures, de l’apaisement des craintes, des expédients déconcertants et des délais touche à sa fin. Nous voici à l’aube d’une période de conséquences« .  Face à l’urgence climatique, les récessions vont nous obliger à agir réellement pour le climat, enfin.

Soyons clairs : les risques que des récessions conduisent à des crises sociales majeures et à des régimes autoritaires sont très forts. En particulier, partout dans le monde des partis d’extrême droite et des élites sans scrupules sont en embuscade, utilisant la démagogie et la désignation de boucs émissaires pour pousser leur pions.

Mais d’un autre côté, les récessions sont inévitables, et elles sont requises pour éviter une catastrophe climatique.
Comment faire pour sortir de cette situation ?

La solution est l’écologie politique. Elle seule peut développer un imaginaire susceptible d’être suivi par le plus grand nombre, permettant à l’inévitable crise économique et financière qui vient de devenir la matrice d’une nouvelle société écologique décroissante.

Et de fait, beaucoup des mesures pour rendre les récessions acceptables, et déjà mises en oeuvre dans des crises passées, sont, ou ont été, dans les programmes des partis écologistes : relocalisations, réduction du temps de travail, nouveaux indicateurs de richesse, monnaies locales, systèmes d’échanges locaux, économie sociale et solidaire, redistribution, rationnements pour contenir les inégalités face aux pénuries, transport doux, low-techs, …

Tous les partis politiques se targuent aujourd’hui d’être écologistes.  Tant mieux.  Mais les seuls qui le sont vraiment sont ceux qui reconnaissent qu’on ne peut pas compter sur un découplage PIB/CO2, c’est à dire que la baisse du PIB est à la fois nécessaire pour éviter une catastrophe climatique, et inévitable. Donc qui souhaitent la récession, une récession comprise et acceptée par les citoyens, accompagnée par les Etats pour en limiter les conséquences . La seule alternative à la barbarie.

— Thierry Caminel
Peut être rediffusé sans restriction

Annexes :

  • De nombreuses études montrent pourquoi il ne peut y avoir de découplage entre PIB et énergie ou CO2. Voir la récente étude Decoupling Debunked, publiée par l’European Environmental Bureau en 2019, pour une liste assez exhaustive. 

    Voir aussi mes propres analyses .
  • Cette courbe montre que la consommation énergétique mondiale continue d’augmenter proportionnellement au PIB. Il n’y a pas de début de découplage (chaque point correspond à une année). On ne voit en particulier pas l’impact de l’informatique et de la supposée « dématérialisation de l’économie ». La courbe avec le CO2 est similaire (car l’électricité mondiale est toujours aussi carbonée).

PIB Mondial vs Consommation Mondiale, de 1965 à 2018.  Source: JM Jancovici

  • Ces courbes montrent l’évolution comparée du PIB et de la consommation énergétique en Grèce, avant et pendant la crise. On y voit qu’il n’y a pas de découplage. Notez que les évolutions de CO2 ont baissées de même: les Grecs sont devenus très écolos du fait de la crise.
    Le même phénomène est arrivé en Espagne à la même époque, en URSS en 1989, et plus généralement lors de toute les récessions.
  • Une autre courbe (en log/log) sur la relation entre PIB par habitant et émissions de CO2 par habitant, cette fois pays par pays.
  • Evolution mondiale du PIB, des émissions de CO2 et de la consommation énergétique. Notez les baisses simultanées en 1973, 1979 et 2008.
    Source: J.M. Jancovici

Information versus Effondrement

Information versus Effondrement

Comment tout ne va pas s’effondrer

(  Article associé à un séminaire à l’Institut Momemtum le 13 Octobre 2018.
 Un support de présentation sur ce sujet est disponible à https://goo.gl/bxVca9)

 

Il est devenu courant d’entendre de nos jours des propos sur « l’effondrement de LA société industrielle ». Mais c’est sans doute trop simpliste. Nous soutiendrons dans cet article que, en certains lieux, le capital informationnel qui caractérise cette civilisation (techniques, procédés, savoir-faire, organisations… ) continuera d’augmenter, ainsi que la résilience au réchauffement climatique et à la déplétion des ressources.

Nous partirons de la définition de l’effondrement de Joseph Tainter, un des pionniers de l’approche scientifique de cette notion. Elle tient en 3 points : 1/ Plus une société est complexe, plus elle requiert de l’énergie ; 2/ Après avoir épuisé l’énergie bon marché et la dette abordable, elle perd sa capacité à résoudre ses problèmes ; 3/ L’effondrement est la simplification rapide d’une société.

Cette définition lie l’effondrement à la notion de complexité, et celle-ci aux flux énergétiques. C’est un lien qu’étudie aussi la thermodynamique, en particulier à partir des travaux de Igor Prigogine sur les structures dissipatives : ce sont des structures qui reçoivent un flux énergétique de l’extérieur, mais qui créent des formes d’organisation à l’intérieur via importation et mémorisation de l’information. L’eau qui bout dans une casserole est l’image classique d’une telle structure, mais c’est aussi valable pour les cellules qui mémorisent l’information dans l’ADN, et pour les sociétés humaines qui la mémorisent via la transmission culturelle.

Ainsi l’évolution biologique se traduit par une augmentation de la complexité (des organismes eucaryotes aux animaux), qui a pour support une information stockée dans les gènes sous forme d’ADN. Selon la théorie darwinienne, les gènes se répliquent, évoluent par altérations et fusions, et transmettent les changements favorables à leur descendant. Ils augmentent ce faisant leur capacité à se perpétuer et à s’adapter à l’environnement, c’est-à-dire à ‘résoudre les problèmes’ selon les termes de Tainter.

L’évolution de la culture humaine est similaire. Les pratiques agricoles par exemple se transmettent de génération d’agriculteurs à la suivante, via le langage, l’imitation, les livres ou, plus récemment, Internet. Elles peuvent évoluer par le hasard ou l’adaptation de pratiques développées par ailleurs.  Les pratiques les plus efficaces augmentent la résilience des sociétés qui les adoptent, ce qui renforce leur diffusion. Il en est de même pour les pratiques militaires, les savoir-faire pour fabriquer des objets, les capacités à échanger ou à organiser une société en croissance démographique, etc.

Ces évolutions peuvent être considérées comme l’évolution d’algorithmes. Une recette culinaire est l’exemple typique d’un algorithme, et nous pouvons aussi considérer les pratiques agricoles, militaires ou de fabrication d’objets comme des algorithmes. Nous les appellerons ‘algorithmes culturels”. Les gènes peuvent aussi être considérés comme des algorithmes, que nous qualifierons de ‘biologiques”. Ils permettent la fabrication pas-à-pas de protéines et d’organismes selon un programme codé dans l’ADN. Les comportements des animaux, comme la sélection du partenaire pour assurer la reproduction, ou les choix à prendre face à un prédateur, sont aussi des algorithmes biologiques susceptibles de s’améliorer de génération en génération.

La révolution que nous vivons est liée à l’apparition d’une nouvelle forme d’algorithmes : les algorithmes numériques. Ceux-ci évoluent par des mécanismes similaires à ceux décrits précédemment : il y a un processus de génération de variantes, puis de sélection des celles qui apportent un avantage, et finalement transmission à une nouvelle génération.  Par exemple, des dizaines de milliers d’informaticiens modifient tous les jours des algorithmes numériques disponibles en open source. Une de ces modifications pourrait avoir un intérêt pour améliorer une fonctionnalité du noyau Linux, être sélectionnée et intégrée dans le noyau, et se retrouver quelques années plus tard dans des millions de smartphones et d’ordinateurs.  

Le processus de création et d’amélioration des algorithmes numériques est en train de s’accélérer.  Plusieurs processus sont en cours : d’une part, le « big data » et l’apprentissage automatique permettent de créer des algorithmes à partir de très grands volumes de données. C’est ainsi qu’un ordinateur peut faire un algorithme pour reconnaître un objet si on lui a fourni au préalable des centaines d’images de cet objet. C’est la technique de base de l’intelligence artificielle (IA). Mais d’autres techniques plus puissantes apparaissent, où des algorithmes créent d’autres algorithmes avec peu de données. Par exemple, le programme de jeu de Go développé par Google, qui a gagné contre le champion du monde, a d’abord été entraîné à évaluer des positions à partir d’un catalogue d’un million de parties jouées par des humains. Puis, une nouvelle version a appris à évaluer la position seulement en jouant des milliers de parties contre elle-même.  Le processus s’apparente d’ailleurs à l’évolution biologique : après chaque jeu, quelques changements sont introduits dans la version qui a gagné pour produire d’autres versions, qui jouent les unes contre les autres, etc.

Un autre processus d’accélération est la concentration des données et des algorithmes dans les grandes plateformes numériques, telles que celles détenues par Amazon, Microsoft, Google ou Alibaba, qui proposent des services facilitant la composition de milliers d’algorithmes qu’elles mettent à disposition. Ces services sont utilisés par ces entreprises pour leurs besoins propres, mais aussi par d’autres entreprises, notamment les startups pour développer de nouvelles idées à moindre coût. Ces startups, à leur tour, peuvent mettre en open source leurs propres variantes, qui pourront éventuellement être intégrées à ces plateformes. Elles peuvent aussi développer leur propre plateforme (comme Uber, AirBnB,..), essentiellement pour fournir des services qui vont servir à collecter des données, et alimenter ainsi la création d’algorithmes par des techniques d’apprentissage automatique.  Les plateformes numériques servent ainsi de catalyseurs : en mettant à proximité données et algorithmes, et en facilitant la modification et combinaison des algorithmes ainsi que la création de ceux-ci par apprentissage, elles accélèrent le processus de création et d’amélioration des algorithmes numériques. C’est cette amélioration exponentielle des algorithmes numériques qui explique qu’ils sont en train de remplacer algorithmes biologiques et culturels pour de plus en plus de tâches.

Tous les pays industrialisés luttent maintenant pour développer et contrôler les algorithmes d’IA, car ils sont une partie essentielle de leur souveraineté et de leur indépendance.  Le contrôle du processus d’innovation et des plates-formes deviennent d’une importance capitale, et la Chine et les gouvernements américains ont pris un avantage certain. Ils l’ont obtenu via les agences de recherche militaires, comme le DARPA aux USA, qui investissent massivement, et souvent en cofinancement avec les grands fournisseurs de plates-formes commerciales. En résulte un flux de nouvelles idées et d’algorithmes, qui sont sélectionnés d’une manière ou d’une autre. Ceux qui apportent un avantage sont incorporés dans ces plateformes pour les usages commerciaux, mais peuvent également être utilisés par les États pour contrôler l’information et améliorer leur défense (comme les armes basées sur l’IA, les systèmes de renseignement, etc).

Revenons maintenant à l’effondrement. Notre analyse est qu’une nouvelle forme de structure dissipative est en train d’émerger, essentiellement aux USA et en Chine, où s’accumulent des algorithmes numériques qui leur permettent une meilleure connaissance de l’environnement, et des capacités accrues d’agir sur lui. C’est un peu comme l’évolution biologique et culturelle, mais ici l’environnement est perçu grâce à des algorithmes qui surveillent l’Internet, contrôlent et analysent des images de satellites, drones ou les caméras dans les rues, etc. L’action sur l’environnement se fait via d’autres algorithmes au coeur de système d’armes sophistiquées, de robots (pour fabriquer des objets, combattre, lutter dans la cybersphère…), ou d’autres algorithmes permettant la propagande de masse.

Grâce à ces algorithmes, les structures dissipatives pourront s’approprier les ressources naturelles (énergie et matière première) nécessaires à leur adaptation à un monde où ces ressources deviendront de plus en plus rares. Par ailleurs, les algorithmes numériques pourront aussi modifier directement les algorithmes biologiques codés dans l’ADN via les techniques de modification génériques comme CRISPR, pour notamment accélérer l’adaptation des plantes au réchauffement climatique.  Avec les outils de propagandes et de contrôle de l’information, il sera possible de contrôler les populations et, associé à quelques contraintes, l’amener à s’adapter plus vite aux changements à venir. Ce sera d’autant plus facile que les robots et le remplacement grandissant des emplois humains par des algorithmes affaiblissent la plupart des classes sociales, limitant leur capacité de réaction par la grève. Les algorithmes augmenteront aussi la résilience des sociétés en facilitant la transmission du savoir par Internet, la mise en place de systèmes de rationnements, la création de monnaies locale, l’optimisation des déplacements et flux d’énergie.

Reprenons l’exemple de la Chine pour illustrer nos propos. Le réchauffement climatique et la déplétion des ressources fossiles pourraient y provoquer de gigantesques famines, de très fortes tensions sociales, un effondrement financier, économique et politique, etc. Mais le Parti communiste chinois (PCC), dernier avatar d’un système politique commencé il y a 2200 ans, n’est pas inactif. Il investit massivement dans la recherche en IA et toute la chaîne en amont de traitement de l’information, depuis les métaux rares pour fabriquer les puces électroniques jusqu’à l’infrastructure internet, ce qui lui permet de construire des systèmes de propagandes et de contrôles de la population jamais vue dans l’histoire, et bientôt d’avoir tous les économiques contrôlés et optimisés par de l’IA. Il développe la puissance militaire et une stratégie pour contrôler l’accès aux matières premières qui manquent, en particulier alimentaires. Il fait étudier toutes les sortes de centrales nucléaires à surgénération, ce qui, en complément des énergies renouvelables, des smart-grids et du charbon, devrait atténuer les conséquences du pic de production de pétrole, notamment via l’électrification des transports. Tout cela, et bien d’autres éléments, laissent à penser que le PCC se prépare à un effondrement, et accumule des moyens de ‘résoudre les problèmes’ – pour reprendre l’analyse de Tainter – même avec moins d’énergie et de ressources naturelles. Les algorithmes et les biotechnologies seront cruciaux, pour toutes les raisons que nous avons présentées, ce qui nécessite et justifie la continuation d’une société industrielle, au service d’une minorité.

Nous avons donc 2 phénomènes concomitants. Dans certains endroits de la planète, l’accumulation d’information algorithmique permet une augmentation de la complexité qui augment fortement les capacités d’adaptation à un environnement en rapide changement, notamment grâce à l’IA et les biotechnologies. Les armées auront un rôle essentiel, car elles sont capables d’accaparer les ressources, maintenir la complexité d’une société même en cas de crise, focaliser la recherche, construire des infrastructures, réduire la concurrence etc.  

Mais partout ailleurs, le réchauffement climatique, la déplétion des ressources et le pillage de celles restantes entraîneront effondrement, guerres et famines,réduction de la population et de la complexité et la capacité de s’adapter. L’empreinte écologique globale se réduira fortement, ce qui éloignera la Terre des seuils – notamment climatiques – susceptible de la rendre quasiment inhabitable pour l’homme.

Nous avons montré que le développement des algorithmes s’accélère, et ça devrait continuer en nécessitant de moins en moins de données et d’énergie. Les processus d’effondrement vont aussi s’accélérer, car ils impliquent des boucles de rétroaction positives comme le montrent toutes les études de collapsologie. Ces 2 évolutions de nature exponentielles s’opposent, et il est impossible de prévoir comment elles vont s’imbriquer. On peut toutefois imaginer qu’une situation assez stable émerge, dans laquelle continueraient à se développer des sociétés complexes, très technologiques, efficaces en matières premières, probablement impérialistes, peu nombreuses et relativement peu peuplées. Un futur hélas pas réjouissant pour la grande majorité des autres habitants de la planète, et notamment sans doute pour nous, Européens.

 

IA et Evolution Darwinienne des Algorithmes

 

[Article publié par NXU Think Tank le 11 octobre 2018 ; C’est essentiellement une traduction de Algorithms Darwinism And AI – What Is Driving Algorithms Evolution ]

 

Nous vivons une révolution technologique, amenée par des systèmes basés sur des techniques d’Intelligence Artificielle (IA) qui sont sur le point de faire aussi bien que les humains pour une large gamme d’activités, telles que conduire une voiture, répondre aux demandes des clients, recommander un livre, ou diagnostiquer des maladies. Ces systèmes sont constitués de centaines de milliers d’algorithmes informatiques enchevêtrés, qui évoluent rapidement, tellement rapidement que cela suscite de nombreuses inquiétudes quant aux impacts sur les sociétés humaines. Mais quelles sont les lois qui régissent ces évolutions ?

Dans cet article, nous proposons une réponse provocante à cette question : nous suggérons que les lois darwiniennes, qui régissent l’évolution biologique et culturelle, régissent aussi l’évolution des algorithmes informatiques.  Les mêmes mécanismes sont à l’œuvre pour créer de la complexité, des cellules aux humains, des humains aux robots.

Plus précisément, nous nous concentrerons sur la théorie du Darwinisme Universel, une version généralisée des mécanismes de variation, de sélection et d’hérédité proposés par Charles Darwin, déjà appliquée pour expliquer l’évolution dans une grande variété d’autres domaines, comme l’anthropologie, la musique, la culture ou la cosmologie. Selon cette approche, de nombreux processus évolutifs peuvent être décomposés en trois composantes : 1/ Variation d’une forme ou d’un modèle donné, typiquement par mutation ou recombinaison ; 2/ Sélection des variantes les plus adaptées ; 3/ Hérédité ou rétention, permettant de conserver et transmettre ces variations.

Nous commencerons par donner des exemples simples, pour illustrer comment ce mécanisme s’intègre bien dans l’évolution des algorithmes « open source ». Cela nous amènera à considérer les grandes plateformes numériques comme des organismes, où les algorithmes sont sélectionnés et transmis. Ces plateformes ont un rôle important dans l’émergence des techniques d’apprentissage automatique, et nous étudierons cette évolution du point de vue darwiniste dans la section 2.  Dans la troisième section, nous élargirons notre champ d’action et nous ferons nôtre la vision selon laquelle les gènes et certains éléments de la culture peuvent être considérés comme des algorithmes, de même que la concurrence pour les emplois entre l’homme et les machines peut être assimilée à un processus darwinien, mû par le passage des algorithmes humains aux algorithmes numériques. Dans la dernière section, nous étudierons plus en détail certaines des boucles de rétroaction qui sous-tendent l’évolution des algorithmes biologiques, culturels et numériques. Ces boucles de rétroaction aident à comprendre la fantastique rapidité d’évolution des algorithmes que nous voyons de nos jours, et mènent à des aperçus troublants sur le transhumanisme et les conséquences potentielles de l’IA dans nos sociétés.

1 – L’Évolution Darwinienne des Algorithmes Informatiques

Commençons par un exemple. De nombreux chercheurs et entreprises travaillent à l’amélioration du noyau du système d’exploitation open source ‘Linux’. Qu’ils travaillent sur de nouveaux concepts, ou sur une légère amélioration des algorithmes, le processus allant d’une idée d’amélioration au changement introduit dans la version principale du noyau (le ‘tronc’) est long, et beaucoup d’idées ou de propositions n’auront pas de suites. Mais si une modification est acceptée, alors le changement sera conservé pendant longtemps dans la base de code Linux. Elle servira de référence pour les travaux futurs, et pourrait être à un moment donné déployé sur des millions d’ordinateurs sous Linux, des smartphones aux supercalculateurs.

Nous voyons que la description du darwinisme universel ci-dessus est valable pour notre exemple: 1/ Des variantes des nombreux algorithmes Linux sont continuellement créées, typiquement en changeant une partie d’un algorithme existant ou en combinant différents algorithmes (souvent développés dans un autre contexte) 2/ Les meilleures variations apportant un bénéfice sont sélectionnées, et mises dans une version du noyau Linux 3/ Cette version du noyau est intégrée dans des milliers de produits, et deviennent la base de nouvelles évolutions. Tout comme les gènes survivent et continuent d’évoluer après la mort des cellules, les algorithmes de votre smartphone continuent d’évoluer après que vous ayez décidé de la changer pour un nouveau avec des algorithmes améliorés ou plus de fonctionnalités.

Plus généralement, tout le mouvement open-source suit ce processus évolutif. Sur Github par exemple – la plus grande plate-forme de développement open-source, des millions de projets existent et sont continuellement copiés, modifiés et recombinés par des millions de développeurs de logiciels. Certains changements sont sélectionnés pour être introduits dans la ligne principale d’un produit et deviennent stables et susceptibles d’être réutilisés dans de nombreux projets, tandis que la plupart d’entre eux sont oubliés. L’analogie avec l’évolution des gènes est forte :  le contenu génétique des organismes mute et se recombine avec d’autres continuellement, et, parfois, des changements apportent un avantage et sont conservés dans de longues lignées de descendants.

Les codes des projets open-sources les plus intéressants sont intégrés en combiné dans de grandes plateformes de Cloud Computing, comme celle détenue par Amazon (Amazon Web Services) ou ses concurrents tels que Microsoft, Google ou Alibaba, qui proposent des services facilitant la composition de milliers d’algorithmes qu’elles mettent à disposition. Ces services sont utilisés par ces entreprises pour leurs besoins propres, mais aussi par d’autres entreprises, notamment les startups pour développer de nouvelles idées à moindre coût. Ces startups, à leur tour, peuvent mettre en open-source leurs propres variantes, qui pourront éventuellement être intégrées à ces plateformes. Ces plateformes servent ainsi de catalyseurs : elles font appliquer le processus évolutif darwiniste décrit ci-dessus en accélérant la combinaison, la sélection et la rétention des algorithmes.

2 – Évolution darwiniste des algorithmes de l’IA

Les services fournis par ces plateformes permettent de collecter beaucoup de données, ce qui conduit également à une percée majeure dans la dynamique d’évolution des algorithmes. En effet, les techniques d’apprentissage automatique permettent de créer des algorithmes à partir de données. Historiquement, la plupart des algorithmes ont été créés méticuleusement par les humains. Mais de nos jours, les systèmes d’apprentissage automatique utilisent des méta-algorithmes (par exemple, les réseaux de neurones artificiels) pour créer de nouveaux algorithmes. Ces algorithmes peuvent être appelés ‘modèles’ ou ‘agents’. Ils sont généralement créés en étant alimentés par de très grands ensembles de données d’exemples (« Big Data ») mais pas seulement.

Les progrès des algorithmes pour jouer au jeu de Go illustrent cette évolution. Pendant des décennies, les programmeurs ont développé et amélioré manuellement des algorithmes pour évaluer les positions et les mouvements du jeu. Mais de nos jours, les meilleurs logiciels utilisent des techniques d’apprentissage automatique, et en particulier les réseaux neuronaux profonds (« Deep Learning »). Ces réseaux ont, dans une première étape, été entraînés à évaluer des positions du jeu Go à partir d’un catalogue d’un million de parties jouées par des humains. Ceci a permis à Google AlphaGo de gagner contre des champions du monde humains. Puis, une nouvelle version appelée AlphaZero a supprimé cette contrainte, et a appris à évaluer la position en jouant des milliers de parties contre elle-même.  Le processus peut être considéré comme darwiniste : après chaque jeu, quelques changements sont introduits dans la version qui a gagné pour produire d’autres versions, qui jouent les unes contre les autres, etc.  Et juste en changeant les règles initiales, AlphaZero a appris en quelques heures à devenir aussi un grand maître aux échecs !

Aux niveaux inférieurs, il existe un mécanisme similaire appelé « apprentissage par renforcement » (Reinforcement learning). C’est l’une des méthodes clés à l’origine de l’explosion de l’IA que nous observons actuellement, utilisée notamment pour la traduction automatique, les assistants virtuels ou les véhicules autonomes.  Le but est d’optimiser une séquence d’action pour atteindre un but de manière optimale (par exemple dans le jeu de Go, une séquence de placement de pierres pour maximiser l’encerclement du territoire adverse). Dans cet algorithme, un agent (c’est-à-dire un algorithme) sélectionne une action sur la base de ses expériences passées. Il reçoit une récompense numérique qui mesure le succès de son résultat, et cherche à apprendre à sélectionner les actions qui maximisent cette récompense. Au fil du temps, les agents apprennent ainsi comment atteindre un but.  Pour améliorer le processus, un grand nombre de réseaux de neurones programmés au hasard peuvent être testés en parallèle. Les meilleurs sont sélectionnés et dupliqués avec de légères mutations aléatoires, et ainsi de suite pendant plusieurs générations. Cette approche est appelée « neuroévolutive » et basée sur des « algorithmes génétiques », illustrant la similitude avec l’évolution biologique. La fonction qui mesure le progrès vers les objectifs peut aussi être remplacée par une mesure de nouveauté, qui récompense un comportement différent de celui des individus précédents. Les chercheurs qui travaillent sur ces techniques d’IA, comme Ken Stanley, sont explicitement inspirés par la propension naturelle de l’évolution naturelle à découvrir perpétuellement la nouveauté.

3 – Le darwinisme et la numérisation des algorithmes humains

On discute beaucoup des impacts de l’IA sur les activités humaines, et il y a un consensus sur le fait que les robots et les agents virtuels, alimentés par des algorithmes d’IA, pourraient remplacer les humains dans de nombreuses activités.   Or, ces activités sont permises par nos capacités cognitives, qui sont la conséquence de centaines de milliers d’années d’évolution darwinienne. On peut donc considérer qu’il y a une certaine équivalence entre les algorithmes et ces fonctions cognitives, et que celles-ci peuvent être considérées comme des algorithmes biochimiques. Par exemple, des algorithmes numériques comme ceux de la vision par ordinateur sont comparables, et potentiellement interchangeables, avec des fonctions codées dans les gènes. Cette analogie a amené l’expert en robotique Gill Pratt à poser la question suivante : » Est-ce qu’une explosion cambrienne est imminente pour la robotique?« , parce que l’invention de la vision au Cambrien a été la clé de voûte de l’explosion des formes de vie, et que quelque chose de semblable pourrait se passer si la vision est donnée aux ordinateurs. Les machines pourraient par exemple apprendre comment le monde physique fonctionne en « voyant » des milliers de vidéos, tout comme un bébé apprend la gravité et la conservation de l’inertie en observant le monde qui l’entoure. C’est actuellement un sujet de recherche actif pour les chercheurs en IA.

L’interchangeabilité des algorithmes entre l’humain et les machines est abordée par Yuval Noah Harari dans son best-seller « Homo Deus: Une brève histoire du futur« . L’un des concepts clés qu’il développe est que les organismes ont des algorithmes biochimiques pour « calculer » ce que l’on considère généralement comme des « sentiments » ou des « émotions », comme la meilleure décision à prendre pour éviter un prédateur, ou pour choisir un partenaire sexuel.  Bien que ce ne soit pas explicitement mentionné dans le livre, ces algorithmes suivent un processus darwinien : ils se sont améliorés au cours de millions d’années d’évolution, et, si les sentiments de certains ancêtres ont conduit à une erreur, les gènes qui façonnent ces sentiments ne sont pas passés à la génération suivante. Harari soutient que les algorithmes numériques et les algorithmes biochimiques ont la même nature, et que les premiers sont susceptibles de devenir plus efficaces pour la plupart des tâches que les derniers.

Certains chercheurs, comme Richard Dawkins, considèrent également que les comportements ou les pratiques qui se propagent au sein d’une culture suivent des processus de Darwinisme universel. Les pratiques culinaires, les techniques agricoles, les croyances religieuses ou les stratégies guerrières sont des exemples typiques, mais les processus et le savoir-faire des entreprises entrent également dans cette catégorie.  Le fait est que la plupart des mèmes sont des algorithmes : les recettes de cuisine sont de fait un exemple courant pour expliquer ce qu’est un algorithme. On peut donc considérer la transformation numérique des processus et des compétences dans les entreprises comme une transformation de la nature des algorithmes sous-jacents, depuis des algorithmes culturels vers des algorithmes numériques. Ceux-ci ont d’abord été développés par des informaticiens, qui ont codé explicitement des processus d’entreprises devenus de plus en plus automatisés. Mais ils sont maintenant complétés par l’apprentissage automatique, ce qui permet d’augmenter encore le niveau d’automatisation (par exemple en utilisant des algorithmes d’intelligence artificielle qui comprennent le langage naturel ou optimisent des activités complexes), ou d’améliorer les processus, en analysant le flux de données toujours croissant. Les entreprises n’ont d’autre choix que de s’adapter. Alors que le monde est de plus en plus bouleversé par les bouleversements numériques, la phase de Charles Darwin « ce n’est pas l’espèce la plus forte qui ne survit ni la plus intelligente ; c’est celle qui s’adapte le mieux au changement » est plus que jamais vraie.

Cette transformation numérique de l’entreprise conduit également à une compétition entre les humains et les machines, comme l’expliquent Erik Brynjolfsson et Andrew McAfee dans leur livre « Race Against The Machine« .  C’est en effet une compétition darwiniste entre des formes d’algorithmes. Par exemple, les algorithmes basés sur l’apprentissage automatique d’Amazon sont en compétition avec ceux acquis par les libraires pour conseiller un client. Amazon développe aussi des systèmes basés sur l’IA pour le contrôler ses centres de données, gérer ses entrepôts et systèmes logistiques et automatiser les processus métier, ce qui leur permet de diminuer inexorablement l’intervention humaine.  Quant aux algorithmes sous-jacents, ils sont continuellement améliorés par les développeurs, mais beaucoup ne sont même pas embauchés par Amazon grâce aux communautés Open Source. Les algorithmes sont également améliorés par de l’apprentissage automatique, en utilisant l’énorme quantité de données générées acquises par la plate-forme. Les humains peuvent difficilement rivaliser.

4 – Fermeture de la boucle et autocatalyse des algorithmes

Nous avons vu que les algorithmes numériques ont tendance à remplacer ou à compléter les algorithmes biochimiques et culturels (y compris les processus d’entreprise), et qu’il existe des boucles de rétroaction positives entre les deux cas.  Mais d’autres boucles de rétroaction méritent d’être étudiées.

Par exemple, la diffusion des connaissances est accélérée par les technologies de l’information comme Internet, les smartphones, les cours en ligne, les moteurs de recherche, les assistants personnels, etc. Or ces technologies de l’information s’appuient sur de nombreux algorithmes numériques. Les algorithmes numériques accélèrent donc le rythme de diffusion des algorithmes culturels (par exemple, la formation en informatique), qui peuvent en retour accélérer le développement des algorithmes numériques.

Un autre exemple, assez différent, est le progrès récent dans la manipulation de l’ADN, tels que les techniques appelées CRSIPR/Cas9. Ces progrès sont la conséquence des avancées en algorithmique numérique pour séquencer l’ADN et déterminer sa fonction. Mais l’ADN est le support physique d’algorithmes pour créer des protéines. Par conséquent, les algorithmes numériques permettent la modification des algorithmes génétiques. Les répercussions pourraient être considérables dans l’avenir, car nous remplaçons l’ancienne évolution génétique, basée sur des mutations aléatoires, par des modifications ciblées du code génétique contrôlé par des algorithmes numériques.  Ce n’est pas de la science-fiction : ces modifications ont déjà été appliquées sur des animaux, pour traiter certaines maladies. Cela donne un certain poids à l’opinion des transhumanistes, qui estiment que ces techniques pourraient, un jour, être aussi utilisées pour étendre les capacités biologiques des humains…

Le diagramme suivant illustre ces relations : 

Nous l’avons vu, les plates-formes numériques permettent l’acquisition de données et l’exécution d’algorithmes. Elles réduisent la distance et les incompatibilités entre les données et les algorithmes, et, ce faisant, elles agissent comme des catalyseurs, permettant plus facilement d’appliquer des algorithmes aux données, et de créer des algorithmes à partir de données. Les algorithmes aident les développeurs à créer des algorithmes, et aident les spécialistes de l’apprentissage automatique à transformer les données en algorithmes. Les algorithmes ainsi créés sont ensuite utilisés dans les applications et les services hébergés par les plateformes, qui permettront à leur tour d’acquérir plus de données et gagner de l’argent pour investir dans de nouvelles versions, etc.  Les plus grandes sociétés d’IA comme Google, Facebook ou Baidu se battent d’ailleurs pour créer des écosystèmes de développeurs qui pourront créer et développer de nouvelles idées d’algorithmes, de nouvelles variantes, les combiner, etc. C’est probablement la principale raison pour laquelle elles ont, par exemple, toutes mis en open-source leurs logiciels sophistiqués d’apprentissage profond (Deep Learning), afin d’amener les développeurs à utiliser leurs plateformes pour partager, modifier ou combiner du code, héberger les résultats, et augmenter ainsi la rétention des algorithmes dans leur écosystème.

Dans un proche avenir, ces plateformes dans le Cloud permettront aussi le partage des connaissances entre robots. Supposons par exemple qu’une voiture autonome rencontre une situation inhabituelle. Celle-ci pourra être envoyée vers la plateforme du fabricant, qui pourra l’utiliser pour re-entraîner les algorithmes de détection, et envoyer la nouvelle version vers tous les véhicules. Le processus pourra être largement automatisé, permettant des adaptations rapides aux changements de l’environnement.

Cette automatisation peut aller plus loin. Comme nous l’avons vu au sujet du jeu de Go, les progrès de l’apprentissage automatique autonome (« automated machine learning ») permettent aux algorithmes de créer de nouveaux algorithmes avec peu, ou pas, d’assistance humaine. Les réactions entre algorithmes dans les plates-formes qui les hébergent peuvent de ce fait être considérées comme autocatalytiques : ce sont des méta-algorithmes qui utilisent la proximité entre données et algorithmes au sein des plateformes pour créer de nouveaux algorithmes ou méta-algorithmes.  Or selon certains scientifiques comme Stuart Kauffman, l’autocatalyse joue un rôle majeur dans l’origine de la vie, et plus généralement dans l’émergence de systèmes auto-organisés. Nous pensons que l’autocatalyse des algorithmes numériques est la percée majeure de l’IA, qui explique le mieux les progrès exponentiels que nous constatons.

Tous les pays industrialisés sont maintenant conscients de cette percée, et luttent pour développer et contrôler les algorithmes d’IA, car ils deviennent une partie essentielle de leur souveraineté et de leur indépendance.  Le contrôle du processus d’innovation et des plates-formes deviennent d’une importance capitale. La Chine et les gouvernements américains, par exemple, en particulier les agences militaires et de renseignement comme le DARPA, investissent massivement dans la R&D autour du traitement des données et de l’intelligence artificielle, souvent en cofinancement avec les grands fournisseurs de plates-formes commerciales. En résulte un flux de nouvelles idées et d’algorithmes, qui sont sélectionnés d’une manière ou d’une autre. Celles qui apportent un avantage sont incorporées dans ces plateformes pour les usages commerciaux, mais peuvent également être utilisé par les Etats pour contrôler l’information et améliorer leur défense (comme les armes basées sur l’IA, les systèmes de renseignement…).  Nous voyons ici clairement un processus de Darwinisme Universel.

En réaction, on voit émerger des initiatives comme OpenAI, financé par Elon Musk, dont le but est de « contrecarrer les grandes entreprises qui peuvent gagner trop de pouvoir en possédant des systèmes de super-intelligence consacrés aux profits, ainsi que les gouvernements qui peuvent utiliser l’IA pour prendre le pouvoir et même opprimer leurs citoyens ». Le premier projet est une plateforme open source pour aider à développer collaborativement des algorithmes d’apprentissage par renforcement, qui resteront libre de droits. Une telle plate-forme pourrait être un moyen d’éviter la rétention des algorithmes dans certains « organismes » comme les gouvernements et quelques grandes entreprises.  Nous verrons si une telle initiative réussit, mais elle nous semble être une bonne illustration de la dynamique de l’évolution des algorithmes et ses conséquences que nous avons décrites.

5 – Conclusion

L’évolution des algorithmes est un sujet crucial pour comprendre l’évolution de notre civilisation. En regardant le passé, cette évolution peut à priori sembler imprévisible. Par exemple, personne, il y a 20, 10 ou même 5 ans, n’a été capable de prédire l’évolution des algorithmes d’IA ou la croissance de Facebook. Pourtant, cette évolution n’est pas aléatoire, car elle résulte de millions de décisions rationnelles, prises par une myriade d’acteurs comme les ingénieurs logiciels, les consommateurs, les entreprises et les agences gouvernementales.

Dans cet article, nous avons étudié l’idée que cette évolution a de fortes similitudes avec l’évolution biologique et culturelle, qui ont conduit à des ruptures telles que l’explosion cambrienne il y a 500 millions d’années, ou l’invention de l’agriculture il y a 12 000 ans. Notre thèse est que les mêmes principes du darwinisme universel s’appliquent, ce qui éclaire la manière dont les algorithmes évoluent au fil du temps, et ce dans des contextes aussi variés que le développement des logiciels dans les communautés open source, les plateformes numériques, la transformation numérique de notre société, les progrès de l’IA et l’impact de celle-ci sur notre société.  Nous pourrions trouver d’autres cas qui cadrent bien avec ces principes, par exemple dans des domaines tels que la cybersécurité (comme la coévolution des logiciels malveillants et leur contre-mesure), l’apprentissage non supervisé (comme les très prometteurs Generative Adversarial Networks), ou l’optimisation des logiciels par l’introduction automatique de petites différences (« Automatic A/B Testing  »).

Cette contribution ne prétend pas être un travail scientifique, ni conclure quoi que ce soit sur la pertinence du darwinisme dans d’autres contextes.  Mais elle fournit un cadre explicatif de l’évolution des algorithmes indépendamment de leur support, qu’il soit génétique, culturel ou numérique.  Nous sommes convaincus qu’il faut considérer les algorithmes de cette manière globale, pour comprendre la révolution numérique que nous vivons, déterminer quelles pourraient en être les prochaines étapes, et atténuer les risques pour nos démocraties.  Pour aller plus loin, notre sentiment est qu’une théorie générale de l’évolution des algorithmes est nécessaire, qui soit bien intégrée dans des théories plus larges traitant de l’émergence de structures complexes dans la nature.