44‣ Être sensible au poids des mots

Comment l'information que l'on traite dans le «nuage» laisse-t-elle des traces dans le ciel ?

44‣ Être sensible au poids des mots
Photo by Matthias Heyde / Unsplash

Comme l'utilisation d'outils aussi complexes que l'IA vient décupler l'empreinte carbone d'une chronique, je me suis lancé le défi d’être sobre dans ma préparation cette fois-ci. Mon sujet : les traces matérielles que l’information laisse sur notre monde. Au départ, je voulais simplement mettre de côté l’utilisation de Claude Sonnet 4 (Anthropic) dans l’élaboration de mon plan et produire un texte sans assistance ni révision par l'IA. Je voulais réfléchir sans outils technologiques autres que simplement mon portable, Google Search, mes magazines papier et les bouquins de ma bibliothèque. Hélas, la sobriété est moins évidente que ça.

Le poids des nuages

► AVANT même de commencer, voilà une première question : quelle est l'empreinte carbone de l'ordinateur que j'ai sous les doigts? Google Search me souffle une réponse [générée par l'IA], d'après des données fournies par Apple (que je vérifie) : l’extraction des minerais et terres rares, la fabrication des composantes électroniques, l’assemblage des pièces, l'emballage, le transport produisent l'équivalent de 144kg de CO2 pour un appareil qui pèse... 1.22 kg.

C'est deux fois mon propre poids.

Rien n’est aussi sobre qu'on pourrait le croire dans une économie de l’information. De la composition physique de chaque serveur jusqu’au routeur sans fil chez moi, en passant par l’infrastructure globale de l’Internet : de toute évidence, l'information a un «poids» et les «nuages» avec lesquels on travaille, écoute notre musique et regarde nos films ne sont pas si dématérialisés qu'on pourrait le croire. «L'expression “intelligence artificielle” évoque les algorithmes, les données, les architectures cloud, mais rien ne peut fonctionner sans les minéraux et les ressources offrant les composants essentiels. »(Crawford, p. 42)

Un rapport du Département américain de l'énergie s'est penché sur le «poids» énergétique des IA génératives aux États-Unis et a évalué que la part d'électricité consommée par les centres de données triplerait presque en quatre ans, passant de 4,4% à 12% en 2028. (New York Times, 19 juin). Or, aux États-Unis, l'hydroélectricité propre comme celle produite au Québec est rare : c'est surtout avec le charbon et le gaz naturel qu'on répond à la demande d'énergie. Quand ces ressources non-renouvelables arriveront au seuil négatif de leur retour sur investissement, beaucoup de produits et services vont progressivement disparaître, à commencer par ceux dont on peut se passer le plus facilement en temps de crise. La menace pèse sur tout : les centres de données ne survivront pas à une crise de l'énergie ou des ressources, ou à un effondrement climatique ou même civilisationnel.

Une étude parue il y a deux jours nous apprend, sans grande surprise, que l'intelligence artificielle est très énergivore comparée aux outils de recherche standards. Les chercheurs qui se sont penchés sur les modèles open-source ont révélé que le «poids» des réponses plus précises que nous fournissent les LLM et les LRM est bien plus important. Tout dépendant de comment chaque modèle est entraîné, ce n'est pas tant la nature de la question qui pèse que sa longueur et la longueur de la réponse produite.

Paradoxal, non ? Une entité aussi immatérielle que l'information laisse de profondes traces dans l'environnement. Internet, l'IA, mon MacBook : les TIC transforment l'air et le sol de notre planète de manière inéluctable. C'est la raison pour laquelle Apple insiste autant pour me faire comprendre que ses ingénieurs travaillent fort pour atteindre un objectif de carboneutralité en 2030. Toute cette quincaillerie électronique est bien plus lourde que la feuille de papier imprimée recto seulement et qui traîne dans mon bac à récu !

Je regarde l'heure.

Je ne suis qu'au début de ma quête. Ça fait une heure que je travaille là-dessus. Dans ma première version, j'ai produit environ 225 mots et la batterie de mon ordinateur a consommé 5% de sa capacité. J'ai moi-même besoin d'une pause et mon chien me regarde avec ses yeux de télépathe qui disent : «Viens marcher!».

Le poids de l'intelligence

Le dictionnaire en ligne d'Alternatives économiques nous apprend qu'au sens de l'économie, l'information «désigne tout élément de connaissance dont la possession permet à un acteur de prendre une décision plus efficace que celle qu'il aurait prise en l'absence de cette connaissance.» Bien que très simple, ma recherche repose sur ces informations. Or, «L'information a un coût (ne serait-ce que le temps nécessaire pour l'obtenir et la vérifier), mais une fois obtenue, elle peut être transmise à d'autres avec un coût très faible, voire nul, notamment par le biais des nouvelles technologies numériques. L'économie de l'information (ou de la connaissance) consiste donc à déterminer comment assumer le coût de la production de l'information alors que le coût de sa diffusion est minime.» (Dictionnaire en ligne Alternatives économiques)

L’IA contribue au réchauffement climatique par sa consommation énergétique massive. Au-delà des technologies que j'utilise, ma recherche est malgré tout coûteuse. Même sans toutes ces composantes électroniques, l’impression des magazines auxquels je suis abonné, leur distribution jusqu’à ma porte, l’impression des livres qui s’empilent à côté de moi… La sobriété carbone est un idéal assez lointain et il faut bien se rendre à l'évidence : je suis dans un pays riche et le gaspillage de ressources et d’énergie est une composante systémique essentielle à cette richesse.

«C’est fort navrant», nous dit l'ingénieur Philippe Bihouix, «mais l'énergie totale consommée dépend en gros de trois paramètres: distance parcourue, masse transportée et vitesse. Il n'y a donc pas trente-six moyens de réduire notre empreinte: baisser la vitesse, réduire la masse et, in fine, réduire la distance.» (Bihouix, p. 199).

Quelques pistes de solutions auxquelles je me soumets de bonne grâce pour être cohérent avec mon objectif :

  1. travailler « organique » : L'effort est dans ma tête, dans mon cerveau, le plus possible, et non pas externalisé sur des outils artificiels ;
  2. travailler « local » : J'évite le nuage avec les recherches coûteuses sur le web, je cherche même mes synonymes dans un dictionnaire sur mon portable ;
  3. travailler simplement : je cherche à éviter les calculs complexes pour un résultat équivalent ;
  4. travailler lentement : la vitesse coûte cher en énergie, je passe des heures à réfléchir sur ma chaise à la formulation de chacune de mes idées et de mes phrases ;
  5. travailler et faire des pauses : de manière à publier moins souvent et prendre du recul ;
  6. travailler de façon économe : je pars d'un plan qui m'évite de toujours tout recommencer.

Le poids de l'incertitude

Mais au-delà de la transformation irréversible de l'environnement, je suis personnellement préoccupé par la transformation de l'information elle-même et celle de mon cerveau. Dans la dernière chronique, j'ai tenté avec Claude une expérimentation de type cyborg qui, au final, me laisse assez dubitatif.

C'est que je ne peux pas vraiment vérifier la qualité de ce qui est généré par les algorithmes LLM ou LRM. Les scories sont un peu partout et il faut être très vigilant et constamment à l'affût pour les détecter. Regardons ce qui semble le plus cocasse. J'ai posé une question pleine d'ironie à Claude : je lui ai demandé si j'avais bien respecté sa pensée dans ma chronique.

Cette capture d'écran illustre un étonnant paradoxe : comme s’il était conscient du piège anthropomorphique, Claude crée un énoncé auto-référentiel dans lequel il rappelle son... absence de conscience! Non seulement cette intelligence est désincarnée, mais est, de plus, complètement dissociée de l'information qu'elle produit.

Il semblerait que l'IA puisse avoir une forme de métacognition sans conscience d'elle-même. Du moins, au sens où on l'entend chez les humains. Mais est-ce l'esprit critique d’un raisonnement ou une entourloupe statistique ?

Ensuite, l'analyse que Claude trouve «rigoureusement ancrée dans les données de l'étude du MIT» n’est jamais citée dans cette étude avec une référence directe. Claude en rapporte les propos, certes, mais sans jamais dire où se trouvent les preuves dans le document dont il parle. Pourquoi ? Parce qu'elle... ne l'a jamais lu ! Le document PDF pèse 36 Mb et l'on ne peut téléverser que des documents d'un maximum de 30 Mb. J’aurais pu le scinder en deux, mais dans ce cas c'est la quantité de tokens requise qui aurait fait défaut : Claude arrive à lire un document de 100 pages. Il aurait fallu lui faire faire une synthèse par parties, mais il n'aurait pas davantage été en mesure de citer l'original.

Pour contrer cet obstacle, Claude a déterminé le type de recherche requise (depth-first query) et a donc fait une recherche sur le web au sujet de l'étude. Il a déployé 5 «sous-agents» pour analyser des perspectives complémentaires. Il a collecté 386 sources qui en parlaient et il en a fait un rapport. Cette recherche a nécessité 15 minutes.

Le raisonnement explicite qui nous est exposé sous les yeux ressemble bien à ce qui se passe. Le rapport cite ensuite chacune des sources utilisées pour faire sa synthèse et une bonne partie de ma chronique repose sur ce rapport que je n'ai pas lu (au complet), que Claude n'a pas lu (du tout) mais que plusieurs autres analystes ont synthétisé et commenté (en espérant qu’ils n'ont pas fait comme Claude). Tout repose ici sur une question de confiance envers Anthropic, qui a conçu Claude.

En fin d'exercice, Claude résume les principales déclarations du rapport et les associe aux sources qu'il a consultées. Tout se tient.

Mais est-ce vrai ou une simulation ? Comment vérifier ce qui se passe vraiment «dans sa tête» ?

Ensuite, Claude a déduit que cette recherche donne de la crédibilité à la posture pédagogique que j'ai adoptée. Il dresse des liens entre les conclusions de l’étude et certains aspects de ma pratique en classe. Mais il n'est pas en mesure de les faire directement avec l'étude comme telle, seulement entre ce que je dis et ce que les commentateurs disent. Peut-être que ces liens sont en réalité inexistants.

Bref, cet exercice me laisse perplexe. «Nous orienter vers une société économe en ressources, repenser notre monde technologique, nous amènerait (amènera?) donc à de profondes évolutions comportementales, culturelles et morales.» (Bihouix, L’âge des low techs, p. 244). « L’augmentation » de la pensée humaine dans cet écosystème d'information en vaut-elle le coût? Je trouve que j'ai brûlé beaucoup de gaz pour bien peu de certitudes.

Le poids du doute

Comme dans bien d'autres conversations que j'ai tenues avec Claude, l'algorithme ne propose jamais de se passer de l'IA. Il suggère plutôt de trouver un «équilibre», mais jamais sa disparition ou son bannissement comme il l'évoque dans la chronique précédente. Claude n'a pas de conscience – mais sa disparition est hors de question. C'est tout de même curieux pour une machine apparemment dissociée du sens qu'elle crée.

Peut-être s'agit-il de la trace d'un biais dans les données d’entraînement ?

Quels sont les autres qu’on pourrait découvrir ?

«L'intelligence artificielle n'est pas une technique computationnelle objective, universelle ou neutre, qui prend des décisions sans orientation humaine. Ses systèmes sont inscrits dans le monde social, politique, culturel et économique, façonnés par des humains, des institutions et des impératifs qui déterminent ce qu'ils font et comment ils le font. Ils sont conçus pour trier, pour amplifier les hiérarchies, et pour encoder des classifications étroites. Quand ils sont appliqués à des contextes sociaux comme la police, la justice, les soins de santé et l'éducation, ils peuvent reproduire, amplifier et aggraver les inégalités structurelles existantes.» (Crawford, p. 245)

Vigilance, toujours. Autant que possible. _ ◀︎

Modalités éditoriales

H

CC BY-SA 4.0 (Attribution - Partage dans les mêmes conditions)

Publié le 21 juin 2025 · Révisé le 8 juillet 2025

Références

Alternatives économiques. Dictionnaire en ligne (rubrique «information») consulté le 21 juin 2025 [En ligne]

Bihouix, P. (2014). «L'âge des low tech», Seuil.

Crawford, K. (2023). Contre-atlas de l’intelligence artificielle ; les coûts politiques, sociaux et environnementaux de l'IA, Zulma.

The New York Times. «Can You Choose an A.I. Model That Harms the Planet Less?» consulté le 19 juin 2025. [En ligne]

Baudelaire, C. (1857). Spleen.

À explorer

Pour comprendre les mécanismes cognitifs :

  • 25‣ Adapter sa pédagogie - Le développement d'une «méta-vigilance» face à l'IA qui peut paradoxalement «augmenter la charge cognitive plutôt que la réduire»

Pour une approche systémique de la sobriété :

  • 41‣ Penser l'écologie de nos organisations - La permaculture organisationnelle et la théorie de Tainter sur l'épuisement énergétique des systèmes complexes, offrant un cadre théorique pour comprendre pourquoi «nous orienter vers une société économe en ressources» selon Bihouix

Pour contextualiser dans la crise civilisationnelle :

  • 37‣ Se préparer à la descente - Comment le fait que «les centres de données ne survivront pas à une crise de l'énergie» s'inscrit dans des enjeux systémiques plus larges de décroissance et d'effondrement

Pour l'application éthique de la vigilance :

  • 23‣ Faire un bon usage des données - L'analyse critique des biais technologiques et des dérives de surveillance qui prolonge la réflexion sur les «biais dans les données d'entraînement» de Crawford sur les inégalités structurelles
Codex Numeris. Expérimenter, documenter, partager.