
Lorsque le monde politique, qu’il soit national ou local, s’empare d’un sujet comme les datacenters pour l’intelligence artificielle, tout le monde se précipite pour commenter, puis commenter les commentaires… Comprennent-ils vraiment ? Peut-être !
Travaillant depuis des années dans le monde du numérique, il m’a semblé important de préciser certains points en essayant de vulgariser certains concepts autour de l’IA
L’IA : Marketing ou Réalité ?
L’intelligence artificielle (IA) est sur toutes les lèvres. Elle est devenue un véritable slogan marketing. Mais comment distinguer la réalité des effets d’annonce ?
Nombreux sont ceux qui donnent leur avis sur l’IA sans réellement en comprendre les fondements. Certains jouent sur la peur, d’autres l’exploitent pour justifier des intérêts économiques et politiques. Dans tous les cas, ils succombent au « buzz ».
Le sigle « IA » est devenu un argument de vente. Il suffit qu’une entreprise l’ajoute à son discours pour être perçue comme innovante, attirant ainsi fonds d’investissement et capital-risque. Même la classe politique s’empare du sujet, tantôt pour séduire un électorat en brandissant des scénarios catastrophiques, tantôt pour afficher une image de modernité.
70 ans d'évolution
L’IA ne date pas d’hier.
Tout commence avec Alan Turing, célèbre pour avoir décrypté le code Enigma durant la Seconde Guerre mondiale. En 1950, il publie son fameux test de Turing, un critère visant à déterminer si une machine peut se faire passer pour un humain lors d’une conversation.
Le terme « intelligence artificielle » est officiellement introduit en 1956 par John McCarthy.
Dès 1966, le premier agent conversationnel, ELIZA, voit le jour, simulant une interaction humaine basique.
Fin des années 1960, les premières tentatives de réseaux de neurones sont développées.
Des algorithmes aux réseaux neuronaux
Jusqu’au début des années 2000, l’informatique reposait sur des algorithmes – séries d’étapes programmées et prédéfinies pour accomplir des tâches spécifiques.
Puis, les réseaux de neurones, s’inspirant du fonctionnement du cerveau humain, ont pris le relais. Lorsque ces réseaux ont commencé à s’auto-organiser pour optimiser leurs décisions, le « machine learning » est né.
Cette avancée, combinée aux progrès de la puissance de calcul et du stockage, a rendu possible une interaction plus fluide entre l’homme et la machine. L’abréviation IA est devenue le symbole à la mode.
L’essor des modèles de langage
Dans les années 2020, ChatGPT a réussi à passer le test de Turing. Ces dernières années ont vu émerger de nombreux agents conversationnels, principalement américains (ChatGPT – OpenAI, Grok – X, LLaMA – Meta), mais aussi chinois (DeepSeek) et européens (Mistral – France).
Fin 2024, les premiers outils de développement gratuits en langage naturel sont apparus, rendant l’IA encore plus accessible.
Ces systèmes sont désormais omniprésents et capables de simuler des conversations avec une expertise impressionnante dans de nombreux domaines.
Intelligents, mais pas conscients
Mais comment fonctionnent-ils réellement ?
Prenons un exemple : si je dis « Il y a le feu dans la maison, appelle… », vous compléterez instinctivement avec « les pompiers ».
Pour qu’un modèle d’IA puisse faire de même, il a besoin d’une immense base de données contenant des milliards de textes, images, vidéos et sons.
Mais cela ne suffit pas. Il doit également analyser la syntaxe et le contexte grâce à des outils linguistiques et les convertir en modèles mathématiques où chaque mot devient un vecteur mathématique lié aux autres.
Enfin, grâce à l’apprentissage, l’IA compare ces vecteurs mathématiques et vérifie des milliers de phrases pour affiner son modèle de langage dans un domaine particulier.
Lorsque ces domaines et technologies sont combinées, elles donnent naissance aux modèles de langage à grande échelle (LLM – Large Language Models), souvent vulgarisés sous le terme d’intelligence artificielle générative.
De la même manière que la foudre n’est qu’une décharge électrique et non un signe que « le ciel nous tombe sur la tête », comprendre l’IA permet de démystifier son fonctionnement.
Loin d’une conscience artificielle, elle reste une simulation ultra-rapide d’un dialogue, basée sur l’analyse d’un immense corpus de données humaines.
L’IA est donc un outil puissant, mais elle ne pense pas. Elle simule, elle apprend, mais elle ne comprend pas au sens humain du terme.
Les LLM : Un accélérateur de réflexion
Une fois disponibles, les modèles de langage à grande échelle (LLM) peuvent répondre à une multitude de questions, facilitant ainsi l’apprentissage et accélérant la réflexion humaine. Ces outils ne remplacent pas l’intelligence, mais ils la complètent en permettant un accès instantané à une immense base de connaissances.
Derrière la mode des "datacenters"
Pourquoi les data centers sont-ils autant mis en avant ?
Probablement parce qu’ils représentent quelque chose de concret : des bâtiments physiques, remplis d’ordinateurs, qui emploient des personnes. Ils sont visibles, tangibles, et donc plus facilement compréhensibles que des concepts abstraits comme l’IA ou les algorithmes.
Mais un data center, c’est bien plus qu’un simple bâtiment. Par exemple, le dernier centre installé pour alimenter Grok (l’IA de X) comprend 200 000 processeurs Nvidia et requiert une puissance électrique de 150 MW. À titre de comparaison, un réacteur nucléaire délivre une puissance comprise entre 500 et 900 MW.
L’enjeu énergétique des data centers
Évidemment, ces infrastructures dégagent énormément de chaleur, qui est souvent revendue localement sous forme de chauffage. C’est pourquoi on évite d’implanter des data centers dans les pays tropicaux, où leur refroidissement serait trop coûteux. Cette contrainte explique notamment pourquoi les Émirats arabes unis investissent dans des data centers en Europe et ailleurs dans le monde, où les températures sont plus favorables.
L’importance du réseau ultra haut débit
L’accès aux données stockées dans ces centres repose sur des connexions Internet ultra haut débit, allant de 100 à 700 Gb/s, voire plus !
Pour donner un ordre de grandeur, une connexion fibre domestique offre environ 500 Mb/s. Un data center, lui, a besoin d’une capacité 500 fois supérieure. Contrairement à une idée reçue, il ne suffit pas de multiplier les connexions à 500 Mb/s pour augmenter le débit global. L’architecture du réseau doit être pensée différemment pour supporter une telle charge.
Élargir un ruisseau n’augmente pas la vitesse de deplacement de l’eau pour ce faire il faut augmenter la pente !
Le vrai enjeu : la maîtrise des données
Une fois le data center en place, encore faut-il le remplir de données. Et c’est là que réside le véritable défi.
La richesse d’une entreprise repose directement sur la qualité et la disponibilité de ses données. Les grands acteurs du numérique ne vont évidemment pas partager leurs bases gratuitement. Or, sans données, même le meilleur modèle d’apprentissage ou de langage devient inutile.
Le contrôle des données est donc l’enjeu central de la compétition autour de l’IA.
En conclusion, comprendre pour mieux utiliser
Tout comme l’entropie ne fait qu’augmenter et que le voyage dans le passé est impossible, revenir à une époque où ado je feuilletais l’Encyclopædia Universalis est une chimère.
Aujourd’hui, la simulation d’un dialogue humain par une machine est une réalité. Il ne s’agit plus de se demander si ces technologies vont impacter notre quotidien, mais comment nous pouvons mieux les comprendre pour les exploiter intelligemment.