Skip to main content
👉 « L’IA n’est plus un outil : c’est un rapport de force »
February 8, 2026 at 9:30 PM
by C.Custinne/sources 2026
99 im blog .png

🥇L’IA n’est plus un outil : c’est un rapport de force

Les populations n’ont jamais été consultées sur les architectures de pouvoir que l’intelligence artificielle est en train de figer.

Pourtant, ces architectures influencent déjà des décisions financières, industrielles, sécuritaires et administratives à travers le monde.

L’IA ne gouverne pas officiellement.

Elle oriente. Elle filtre. Elle hiérarchise.

Elle s’impose sans vote, sans débat public, souvent sans visibilité.

Et c’est précisément ce silence qui fait sa force.

Depuis deux ans, des milliers d’articles annoncent que l’IA va tout transformer.

Très peu posent la question la plus simple — et la plus dérangeante : au profit de qui ?

🔹 Derrière l’IA, une concentration de pouvoir bien réelle

Développer une intelligence artificielle de pointe n’a rien d’abstrait.

Cela exige trois ressources devenues rares et concentrées :

  • des volumes massifs de données,
  • des capacités de calcul extrêmement coûteuses,
  • des infrastructures énergétiques et logistiques lourdes.

Entraîner un modèle de pointe coûte désormais entre 100 et 500 millions de dollars.

Ce chiffre, documenté par l’industrie elle-même, constitue une barrière structurelle. Il exclut de facto la majorité des États et des acteurs économiques mondiaux.

Conséquence directe :

quelques entreprises et quelques États définissent ce qui est techniquement faisable — et donc ce qui devient économiquement et politiquement acceptable.

Le reste du monde utilise ces technologies.

Il ne les oriente pas.

🔹 La neutralité technologique : un récit confortable

L’intelligence artificielle continue pourtant d’être présentée comme une technologie neutre.

Objective. Universelle. Dépourvue d’intention.

Ce récit rassure.

Il est aussi trompeur.

Chaque modèle est entraîné sur des données sélectionnées.

Chaque algorithme optimise des critères définis à l’avance.

Chaque système reflète des arbitrages humains, économiques et culturels.

Prenons un exemple concret et vérifiable.

Lorsqu’un pays africain adopte un système de reconnaissance faciale développé à l’étranger, il n’installe pas seulement des caméras. Il adopte des standards de surveillance, des protocoles de gestion des données, et une dépendance technique de long terme, souvent estimée entre dix et quinze ans.

Autre cas, largement documenté :

le credit scoring algorithmique déployé dans plusieurs pays émergents repose sur des modèles entraînés sur d’autres populations, dans d’autres contextes socio-économiques. Résultat : des biais systémiques qui excluent des segments entiers de la population de l’accès au crédit, sans possibilité réelle de contestation locale.

Dans ces situations, l’IA ne se contente pas d’optimiser.

Elle structure.

🔹 Qui contrôle l’IA décide pour les autres

Ceux qui maîtrisent réellement l’IA ne sont pas ceux qui l’utilisent le plus, mais ceux qui en contrôlent les couches profondes :

les données, les modèles, les capacités de calcul.

Ce contrôle permet d’imposer des normes techniques, des cadres d’usage, parfois même des visions du monde. Les autres acteurs s’adaptent — ou subissent.

Pour de nombreux pays émergents, l’IA est encore présentée comme une opportunité de rattrapage. Dans la pratique, elle devient souvent un facteur de dépendance supplémentaire : technologies importées, décisions externalisées, souveraineté numérique incomplète.

La question centrale n’est donc plus celle de l’accès à l’IA, mais celle de la maîtrise réelle de ses effets.

🔹 Blocs géopolitiques : des trajectoires divergentes

Face à ces enjeux, les grandes régions du monde avancent selon des logiques distinctes.

En Europe, l’IA est abordée par la régulation. Normes, cadres juridiques et exigences éthiques tentent de corriger a posteriori une perte de maîtrise initiale. Cette approche est nécessaire, mais elle intervient souvent après que les standards techniques ont déjà été fixés ailleurs.

En Asie-Pacifique, l’IA est pensée comme une infrastructure stratégique. Elle est intégrée rapidement dans l’industrie, la logistique et l’administration, avec une porosité assumée entre innovation civile et intérêt étatique. La vitesse et l’intégration priment.

Ces deux modèles — régulation a posteriori et intégration stratégique rapide — laissent peu d’espace aux acteurs qui n’ont ni l’un ni l’autre : ni les capacités de développement massif, ni les moyens de régulation contraignante.

C’est précisément la situation de nombreux pays africains et de certaines économies intermédiaires, coincées entre adoption contrainte et dépendance structurelle.

🔹 Ce que beaucoup d’articles évitent de dire

La majorité des discours sur l’IA célèbrent l’innovation.

Peu parlent de dépendance.

Utiliser un modèle n’est pas le contrôler.

Adopter une technologie n’est pas en définir la trajectoire.

Accélérer n’est pas choisir.

Le véritable enjeu n’est pas de prendre le train de l’IA, mais de savoir qui en tient les commandes, qui en fixe la destination, et qui pourra encore en descendre.apport de force

🔹 Pourquoi ESU Partners Group parle de cela

ESU Partners Group ne développe pas de solutions d’intelligence artificielle.

Et c’est précisément pour cela que ces questions sont centrales dans notre approche.

Nous intervenons là où les décisions technologiques croisent des enjeux de souveraineté, de flux financiers internationaux et de gouvernance institutionnelle, en particulier dans les espaces Afrique–APAC–BRICS.

Une question revient systématiquement dans nos échanges avec décideurs et institutions :

Si demain une décision clé est prise par un algorithme que personne dans votre organisation ne peut auditer, êtes-vous encore souverain ?

C’est à cet endroit précis — avant l’irréversibilité — que se joue l’essentiel.

🔹 Ce que nous voulons dire, sans slogan

L’intelligence artificielle ne sauvera pas le monde.

Elle ne le détruira pas non plus.

Mais elle est déjà en train de figer certains déséquilibres et d’en créer de nouveaux. La traiter comme un simple outil d’optimisation revient à ignorer sa dimension politique.

Nous ne vendons pas d’IA.

Nous aidons les décideurs à ne pas subir celle des autres.

🔹 Conclusion

L’IA n’est plus une technologie émergente.

C’est déjà une infrastructure de pouvoir.

Ne pas la regarder comme telle, ce n’est pas rester neutre.

C’est accepter que d’autres décident à votre place.