Repenser la souveraineté numérique à l’ère de l’intelligence artificielle

Date de publication 03 mars 2026

Temps de lecture 5 min

©suebsiri/AdobeStock

Liste des auteurs

 À mesure que l’intelligence artificielle s’impose comme une infrastructure transversale des économies contemporaines, la question de la souveraineté numérique change de nature. Elle ne se limite plus aux applications visibles, mais engage l’ensemble des couches techniques, juridiques et économiques qui structurent le « sol numérique ». Entrepreneur et stratège du numérique, Yann Lechelle, Président Exécutif de Probabl, développe une lecture architecturale et géoéconomique de ces enjeux. Son approche, qu’il formalise dans « Ouvertarisme, le Numérique des Lumières », propose de faire de l’ouverture (dont l’open source) un levier industriel de résilience européenne et de reconquête de sa souveraineté.

Vous défendez l’idée que l’intelligence artificielle doit être pensée comme une infrastructure. Pourquoi ce déplacement de perspective est-il nécessaire ?

Parce que l’intelligence artificielle ne constitue pas simplement un outil applicatif supplémentaire. Elle devient progressivement une couche d’interface universelle entre les individus, les organisations et l’information. Or toute interface universelle repose sur des infrastructures profondes : capacités de calcul, semi-conducteurs, cloud, environnements d’exécution, systèmes d’identité, briques logicielles intermédiaires. Si l’on s’intéresse uniquement aux modèles d’IA ou aux usages visibles, on ignore les couches qui rendent ces usages possibles. La souveraineté numérique ne se joue pas uniquement au niveau des applications, mais dans la maîtrise, même partielle, de cette architecture complète.

Vous insistez sur la notion de “stack”. Que révèle-t-elle du positionnement européen ?

La stack désigne l’empilement des couches technologiques nécessaires au fonctionnement d’un service numérique. Les acteurs dominants contrôlent aujourd’hui plusieurs de ces couches simultanément. Cette intégration verticale leur confère un pouvoir structurel : capacité à fixer des standards, à verrouiller des dépendances contractuelles, à capter durablement la valeur. L’Europe dispose d’acteurs innovants, mais elle ne contrôle qu’une part limitée de ces couches stratégiques. Lorsque l’intelligence artificielle vient s’installer au sommet de cette stack, elle renforce les effets d’échelle déjà constitués. Si les infrastructures sous-jacentes sont majoritairement importées, l’IA devient un accélérateur de dépendance.

Dans votre ouvrage, vous parlez d’une souveraineté “fantasmée”. Que voulez-vous dire par là ?

Le débat public évoque fréquemment la souveraineté numérique, mais l’analyse des chaînes de dépendance révèle une réalité plus fragile. L’essentiel de nos systèmes d’information repose sur des briques invisibles : cloud IaaS et PaaS, frameworks, outils d’orchestration, services d’identité, solutions de sécurité. Une part très importante de ces briques provient de fournisseurs extra-européens, et l’essentiel des flux financiers montrent que nous importons majoritairement. La souveraineté ne peut être réduite à l’emplacement physique des données ou à l’origine d’une interface visible. Elle suppose la capacité à choisir, auditer, modifier et sécuriser l’architecture technique complète. Tant que le « sol numérique » reste massivement importé, l’autonomie demeure limitée.

La dépendance est-elle uniquement technique ?

Non. Elle est également juridique. Lorsqu’une organisation européenne s’appuie sur une infrastructure soumise à une juridiction étrangère, elle accepte un cadre normatif qui peut prévaloir sur le droit européen. Le Cloud Act américain en est une illustration. Il ne s’agit pas de dramatiser, mais de reconnaître qu’une dépendance normative peut créer un risque systémique. La souveraineté implique une cohérence entre architecture technique, gouvernance et cadre juridique.

Votre réponse à cette situation passe par ce que vous appelez l’“Ouvertarisme”. En quoi consiste cette approche ?

L’Ouvertarisme consiste à considérer l’ouverture non comme une posture morale, mais comme un instrument stratégique. Ouvrir des standards, des logiciels ou des gouvernances permet de limiter les effets d’enfermement propriétaire et de créer des communs numériques. Pour des acteurs qui ne sont pas en position dominante, l’ouverture peut devenir une méthode de rattrapage. Il s’agit d’articuler innovation et intérêt général. Le capitalisme ouvert que je défends repose sur la capacité à industrialiser des communs technologiques, à construire des modèles économiques viables autour de l’intégration, de la maintenance et des services, et à renforcer la résilience collective.

Vous insistez également sur la structuration de la demande. Pourquoi est-ce un point crucial ?

L’Europe a beaucoup investi dans le soutien à l’offre technologique. Mais une offre ne se consolide pas sans adoption. Les grandes infrastructures numériques se stabilisent autour de volumes d’usage importants. Si la demande publique et privée continue de privilégier des solutions intégrées extra-européennes, l’écosystème local restera fragmenté. La commande publique peut jouer un rôle d’amorçage et d’exemplarité. Elle ne remplace pas le marché, mais elle peut contribuer à structurer un socle industriel cohérent et à réduire l’incertitude pour les acteurs européens.

La question financière est-elle également déterminante ?

Absolument. Le passage à l’échelle nécessite des financements conséquents et durables. Les phases d’amorçage sont relativement bien soutenues en Europe. En revanche, la consolidation et l’introduction en bourse restent fragiles. Sans marché des capitaux suffisamment intégré, les entreprises stratégiques deviennent des cibles d’acquisition ou déplacent leurs centres de décision. La souveraineté numérique implique donc un alignement entre politique industrielle, capacité d’investissement et structuration financière à l’échelle européenne.

Vous proposez un Indice de Résilience Numérique. Quelle est sa finalité ?

La souveraineté ne peut être pilotée sans instrument de mesure. L’Indice de Résilience Numérique vise à offrir aux dirigeants d’entreprises une cartographie claire de leurs dépendances technologiques et juridiques. Il s’agit d’objectiver un débat souvent abstrait et de permettre des arbitrages éclairés. Mesurer l’exposition, identifier les briques critiques et définir des trajectoires de réduction de dépendance constituent les premières étapes d’une stratégie cohérente. Cette démarche ne peut toutefois produire ses effets qu'à condition de s'inscrire pleinement dans la stratégie du comité des risques : c'est à ce niveau que les arbitrages deviennent structurants et que la résilience numérique acquiert une portée réellement gouvernante.

En définitive, comment définiriez-vous la souveraineté numérique européenne ?

La souveraineté ne consiste ni à se replier ni à prétendre tout produire soi-même. Elle consiste à disposer d’une capacité de choix. Cela suppose de comprendre la stack complète, d’aligner offre et demande, d’utiliser l’ouverture comme levier stratégique et de doter les dirigeants d’outils de pilotage adaptés. L’intelligence artificielle rend cette exigence plus urgente encore, car elle structure désormais l’accès à la connaissance et à la décision. La souveraineté numérique européenne est un muscle : atrophié par des décennies de dépendance, il se reconstruit. Cela demande un effort ; mais c'est précisément cet effort qui permettra à l'Europe de réinternaliser progressivement la maîtrise de sa stack — brique après brique, couche après couche — et de reprendre en main son destin technologique.

---------------------

Cet article synthétise une présentation faite par l’auteur à l’occasion du séminaire « Enjeux de souveraineté. De la souveraineté numérique », organisé par l’Institut pour la recherche le 19 février 2026 à Paris. L’évènement s’inscrit dans le cadre d’une série de six séminaires sur les enjeux de souveraineté co-organisés en 2025 et 2026 par la Caisse des Dépôts et plusieurs partenaires think tanks.