L'IA ne crée pas de nouveaux risques juridiques : elle rend visibles ceux que l'international cachait déjà
- Eve Chapman

- 13 avr.
- 11 min de lecture
Dernière mise à jour : 27 avr.
Quand une entreprise industrielle intègre l'intelligence artificielle dans ses opérations internationales (chaîne d'approvisionnement, contrôle qualité, maintenance prédictive), elle pense réduire son exposition aux risques. En réalité, elle rend visible ces risques. Ce que le fonctionnement informel du commerce international dissimulait depuis des années (responsabilités diffuses, preuves introuvables, exécution implicite), l'IA le formalise, l'accélère, et l'expose au regard du droit.
Cet article s'adresse aux dirigeants de PME et ETI industrielles qui opèrent à l'international et déploient ou envisagent de déployer des systèmes d'IA dans leurs processus. Il ne traite pas de conformité réglementaire au sens de l'AI Act - un sujet traité ailleurs. Il traite d'un angle moins visible mais plus immédiatement opérationnel : ce que l'IA révèle des fragilités juridiques préexistantes du commerce international, et pourquoi les contrats actuels n'ont pas été conçus pour ce contexte.

I. Le commerce international fonctionne depuis toujours avec une part d'informel juridiquement non testée
1.1 Les zones grises structurelles du droit international des affaires
Le droit international des affaires (contrats de fourniture transfrontaliers, partenariats industriels, joint-ventures, transferts de technologie) repose sur un paradoxe fondamental : il est très sophistiqué dans sa forme contractuelle, et très peu testé dans son exécution réelle.
La plupart des contrats industriels internationaux fonctionnent sans jamais être activés juridiquement. Les litiges se règlent dans les couloirs, les retards sont absorbés par des ajustements tacites, les responsabilités se diluent dans des chaînes de décision informelles. Ce n'est pas un défaut de ces contrats, c'est un mode de fonctionnement qui a fait ses preuves pendant des décennies.
Mais ce fonctionnement repose sur trois conditions implicites qui n'ont jamais été formalisées juridiquement.
La première est la traçabilité humaine des décisions. Quand un responsable qualité décide de bloquer une livraison, il peut expliquer pourquoi. Quand un directeur commercial accorde une exception tarifaire, il y a une personne qui a pris cette décision, au moment identifiable, pour des raisons reconstituables. Cette traçabilité n'est jamais garantie contractuellement : elle existe parce qu'il y a des humains dans la boucle.
La deuxième est la flexibilité d'exécution. Le commerce international industriel est fondamentalement adaptatif. Les contrats cadres prévoient des conditions générales, mais l'exécution quotidienne est faite d'arrangements, d'interprétations souples, d'ajustements non documentés. Un fournisseur qui livre avec deux jours de retard, un client qui accepte une spécification légèrement différente - tout cela tient parce que des personnes s'adaptent en temps réel.
La troisième est la répartition implicite des risques. Dans une chaîne industrielle internationale, la responsabilité en cas de défaut est rarement clairement attribuée dans les contrats. Elle est négociée au cas par cas, en fonction des rapports de force, de la relation commerciale, et du coût respectif pour chaque partie de porter le risque.
1.2 Pourquoi ces zones grises n'ont pas posé de problème jusqu'à présent
Ces fragilités structurelles du droit international des affaires sont connues des praticiens. Elles ont simplement été tolérées parce qu'elles n'étaient pas exposées.
Un litige international est coûteux, long, et incertain. La plupart des PME industrielles préfèrent absorber un préjudice limité plutôt que d'engager une procédure arbitrale à Paris ou à Londres dont l'issue sera incertaine et le coût supérieur au litige lui-même. Cette réalité économique a protégé les zones grises juridiques depuis des décennies.
Elle a aussi protégé une pratique contractuelle insuffisante. Des clauses de force majeure copiées-collées, des clauses attributives de juridiction sans réflexion stratégique, des dispositions sur la propriété intellectuelle génériques, des mécanismes de résolution des différends inadaptés à la réalité opérationnelle des parties - tout cela tient tant que personne ne les active réellement.
Exemple : Une PME française fournit des composants à un assembleur allemand depuis dix ans. Le contrat prévoit une clause de responsabilité limitée à la valeur des pièces défectueuses. Un défaut de production entraîne l'arrêt d'une ligne chez un client final de l'assembleur. Le préjudice indirect est dix fois supérieur à la valeur des pièces. Le contrat ne prévoit pas ce scénario clairement. La situation se règle à l'amiable parce que les deux parties ont intérêt à préserver la relation commerciale. La fragilité juridique n'a jamais été testée.
II. Ce que l'IA change : trois révélations juridiques
L'intelligence artificielle ne crée pas de nouvelles catégories de risques juridiques. Elle modifie radicalement les conditions dans lesquelles les risques préexistants deviennent visibles, documentés, et juridiquement activables.
Trois transformations sont au cœur de ce changement.
2.1 La responsabilité : de diffuse à identifiable
Dans un environnement de décision humain, la responsabilité est naturellement diffuse. Une décision de refus de livraison implique un commercial, un responsable qualité, un directeur, des échanges d'emails, des conversations téléphoniques. Attribuer précisément la responsabilité d'une décision à une personne ou une entité est complexe, et cette complexité protège souvent les parties en évitant les mises en cause directes.
Avec l'IA, la décision est attribuable à un système identifié. Le système de contrôle qualité automatisé X, version Y, déployé par l'éditeur Z, a généré une alerte qui a bloqué la livraison. Cette clarté apparente est trompeuse : elle désigne un acteur technique, mais elle ne résout pas la question de la responsabilité juridique : elle la pose de façon plus aiguë.
En effet, la chaîne de responsabilité en présence d'un système IA est inédite dans les contrats industriels classiques. L'industriel qui déploie le système, l'éditeur qui le fournit, l'intégrateur qui l'a paramétré, le fournisseur des données d'entraînement. Chacun peut être impliqué, et les contrats qui lient ces acteurs ont rarement été conçus pour répartir clairement la responsabilité dans ce scénario.
Exemple : Un système IA de contrôle qualité déployé chez un équipementier automobile refuse automatiquement un lot de pièces en provenance d'un fournisseur français. Le refus est basé sur un algorithme de détection d'anomalies. Le fournisseur conteste, estimant que les pièces sont conformes aux spécifications contractuelles. L'équipementier soutient que son système a détecté une déviation. Qui prouve quoi ? Sur quelle base ? Le contrat de fourniture ne prévoit pas ce scénario. Le contrat avec l'éditeur du système IA ne prévoit pas non plus la responsabilité en cas de faux positif.
2.2 La preuve : de reconstituable à algorithmique
La question de la preuve est le point le plus techniquement différenciant de l'IA dans un contexte de contentieux international. Paradoxalement, c'est aussi celui que les contrats actuels ignorent complètement.
Dans un litige commercial international classique, la preuve repose sur des documents, des emails, des témoignages, des expertises. Ces éléments sont imparfaits. Ils peuvent être interprétés, contestés, complétés. Ils sont néanmoins compréhensibles par un tribunal, un arbitre, ou une partie adverse.
Une décision prise par un système IA repose sur une logique algorithmique qui n'est pas toujours explicable, même par son concepteur. Les modèles d'apprentissage automatique, en particulier les modèles de type réseau de neurones, prennent des décisions sur la base de corrélations statistiques dans des espaces de données de haute dimensionnalité. La reconstitution de la logique de décision pour un cas précis est techniquement difficile, parfois impossible.
Ce problème d'explicabilité crée une asymétrie probatoire inédite. L'industriel qui subit une décision automatisée (pénalité déclenchée, livraison refusée, commande annulée) doit contester une décision dont la logique lui est en partie opaque. L'industriel qui déploie le système doit justifier une décision qu'il ne peut pas toujours expliquer complètement.
En droit international des affaires, cette asymétrie se complique encore : les règles de preuve varient selon les juridictions. Ce qui est admis comme preuve devant un tribunal français ne l'est pas nécessairement devant un tribunal américain ou dans le cadre d'un arbitrage CCI. Un log algorithmique, une trace de décision automatisée, un rapport de système IA. Leur valeur probatoire dans un contentieux international n'est pas encore établie de façon uniforme.
Exemple : Un système de supply chain IA gère les commandes automatiques entre un donneur d'ordre et ses fournisseurs. Une commande urgente n'est pas générée automatiquement par le système, entraînant un arrêt de production. Le fournisseur réclame une indemnisation pour perte de chiffre d'affaires. Le donneur d'ordre soutient que le système a fonctionné normalement. Comment établir la preuve du dysfonctionnement (ou de l'absence de dysfonctionnement) d'un système automatisé ? Qui a accès aux logs ? Sous quelle forme sont-ils produits ? Quelle est leur valeur probatoire dans la juridiction choisie ?
2.3 L'exécution : de flexible à standardisée
Le commerce international industriel a toujours fonctionné avec une part d'informel maîtrisé. Les contrats fixent un cadre, mais l'exécution quotidienne est adaptative : un délai négocié, une spécification interprétée, un écart accepté tacitement. Cette flexibilité opérationnelle a une valeur économique réelle : elle permet aux chaînes industrielles de fonctionner malgré la rigidité des contrats.
L'IA standardise et automatise l'exécution. Les décisions ne sont plus prises par des humains qui peuvent adapter leur interprétation au contexte. Elles sont générées par des systèmes qui appliquent des règles de façon uniforme et systématique. Ce qui était rattrapable par un coup de téléphone ne l'est plus quand la décision est automatisée et horodatée.
Cette standardisation a un effet juridique direct : elle formalise ce qui était informel. Un arrangement tacite devient une décision documentée. Une tolérance implicite devient une absence de déclenchement d'alerte. L'informel qui protégeait les zones grises disparaît, remplacé par une trace numérique qui peut être produite dans un contentieux.
Pour les contrats internationaux longue durée, cet effet est particulièrement significatif. Un contrat de fourniture industrielle signé en 2019 a été négocié dans un environnement où l'exécution était humaine et adaptative. Déployé en 2025 dans un environnement où les décisions sont automatisées, ce contrat est potentiellement inadapté à sa propre exécution.
Exemple : Un contrat cadre entre un industriel français et un partenaire japonais prévoit des pénalités de retard calculées sur la base de jours ouvrés. Pendant cinq ans, les pénalités ont été calculées manuellement et ajustées en tenant compte du contexte : conditions de transport, aléas douaniers, fermetures exceptionnelles. L'industriel déploie un ERP avec module IA qui calcule et déclenche automatiquement les pénalités sans intervention humaine. Les premières pénalités automatiques créent un incident diplomatique : le partenaire japonais conteste le calcul, qui ne tient pas compte des usages établis. Le contrat, lui, est silencieux sur la méthode de calcul automatisé.
III. L'intersection : pourquoi l'IA et l'international se révèlent mutuellement
3.1 L'IA amplifie les fragilités spécifiques au droit international des affaires
Les trois révélations décrites ci-dessus (responsabilité, preuve, exécution) existent dans tout contexte d'IA. Mais elles sont amplifiées de façon spécifique dans un contexte international, pour trois raisons.
La première est la pluralité des droits applicables. Dans une opération industrielle internationale, plusieurs systèmes juridiques s'appliquent simultanément : le droit régissant le contrat, le droit du lieu d'exécution, le droit du lieu de déploiement du système IA, et potentiellement le droit de l'éditeur du système. Ces droits peuvent avoir des approches radicalement différentes sur la responsabilité liée aux systèmes automatisés, les règles de preuve, et les mécanismes de réparation.
La deuxième est l'absence de juridiction naturelle. Dans un litige domestique, la juridiction compétente est claire. Dans un litige international impliquant une décision automatisée, plusieurs juridictions peuvent revendiquer une compétence - et la clause attributive de juridiction négociée sans réflexion sur le rôle futur de l'IA peut s'avérer inadaptée.
La troisième est l'asymétrie d'accès aux données. Dans un contentieux impliquant un système IA, les données probantes (logs, modèles, données d'entraînement) sont souvent détenues par l'éditeur du système, qui n'est pas partie au contrat principal. Les mécanismes de discovery ou d'expertise judiciaire varient considérablement selon les juridictions, et certains droits étrangers n'offrent pas de mécanisme efficace pour contraindre un tiers à produire des éléments de preuve techniques.
3.2 Ce que les contrats internationaux actuels ne prévoient pas
Un audit des contrats de fourniture industrielle internationale types révèle des lacunes systématiques face à ce nouveau contexte. Ces lacunes ne sont pas des erreurs de rédaction : elles reflètent le fait que ces contrats ont été conçus pour un mode d'exécution qui n'intégrait pas l'IA.
La clause de force majeure ne couvre pas les défaillances algorithmiques. Un système IA qui prend une décision erronée n'est pas un événement extérieur, imprévisible et irrésistible au sens de l'article 1218 du Code civil. C'est un risque technologique interne dont la partie déployant le système est présumée responsable.
Les clauses de responsabilité ne répartissent pas le risque lié aux décisions automatisées. Elles distinguent généralement défauts de produit, retards de livraison, et manquements contractuels - et non les décisions algorithmiques erronées, dysfonctionnements de systèmes IA, ou refus automatisés non justifiés.
Les clauses probatoires ne définissent pas la valeur des traces numériques. Quelle est la valeur juridique d'un log de système IA dans un contentieux ? Qui en a la garde ? Dans quelle forme doit-il être produit ? Ces questions ne sont posées dans aucun contrat standard.
Les mécanismes de résolution des différends ne prévoient pas l'expertise technique spécifique aux systèmes IA. Un arbitre commercial international, aussi compétent soit-il, n'est pas nécessairement équipé pour apprécier la logique d'un algorithme de machine learning. Les contrats qui prévoient l'arbitrage CCI ou LCIA ne précisent pas les qualifications techniques requises des arbitres en cas de litige impliquant une décision automatisée.
3.3 La question centrale : l'entreprise peut-elle assumer juridiquement les décisions de ses outils ?
C'est la question que peu de dirigeants industriels se posent au moment du déploiement d'un système IA, et que tous devraient poser.
Déployer un système IA dans un contexte industriel international, c'est déléguer une partie du pouvoir de décision opérationnelle à un outil technique. Cette délégation a des conséquences juridiques directes : vis-à-vis des clients, l'industriel reste responsable des décisions prises par son système. Vis-à-vis des fournisseurs, il engage sa responsabilité contractuelle sur la base de décisions qu'il ne prend plus directement. Vis-à-vis des partenaires, il modifie unilatéralement le mode d'exécution d'un contrat qui avait été négocié dans un contexte différent.
La question n'est pas de savoir si l'IA est fiable. Elle peut l'être tout à fait. La question est de savoir si la chaîne contractuelle dans laquelle elle s'insère a été adaptée pour intégrer ce nouveau mode de décision. Dans l'immense majorité des cas, elle ne l'a pas été.
IV. Implications pratiques pour les contrats industriels internationaux
Sans prétendre à l'exhaustivité, et sans se substituer à une analyse contractuelle spécifique, plusieurs axes méritent une attention particulière dans les contrats industriels internationaux existants et futurs.
4.1 Identifier les contrats exposés
Tous les contrats ne sont pas également exposés. Sont prioritairement concernés les contrats cadres de fourniture longue durée dans lesquels l'une des parties a déployé ou envisage de déployer un système IA affectant l'exécution : contrôle qualité automatisé, gestion des commandes, calcul des pénalités, évaluation de la conformité. Ces contrats méritent une relecture spécifique au prisme des trois axes identifiés, à savoir responsabilité, preuve, et exécution.
4.2 Adapter les clauses de responsabilité
La répartition de la responsabilité dans un contexte de décision automatisée doit être explicitement négociée. Qui assume la responsabilité d'une décision erronée du système ? Quel est le recours contractuel de la partie qui subit cette décision ? Dans quelle mesure l'éditeur du système est-il impliqué ? Ces questions doivent trouver une réponse contractuelle, pas être laissées à l'appréciation ultérieure d'un tribunal.
4.3 Formaliser les mécanismes de preuve
Les contrats devraient préciser les obligations documentaires liées aux décisions automatisées : conservation des logs, format de production, accès en cas de litige, obligations de l'éditeur du système. Sans cette formalisation, le contentieux sur la preuve précédera le contentieux sur le fond.
4.4 Prévoir un mécanisme de réexamen humain
Toute décision automatisée à effets contractuels significatifs devrait pouvoir faire l'objet d'un réexamen par un interlocuteur humain identifié, dans un délai défini. Ce n'est pas une contrainte opérationnelle, mais plutôt une condition de la loyauté contractuelle dans un environnement de décision automatisée.
4.5 Intégrer une clause de révision liée aux évolutions du système
Un système IA évolue. Les mises à jour modifient les comportements, les paramètres, les seuils de décision. Un contrat signé avec une version d'un système ne devrait pas produire les mêmes effets après une mise à jour significative sans renégociation. Cette clause de révision n'existe dans pratiquement aucun contrat standard aujourd'hui - elle devra exister demain.
Conclusion
L'IA industrielle est souvent présentée comme une révolution opérationnelle. Elle l'est. Mais elle est aussi, silencieusement, une révélation juridique.
Elle rend visible ce que le commerce international avait appris à gérer dans l'ombre : des responsabilités diffuses, des preuves imparfaites, une exécution informelle. Elle formalise ce qui était tacite. Elle expose ce qui était protégé par la complexité humaine de la décision.
Les entreprises qui déploient des systèmes IA dans leurs opérations internationales ne prennent pas seulement une décision technologique. Elles modifient le mode d'exécution de leurs contrats, la nature de leur responsabilité, et les conditions dans lesquelles elles pourront défendre leurs intérêts en cas de litige.
Le droit n'a pas encore rattrapé cette réalité. C'est précisément maintenant, avant que les premiers contentieux ne définissent la jurisprudence, que les contrats doivent être adaptés.
———
Eve Chapman
Avocate en droit international des affaires et droit de l'IA
Conseil auprès des PME et ETI industrielles sur leurs opérations et transactions internationales




Commentaires