Daria décrypte l’IA

Daria décrypte l’IA

Votre prestataire utilise une IA ? Vérifiez votre contrat.

Propriété, données, responsabilité… Ce qu’il faut encadrer noir sur blanc.

Avatar de Daria Viktorova
Daria Viktorova
nov. 18, 2025
∙ abonné payant

Bonjour à toutes et à tous !

Vous êtes désormais plus de 4 230 à me lire chaque semaine !

Bienvenue à celles et ceux qui ont découvert la newsletter récemment.

Et un énorme merci à mes abonnés payants : votre soutien me permet de créer du contenu de qualité et d’approfondir les sujets complexes comme celui de cette édition.

Si ce n’est pas déjà fait, vous pouvez aussi :

  • Gagner en visibilité en sponsorisant cette newsletter.

  • Rejoindre ma communauté Premium en passant à l’abonnement payant.

  • Découvrir mes formation sur l’IA.

  • Me suivre sur Linkedin et Instagram.

Cette semaine j’ai envie de parler d’un sujet en plein cœur des préoccupations juridiques.

Même si vous n’êtes pas juriste, restez avec moi. C’est de la culture pro qui peut vous éviter des soucis.

Vous travaillez avec des prestataires externes ? Consultants, agences, freelances. Vous leur commandez une étude, une stratégie, un contenu pour le site ou une série de visuels.

Et hop… en 48h le livrable est prêt. Propre, complet, rapide.

Et si l’IA avait fait une partie du travail ?

C’est là que les ennuis commencent. Qui a vraiment créé le contenu ? Qui en est propriétaire ? Êtes vous protégé si le livrable viole des droits d’auteur ? Et si une info est fausse ou inventée, qui prend la responsabilité ?

Ce ne sont pas des questions théoriques. Ce sont des cas que vous rencontrez déjà.

Un contrat prévu pour une prestation humaine ne suffit plus. Il faut revoir quelques clauses pour éviter les mauvaises surprises.

Cette édition sert justement à ça, vous donner une vue claire des risques, des zones sensibles à surveiller et des ajustements utiles pour sécuriser vos contrats.

Le programme

  1. Comment l’IA intervient dans les prestations intellectuelles.

  2. Les 5 risques majeurs illustrés par des exemples concrets.

  3. Partie réservée aux abonnés Premium :

    • Une clause type pour chaque risque.

    • Une checklist prête à l’emploi avant signature.

    • Un template d’audit pour évaluer votre prestataire.

Vous n’avez pas encore rejoint la communauté Premium ? C’est le bon moment.

Rejoindre la communauté Premium

1. Comment l’IA intervient dans la prestation

Avant de sécuriser, il faut comprendre comment l’IA est utilisée. Car selon le rôle qu’elle joue, les risques ne sont pas les mêmes.

Posez ces questions au prestataire :

  1. Utilisez-vous l’IA dans cette prestation ?

  2. Si oui : quel(s) système(s) ? (ChatGPT, Midjourney, outil propriétaire, etc.)

  3. Quel est le rôle de l’IA ? (outil / génération / système intégré) ?

  4. L’IA traite-t-elle des données personnelles ?

  5. Allez-vous utiliser mes données pour entraîner l’IA ?

Si la réponse est non à toutes les questions : c’est suspect. Pressez-le un peu 😀

S’il y a un ou plusieurs “oui” : c’est à vous de clarifier le scénario pour mieux cadrer la suite.

Scénario 1 : l’IA-outil (risque faible)

L’IA aide le prestataire, mais la prestation reste majoritairement humaine.

Exemples :

  • Un consultant utilise ChatGPT pour structurer ses idées, mais rédige lui-même l’analyse.

  • Un graphiste retouche les visuels avec un outil IA, mais crée le design à la main.

  • Un avocat analyse de la jurisprudence avec l’aide d’une IA de recherche, mais rédige lui-même la conclusion.

Le plus : gain de temps, mais l’humain garde le contrôle.

Le risque : si le prestataire se repose trop sur l’IA, les erreurs passent inaperçues.

On verra plus loin comment encadrer ça dans le contrat.

Scénario 2 : l’IA-coauteur (risque moyen à élevé)

L’IA produit une part importante du livrable.

Exemples :

  • Une agence rédige vos articles de blog à 70 % via GPT.

  • Un studio crée votre logo avec Midjourney.

  • Un prestataire génère automatiquement des rapports clients avec un outil IA.

Le plus : rapide, souvent moins cher.

Les risques : propriété, plagiat, hallucinations… on y revient dans la suite.

Scénario 3 : l’IA intégrée (risque élevé)

L’IA est le cœur de la prestation. Elle exécute une tâche de manière autonome ou semi-autonome.

Exemples :

  • Un chatbot IA pour gérer les demandes clients.

  • Un outil de scoring automatisé pour évaluer les fournisseurs.

  • Un système d’IA prédictive pour anticiper les litiges.

Ils peuvent influencer vos décisions stratégiques, contractuelles ou commerciales.

Et s’ils génèrent des biais, des erreurs ou exploitent mal vos données, vous en porterez la responsabilité.

Ce sont clairement des usages à surveiller de près et à encadrer sérieusement dans vos contrats.

Maintenant que vous savez repérer le rôle de l’IA, voyons ce que ça change côté contrat.

Voici les 5 vrais risques à anticiper.

2. Les 5 risques juridiques à maîtriser

Je ne vais pas vous noyer sous la théorie. Pour chaque risque je vous donne :

  • un exemple simple,

  • ce que ça change pour vous.

Risque 1 : propriété intellectuelle = la jungle

Si l’IA a généré 70% du contenu, qui en détient les droits ?

La réponse : c’est compliqué.

En droit français seules les créations humaines sont protégeables par le droit d’auteur. Un contenu purement généré par IA ne bénéficie d’aucune protection.

Cas concret : vous achetez un logo créé avec Midjourney. Votre prestataire vous dit : “Tous les droits te reviennent.” Juridiquement il ne peut céder que sa contribution créative humaine (le prompt qu’il a écrit, ses retouches). Pas l’output brut de l’IA.

Conséquence : si un concurrent utilise Midjourney avec un prompt similaire et génère un logo quasi identique, il n’y a aucune protection.

Pour aller plus loin, voici mon édition spéciale sur la propriété intellectuelle et l’IA.

Risque 2 : hallucinations = les fake news de l’IA

L’IA invente. J’en ai déjà parlé dans cette édition.

Cas concret : le cas Deloitte est un exemple emblématique récent de “hallucinations” de l’IA dans une prestation intellectuelle :

  • En 2024-2025 Deloitte a remis au gouvernement australien un rapport d’audit entièrement ou partiellement rédigé à l’aide d’une IA générative (Azure OpenAI GPT-4o). La méthodologie n’avait pas été clairement précisée dans le rapport initial. Une relecture externe a révélé des erreurs majeures : citations inventées, sources fictives, références inexistantes et même une fausse attribution judiciaire.

  • Conséquences :

    • Le gouvernement a exigé le remboursement partiel du contrat (~270 000 €).

    • Deloitte a dû corriger le rapport et reconnaître publiquement l’utilisation de l’IA.

    • Critiques médiatiques et politiques sur le manque de supervision humaine, le « travail bâclé » et le risque que ce genre de “workslop” IA devienne la norme.

    • Mise en cause de Deloitte jusqu’au sommet : « Usage abusif de l’IA » selon la sénatrice Barbara Pocock, qui a même demandé le remboursement total.​

Conséquences : ce fiasco illustre très concrètement

  • Le risque des études livrées sans vérification humaine,

  • La responsabilité engagée du prestataire et du client en cas d’usage non maîtrisé de l’IA dans le conseil,

  • Et la nécessité, dans vos contrats, d’exiger :

    • clause de vérification humaine systématique,

    • clause de garantie de correction,

    • full disclosure sur l’usage de l’IA dans la prestation.

Je vous propose le modèle dans le chapitre suivant.

Risque 3 : biais algorithmiques = discrimination involontaire

L’IA reproduit les biais présents dans ses données d’entraînement.

Cas concret : vous utilisez un logiciel d’IA pour trier des CV. L’algorithme, nourri par des données internes biaisées (pratiques passées favorisant les hommes), écarte automatiquement 80 % des candidatures féminines.

Conséquences : discrimination illégale, violation du Code du travail et des règles RGPD. Cela peut entraîner :

  • des sanctions de la CNIL,

  • des actions au pénal pour discrimination,

  • un risque d’image fort (discrimination automatisée, sexisme structurel).

Risque 4 : RGPD = la bombe à retardement

Dès qu’une IA traite des données personnelles, le RGPD entre en jeu. Et là pas de zone grise.

Cas concret : un prestataire vous remet une analyse client générée (en partie) par une IA entraînée sur vos propres données. Sauf que ces données ont été traitées via un outil hébergé hors UE et sans cadre légal.

Conséquence :

  • Violation du RGPD.

  • Risque d’amende jusqu’à 20 M€ ou 4 % du chiffre d’affaires mondial.

  • Et votre entreprise reste responsable, même si c’est le prestataire qui a “dérapé”.

Pour info, la CNIL a publié des fiches pratiques IA avec des réponses claires à toutes les questions liées aux données personnelles : collecte, traitement, base légale, sécurité, etc.

Risque 5 : AI Act = l’autre réglementation à ne pas oublier

L’AI Act fixe des règles différentes selon le niveau de risque du système. Plus l’impact est fort sur les droits ou la sécurité des personnes, plus les exigences sont strictes.

Image du Guide de mise en œuvre de l’AI Act du Cigref

Cas concret : vous déployez un système IA pour évaluer les performances des salariés. C’est classé “haut risque” par l’AI Act.

Conséquence : sans mise en conformité, amende jusqu’à 15M€ ou 3% du CA.

Autant dire que ça vaut le coup d’anticiper.

Et justement, côté contrat, comment s’y prendre pour éviter les mauvaises surprises ?

3. Et côté contrat, on fait quoi ?

Avant même de parler clauses, commencez par cadrer :

  • Quel système IA est utilisé ?

  • Pour quel usage ?

  • Qui est responsable de quoi ? (fournisseur, utilisateur, client…)

Image du Guide de mise en œuvre de l’AI Act du Cigref

Ensuite, intégrez les clauses essentielles :

  • Propriété des contenus (DPI sur outputs générés).

  • RGPD (pas de traitement sans base légale, clause d’audit).

  • Traçabilité (quels outils utilisés, quels prompts, quelles sources ?).

  • Contrôle humain obligatoire.

  • Clause d’ajustement si l’IA évolue ou change de statut (ex. devient “à haut risque”).

Pour aller plus loin, les abonnés Premium ont accès à :

  • Une clause type par risque abordé.

  • Une checklist prête à l’emploi pour revoir vos contrats.

  • Un template d’audit à télécharger.

Ce post est destiné aux abonnés payants.

Déjà abonné payant ? Se connecter
© 2026 Daria Viktorova · Confidentialité ∙ Conditions ∙ Avis de collecte
Lancez votre SubstackObtenir l’app
Substack est le foyer de la grande culture