Loi européenne sur l'IA : Étiquetage obligatoire des contenus générés par l'IA

Authenticité & Détection d'IA

9 avril 2024

Loi européenne sur l'IA : Étiquetage obligatoire des contenus générés par l'IA

⇥ QUICK READ

<div class="hs-cta-embed hs-cta-simple-placeholder hs-cta-embed-148431706223"
 style="max-width:100%; max-height:100%; width:170px;height:570.703125px" data-hubspot-wrapper-cta-id="148431706223">
 <a href="https://cta-service-cms2.hubspot.com/web-interactives/public/v1/track/redirect?encryptedPayload=AVxigLJrUZ4Wxh0Qdo01FJ4Q3Oz5oJ8RUjWzxCE%2BkELt17Qi2%2BAAgPkuS8Pt33eRL3Zai2iDrxc%2FuuXDvNXR%2BItXjwgeAhIXwgNyEvtavhEWQ1W%2B3kCeRwLJYI0D0JQDHo%2F0khIj%2FAZrBa0oo%2F%2BIZ6ECmgP4hWoacTzMsQhF5Lrsykdo2Mj93DVdYAiPwA2cdnSRc5KmPlLxe7GX8sRN3ji8mITa6cPIJhWFgcXNP4z9K5TzbvTAVkNT04SmM8LpLg%3D%3D&webInteractiveContentId=148431706223&portalId=4144962" target="_blank" rel="noopener" crossorigin="anonymous">
   <img alt="History of Digital Watermarking &nbsp; Download our infographic &quot;the Invisible Digital Watermarking Saga: A Journey Through Time&quot;" loading="lazy" src="https://no-cache.hubspot.com/cta/default/4144962/interactive-148431706223.png" style="height: 100%; width: 100%; object-fit: fill"
     onerror="this.style.display='none'" />
 </a>
</div>

Partager cet article

S'abonner au blog !

Je m'abonne

Découvrez la nouvelle obligation du règlement sur l'IA concernant l'étiquetage des contenus générés par l'IA. Apprenez comment la technologie du filigrane numérique joue un rôle clé dans la distinction des médias synthétiques, et explorez les implications pour les fournisseurs d'IA et la lutte contre les "deepfakes".

Le règlement européen sur l'intelligence artificielle ("AI ACT") a été adopté par le Parlement européen le 13 mars et entrera en vigueur en mai 2024, 20 jours après sa publication au Journal officiel de l'UE. Les interdictions relatives aux systèmes d'IA jugés présenter des "risques inacceptables" seront appliquées six mois plus tard (novembre 2024), les règles de gouvernance et les obligations relatives aux modèles d'IA à usage général s'appliqueront après 12 mois (mai 2025), et la mise en œuvre complète est attendue après 24 mois (mai 2026).

Cette loi s'applique globalement à tous les systèmes d'intelligence artificielle, à l'exclusion de ceux utilisés pour la recherche scientifique et dans le secteur militaire, dès lors qu'ils sont disponibles sur le territoire de l'Union européenne.

Approche générale de l'AI ACT

La loi réglemente les systèmes d'IA par le biais d'une approche basée sur le risque, définissant quatre niveaux de risques pour les systèmes d'IA, chacun étant assorti d'interdictions et d'obligations spécifiques :

Les quatre niveaux de risque définis par la loi sur l'IA

Les systèmes d'IA générative sont considérés comme des systèmes à risques limités

Parmi les différents systèmes d'IA, les systèmes d'intelligence artificielle générative sont définis à l'article 50, paragraphe 2, comme suit : "les systèmes d'IA, y compris les systèmes d'IA à usage général, qui génèrent des contenus de type synthétique tels que des sons, des images, des vidéos ou des textes". Parmi ces systèmes, on peut citer le Project Music GenAI Control d'Adobe pour la génération de sons, Midjourney pour la création d'images, Sora d'OpenAI pour la production de vidéos et le générateur de texte Claude d'Anthropic. Ces systèmes sont classés comme des systèmes d'intelligence artificielle à risques limités en vertu de la loi sur l'IA et sont soumis à des exigences de transparence, telles que l'obligation d'informer les utilisateurs que l'IA a généré le contenu.

Les modèles d'IA générative les plus puissants et multimodaux (capables de générer n'importe quel type de contenu), tels que ChatGPT d'OpenAI ou Gemini de Google, sont considérés comme des systèmes d'IA à usage général susceptibles d'engendrer un risque systémique. Outre les obligations de transparence, ils sont soumis à des évaluations détaillées et à des tests contradictoires afin de prévenir tout incident important susceptible d'avoir des conséquences négatives, comme la production de contenu illégal.

Obligation de transparence : Étiquetage obligatoire des contenus générés par l'IA

Tous les fournisseurs de systèmes d'IA générative, quels que soient leur emplacement, leur taille, leur puissance ou leur nature, qu'ils soient ouverts (libres et à code source ouvert) ou propriétaires, doivent se conformer à des obligations fondamentales en matière de transparence. Ces obligations permettent au public de savoir si le contenu a été généré artificiellement et de le distinguer d'un contenu authentiquement généré par l'homme.

Le principal défi réside dans le fait que ces systèmes peuvent être utilisés pour créer des deepfakes ou des fake news ultra-réalistes, contribuant ainsi à des campagnes de désinformation à grande échelle, à la fraude, à l'usurpation d'identité ou à la tromperie. Pour contrer ce phénomène, la loi sur l'IA (article 50 2) dispose que "les fournisseurs de systèmes d'IA, y compris les systèmes GPAI, qui génèrent des contenus synthétiques audio, image, vidéo ou texte, veillent à ce que les sorties du système d'IA soient marquées dans un format lisible par machine et détectables comme étant générées ou manipulées artificiellement. Les fournisseurs veillent à ce que leurs solutions techniques soient efficaces, interopérables, robustes et fiables dans la mesure où cela est techniquement possible, compte tenu des spécificités et des limites des différents types de contenu, des coûts de mise en œuvre et de l'état de l'art généralement reconnu, tel qu'il peut être reflété dans les normes techniques pertinentes".

Un filigrane numérique obligatoire, efficace, robuste et fiable

L'obligation de transparence va bien au-delà d'une simple mention indiquant "contenu généré par l'IA", qui peut être facilement supprimée, et vise des méthodes technologiques robustes et lisibles par machine pour indiquer au public, en toute sécurité, que le contenu est généré.

Le considérant 133 de la loi sur l'IA stipule que "ces techniques et méthodes devraient être suffisamment fiables, interopérables, efficaces et robustes dans la mesure où cela est techniquement possible, compte tenu des techniques disponibles ou d'une combinaison de ces techniques, telles que les filigranes, les identifications de métadonnées, les méthodes cryptographiques pour prouver la provenance et l'authenticité du contenu, les méthodes d'enregistrement, les empreintes digitales ou d'autres techniques, selon le cas".

Le Bureau de l'IA, créé par la loi sur l'IA et en cours de mise en place, effectuera un état des lieux dans ce domaine et définira les normes que tous les fournisseurs d'IA générative devront respecter scrupuleusement. Une combinaison valable, actuellement au niveau le plus élevé, pourrait être l'adoption de la norme C2PA, qui associe différents types de métadonnées uniques au contenu (auteur, date, système génératif utilisé, etc.) et les protège contre les altérations à l'aide d'une clé cryptographique, et les associe à un filigrane numérique robuste, tel que celui d'IMATAG, afin d'empêcher la suppression de ces métadonnées. Le contenu est alors protégé de toute altération ou suppression de ses métadonnées et reste parfaitement sourcé et intègre tout au long de sa vie dans la sphère informationnelle.

Références de contenu
Norme C2PA

Labellisation des images générées par un filigrane invisible

Déverrouiller l'Avenir de l'Authentification de Contenu : La Percée d'IMATAG dans le Marquage des Images Générées par IA
Le contenu généré peut également être marqué d'un filigrane pendant le processus de génération (lire notre article)

Sanctions en cas de non-respect de l'obligation d'étiquetage

Le non-respect de cette obligation d'étiquetage entraîne automatiquement une amende pouvant aller jusqu'à 15 millions d'euros ou jusqu'à 3 % du chiffre d'affaires annuel mondial total réalisé au cours de l'exercice précédent, le montant le plus élevé étant retenu.

Le temps : le facteur crucial contre les Deepfakes

Les systèmes d'IA à usage général qui comprennent des fonctionnalités de génération de contenu synthétique doivent être conformes avant mai 2025, et tous les autres systèmes avant mai 2026. Ce délai est considéré comme très tardif, d'autant plus que les développements technologiques et l'adoption généralisée des systèmes d'IA générative et polyvalente, ainsi que l'ultra-réalisme des contenus générés, se sont considérablement accélérés au cours des derniers mois.

Cette préoccupation concernant le déploiement tardif de l'obligation de labellisation de l'IA générative a été récemment partagée par Mme Anna Ascani, vice-présidente de la Chambre des députés italienne, qui envisage l'adoption d'une loi nationale visant à accélérer le déploiement de l'IA générative. Cette réaction fait suite à la diffusion sur toutes les plateformes en ligne d'un deepfake du porte-parole du président ukrainien Volodymyr Zelensky revendiquant la responsabilité d'un attentat terroriste à Moscou, soulignant une fois de plus l'impact de la désinformation due à des contenus générés artificiellement.

Le décret présidentiel américain du 30 octobre 2023, pour une intelligence artificielle sûre, sécurisée et digne de confiance, prévoit un déploiement à grande échelle du tatouage numérique des contenus générés à partir du début de 2025, bien plus tôt que ce que prescrit la loi européenne sur l'IA.

De leur côté, lors de la conférence de Munich sur la sécurité du 16 février 2024, de nombreux acteurs du domaine de l'IA générative (tels que Anthropic, Google, Meta, Microsoft, OpenAI et Stability AI) se sont engagés dans le cadre du "Tech Accord to Combat Deceptive Use of AI in 2024 Elections" à déployer des technologies pour contrer les contenus nuisibles générés par l'IA visant à tromper les électeurs et permettant de détecter les contenus générés par l'IA, notamment à l'aide de filigranes numériques.

Dans ce contexte d'urgence, pour faciliter la transition vers le nouveau cadre réglementaire, la Commission Européenne a lancé le Pacte sur l'IA, une initiative volontaire qui vise à soutenir sa mise en œuvre future et invite les développeurs d'IA d'Europe et d'ailleurs à se conformer à l'avance aux obligations de la loi sur l'IA et à commencer à mettre en œuvre ses exigences avant la date limite légale, y compris en ce qui concerne les obligations relatives au filigrane du contenu.

Au-delà du droit : l'éthique

Au-delà des obligations légales, aucun fournisseur d'IA générative ne souhaite voir son nom associé à une campagne de désinformation, à une fraude ou à une manipulation de l'opinion publique pour des raisons d'image, de réputation et, en fin de compte, de viabilité économique.

L'étiquetage des contenus générés joue un rôle crucial dans la lutte contre les "deepfakes" et la désinformation, dans l'atténuation de la fatigue informationnelle des internautes en distinguant clairement les contenus authentiques des contenus générés, et participe de l'éducation aux médias. C'est une question de responsabilité et d'éthique, comme l'a récemment souligné la résolution non contraignante de l'Assemblée générale des Nations unies du 21 mars 2024, parrainée par les États-Unis et coparrainée par 123 pays, dont la Chine, qui fait définitivement entrer l'étiquetage des contenus générés dans le domaine de l'éthique, avant qu'il n'entre dans le domaine de la pure conformité juridique.

Fournisseurs d'IA générative de tous les pays, n'attendez pas pour marquer votre contenu généré avec la technologie IMATAG, l'une des plus robustes et sécurisées au monde !

Photo : Image générée par l'IA conforme au C2PA.

Découvrez la solution IMATAG pour insérer des filigranes invisibles dans vos contenus visuels.

Vous voulez "voir" un filigrane invisible ?

Découvrez la solution IMATAG pour insérer des filigranes invisibles dans vos contenus visuels.

Réserver une démo

Ces articles peuvent également vous intéresser

Marquage numérique embarqué : garantir l'authenticité d'une image dès sa capture.

Authenticité & Détection d'IA

5 mars 2024

Marquage numérique embarqué : garantir l'authenticité d'une image dès sa capture.

Voir plus d'informations
Essentiel pour l'Authenticité en Ligne : Intégrer le Watermarking aux Standards C2PA

Authenticité & Détection d'IA

14 mars 2024

Essentiel pour l'Authenticité en Ligne : Intégrer le Watermarking aux Standards C2PA

Voir plus d'informations
Déverrouiller l'Avenir de l'Authentification de Contenu : La Percée d'IMATAG dans le Marquage des Images Générées par IA

Authenticité & Détection d'IA

29 janvier 2024

Déverrouiller l'Avenir de l'Authentification de Contenu : La Percée d'IMATAG dans le Marquage des Images Générées par IA

Voir plus d'informations

S'abonner au blog !

En soumettant ce formulaire, j'accepte la politique de confidentialité d'Imatag.