SynthID de Google DeepMind et l'impératif d'un filigrane complet

Authenticité & Détection d'IA

Droit d'auteur

28 septembre 2023

SynthID de Google DeepMind et l'impératif d'un filigrane complet

⇥ QUICK READ

<div class="hs-cta-embed hs-cta-simple-placeholder hs-cta-embed-148431706223"
 style="max-width:100%; max-height:100%; width:170px;height:570.703125px" data-hubspot-wrapper-cta-id="148431706223">
 <a href="https://cta-service-cms2.hubspot.com/web-interactives/public/v1/track/redirect?encryptedPayload=AVxigLKZHPCM48e7X6Jh6q%2FHTayvEM6WFXfVUmMYKCsyKh6XhLJMOeRHroWJs5vbBioch6K9q89LSnwwa2bf6Sb5nIcpHFPOGAibLFi3svmRrJe7VaMIpyjDPkg8hlnboqQwh6XFjf9TwglgS3gP7TNnYNdKOe%2BBvODCQwbBD83bW%2BFzBT68L%2FZXs5DsAHw2ApqKbjCguOaYatyR0irsRV8C8dpsROUMP5%2BnXw4oa2wfbGIrUuFXeec0oe9CovRhkg%3D%3D&webInteractiveContentId=148431706223&portalId=4144962" target="_blank" rel="noopener" crossorigin="anonymous">
   <img alt="History of Digital Watermarking &nbsp; Download our infographic &quot;the Invisible Digital Watermarking Saga: A Journey Through Time&quot;" loading="lazy" src="https://no-cache.hubspot.com/cta/default/4144962/interactive-148431706223.png" style="height: 100%; width: 100%; object-fit: fill"
     onerror="this.style.display='none'" />
 </a>
</div>

Partager cet article

S'abonner au blog !

Je m'abonne

Plongez dans le domaine de l'authenticité des images en analysant l'intégration de la technologie SynthID de Google DeepMind pour identifier les images générées. Explorez les complexités de cette innovation et ses lacunes potentielles sur la question plus large de la garantie d'un contenu d'image digne de confiance.

Dans le monde de l'intelligence artificielle et des technologies génératives, DeepMind de Google a récemment annoncé son intention d'intégrer la technologie de filigrane invisible de SynthID dans ses systèmes d'intelligence artificielle. Si cette initiative met en lumière la technique essentielle du filigrane invisible, elle soulève également d'importantes questions sur les implications plus larges et la nécessité de filigraner des images authentiques. L'initiative de DeepMind est louable, mais elle souligne l'importance du filigrane sur le contenu original, car tous les logiciels d'IA générative ne suivront peut-être pas les traces de Google. Cette évolution s'inscrit dans la longue histoire du filigrane invisible, initialement conçu pour résoudre les problèmes de violation des droits d'auteur, et aujourd'hui motivé par deux facteurs clés : l'érosion de la confiance du public dans les images et la demande croissante des gouvernements, y compris la Maison Blanche, pour que les logiciels d'IA générative filtrent leur contenu. En outre, les systèmes d'IA reposent eux-mêmes sur le contenu et doivent faire la distinction entre les données authentiques et les données générées.

L'évolution du filigrane invisible : Lutte contre la violation des droits d'auteur

Le concept de filigrane invisible, une technique qui incorpore des marqueurs cachés dans le contenu numérique, a une longue histoire. Il est apparu comme une réponse aux défis posés par la numérisation rapide des médias dans les années 1990. À l'origine, son objectif premier était de lutter contre les violations des droits d'auteur. La possibilité d'intégrer des filigranes imperceptibles dans les ressources numériques permettait aux détenteurs de droits d'auteur de retracer et de prouver la propriété, fournissant ainsi un outil puissant pour sauvegarder leur propriété intellectuelle.

La crise de l'authenticité de l'image : Un dilemme croissant

Aujourd'hui, nous vivons une époque marquée par des doutes quant à l'authenticité des images numériques. La prolifération d'outils alimentés par l'IA et de modèles génératifs, illustrée par la technologie Deepfake, a laissé le public dans l'incertitude quant à la véracité des médias visuels. Par conséquent, les individus et les organisations sont de plus en plus prudents lorsqu'il s'agit d'accepter des images numériques à leur valeur nominale, craignant la manipulation et la désinformation.

Exemple d'image d'un groupe de personnes dans l'espace extra-atmosphérique générée par une intelligence artificielle.
Une image d'un groupe de personnes dans l'espace générée par l'intelligence artificielle. - Le New York Times

L'appel au filigrane dans l'IA générative : une réponse à la tromperie

Conscients de l'incertitude croissante qui entoure l'imagerie numérique, les gouvernements et les organisations prennent des mesures proactives. La Maison Blanche, dans le cadre de ses efforts pour gérer les risques liés à l'IA, a demandé aux principales entreprises d'IA de filigraner leur contenu génératif. Cette mesure vise à assurer la transparence et l'authenticité, en permettant au public d'identifier le contenu provenant des systèmes d'IA générative et en réduisant le risque de tromperie.

"Je pensais être à l'abri de toute tromperie en ligne. Puis j'ai vu le pape en manteau" - Joel Golby, The Guardian

L'appétit insatiable de l'IA pour les données : le défi de l'authenticité

Au-delà des préoccupations du public, il existe un besoin pressant pour les systèmes d'IA eux-mêmes de faire la distinction entre un contenu authentique et un contenu généré. Les modèles d'IA, y compris ceux développés par DeepMind, s'appuient sur de vastes ensembles de données pour l'entraînement. Ces ensembles de données sont souvent constitués d'un mélange de données réelles et synthétiques. Il est crucial de s'assurer que les systèmes d'IA peuvent effectivement faire la différence entre ces types de données pour maintenir leur précision et leur fiabilité.

Initiative de DeepMind : Faire progresser la transparence

La décision de DeepMind d'intégrer la technologie de filigrane invisible de SynthID dans ses systèmes d'IA représente une étape importante dans la résolution de la crise de l'authenticité de l'imagerie numérique. En filigranant son contenu génératif, DeepMind vise à créer une distinction claire entre les images générées par l'IA et les images réelles. Cela permet non seulement de renforcer la confiance du public, mais aussi de contribuer à l'effort général de lutte contre la prolifération des contenus trompeurs en ligne.

Des implications plus larges : Un appel en faveur de l'utilisation de filigranes pour les contenus authentiques

Si l'initiative de DeepMind est louable, elle souligne également l'importance du filigrane pour les contenus originaux et authentiques. Tous les logiciels d'IA générative ne choisiront peut-être pas de suivre l'exemple de Google, ce qui laissera un vide dans le paysage du filigrane. Pour remédier à cette situation, il est essentiel d'envisager de filigraner des images authentiques afin de maintenir la confiance et l'intégrité dans les médias visuels. En fait, les photos de presse, qui sont déjà couramment marquées d'un filigrane pour contrôler leurs publications en ligne, peuvent être facilement identifiées comme authentiques.

En outre, le volume d'images générées est appelé à croître de manière exponentielle. Pour mettre les choses en perspective, l 'IA a généré plus d'images à ce jour que l'humanité n'en a créées en des centaines d'années. Ce contraste frappant entre le volume des images générées et celui des images authentiques souligne le besoin critique de solutions robustes de filigrane pour maintenir la confiance, surtout si l'on considère que le nombre de photos d'actualité prises chaque année reste relativement stable.

"L'IA a déjà créé autant d'images que les photographes en 150 ans. Statistiques pour 2023" - Journal Everypixel

Naviguer dans les eaux complexes du filigrane

La décision de DeepMind d'adopter la technologie de filigrane invisible de SynthID souligne la nécessité d'une approche à multiples facettes pour résoudre la crise de l'authenticité de l'imagerie numérique. Alors que l'IA générative devient de plus en plus répandue et accessible, la technologie du filigrane offre un moyen crucial de faire la distinction entre ce qui est réel et ce qui est généré. Si l'initiative de DeepMind constitue une avancée louable, elle souligne la nécessité plus générale de filigraner les images authentiques. Cette intégration marque un tournant dans l'histoire du filigrane invisible, soulignant sa pertinence à une époque où la confiance et l'authenticité sont des préoccupations primordiales. Enfin, elle ouvre la voie à un avenir où l'authenticité des contenus numériques sera préservée et où le public pourra naviguer en toute confiance dans le paysage numérique.

Découvrez la solution IMATAG pour insérer des filigranes invisibles dans vos contenus visuels.

Vous voulez "voir" un filigrane invisible ?

Découvrez la solution IMATAG pour insérer des filigranes invisibles dans vos contenus visuels.

Réserver une démo

Ces articles peuvent également vous intéresser

Loi européenne sur l'IA : Étiquetage obligatoire des contenus générés par l'IA

Authenticité & Détection d'IA

9 avril 2024

Loi européenne sur l'IA : Étiquetage obligatoire des contenus générés par l'IA

Voir plus d'informations
Marquage numérique embarqué : garantir l'authenticité d'une image dès sa capture.

Authenticité & Détection d'IA

5 mars 2024

Marquage numérique embarqué : garantir l'authenticité d'une image dès sa capture.

Voir plus d'informations
Essentiel pour l'Authenticité en Ligne : Intégrer le Watermarking aux Standards C2PA

Authenticité & Détection d'IA

14 mars 2024

Essentiel pour l'Authenticité en Ligne : Intégrer le Watermarking aux Standards C2PA

Voir plus d'informations

S'abonner au blog !

En soumettant ce formulaire, j'accepte la politique de confidentialité d'Imatag.