
Droit d'auteur
Technologie de suivi des images
28 septembre 2023
SynthID de Google DeepMind et l'impératif d'un filigrane complet
⇥ QUICK READ
<div class="hs-cta-embed hs-cta-simple-placeholder hs-cta-embed-148431706223"
style="max-width:100%; max-height:100%; width:170px;height:570.703125px" data-hubspot-wrapper-cta-id="148431706223">
<a href="https://cta-service-cms2.hubspot.com/web-interactives/public/v1/track/redirect?encryptedPayload=AVxigLKZHPCM48e7X6Jh6q%2FHTayvEM6WFXfVUmMYKCsyKh6XhLJMOeRHroWJs5vbBioch6K9q89LSnwwa2bf6Sb5nIcpHFPOGAibLFi3svmRrJe7VaMIpyjDPkg8hlnboqQwh6XFjf9TwglgS3gP7TNnYNdKOe%2BBvODCQwbBD83bW%2BFzBT68L%2FZXs5DsAHw2ApqKbjCguOaYatyR0irsRV8C8dpsROUMP5%2BnXw4oa2wfbGIrUuFXeec0oe9CovRhkg%3D%3D&webInteractiveContentId=148431706223&portalId=4144962" target="_blank" rel="noopener" crossorigin="anonymous">
<img alt="History of Digital Watermarking Download our infographic "the Invisible Digital Watermarking Saga: A Journey Through Time"" loading="lazy" src="https://no-cache.hubspot.com/cta/default/4144962/interactive-148431706223.png" style="height: 100%; width: 100%; object-fit: fill"
onerror="this.style.display='none'" />
</a>
</div>
Partager cet article
S'abonner au blog !
Je m'abonnePlongez dans le domaine de l'authenticité des images en analysant l'intégration de la technologie SynthID de Google DeepMind pour identifier les images générées. Explorez les complexités de cette innovation et ses lacunes potentielles sur la question plus large de la garantie d'un contenu d'image digne de confiance.
Dans le monde de l'intelligence artificielle et des technologies génératives, DeepMind de Google a récemment annoncé son intention d'intégrer la technologie de filigrane invisible de SynthID dans ses systèmes d'intelligence artificielle. Si cette initiative met en lumière la technique essentielle du filigrane invisible, elle soulève également d'importantes questions sur les implications plus larges et la nécessité de filigraner des images authentiques. L'initiative de DeepMind est louable, mais elle souligne l'importance du filigrane sur le contenu original, car tous les logiciels d'IA générative ne suivront peut-être pas les traces de Google. Cette évolution s'inscrit dans la longue histoire du filigrane invisible, initialement conçu pour résoudre les problèmes de violation des droits d'auteur, et aujourd'hui motivé par deux facteurs clés : l'érosion de la confiance du public dans les images et la demande croissante des gouvernements, y compris la Maison Blanche, pour que les logiciels d'IA générative filtrent leur contenu. En outre, les systèmes d'IA reposent eux-mêmes sur le contenu et doivent faire la distinction entre les données authentiques et les données générées.
L'évolution du filigrane invisible : Lutte contre la violation des droits d'auteur
Le concept de filigrane invisible, une technique qui incorpore des marqueurs cachés dans le contenu numérique, a une longue histoire. Il est apparu comme une réponse aux défis posés par la numérisation rapide des médias dans les années 1990. À l'origine, son objectif premier était de lutter contre les violations des droits d'auteur. La possibilité d'intégrer des filigranes imperceptibles dans les ressources numériques permettait aux détenteurs de droits d'auteur de retracer et de prouver la propriété, fournissant ainsi un outil puissant pour sauvegarder leur propriété intellectuelle.
La crise de l'authenticité de l'image : Un dilemme croissant
Aujourd'hui, nous vivons une époque marquée par des doutes quant à l'authenticité des images numériques. La prolifération d'outils alimentés par l'IA et de modèles génératifs, illustrée par la technologie Deepfake, a laissé le public dans l'incertitude quant à la véracité des médias visuels. Par conséquent, les individus et les organisations sont de plus en plus prudents lorsqu'il s'agit d'accepter des images numériques à leur valeur nominale, craignant la manipulation et la désinformation.

L'appel au filigrane dans l'IA générative : une réponse à la tromperie
Conscients de l'incertitude croissante qui entoure l'imagerie numérique, les gouvernements et les organisations prennent des mesures proactives. La Maison Blanche, dans le cadre de ses efforts pour gérer les risques liés à l'IA, a demandé aux principales entreprises d'IA de filigraner leur contenu génératif. Cette mesure vise à assurer la transparence et l'authenticité, en permettant au public d'identifier le contenu provenant des systèmes d'IA générative et en réduisant le risque de tromperie.

L'appétit insatiable de l'IA pour les données : le défi de l'authenticité
Au-delà des préoccupations du public, il existe un besoin pressant pour les systèmes d'IA eux-mêmes de faire la distinction entre un contenu authentique et un contenu généré. Les modèles d'IA, y compris ceux développés par DeepMind, s'appuient sur de vastes ensembles de données pour l'entraînement. Ces ensembles de données sont souvent constitués d'un mélange de données réelles et synthétiques. Il est crucial de s'assurer que les systèmes d'IA peuvent effectivement faire la différence entre ces types de données pour maintenir leur précision et leur fiabilité.
Initiative de DeepMind : Faire progresser la transparence
La décision de DeepMind d'intégrer la technologie de filigrane invisible de SynthID dans ses systèmes d'IA représente une étape importante dans la résolution de la crise de l'authenticité de l'imagerie numérique. En filigranant son contenu génératif, DeepMind vise à créer une distinction claire entre les images générées par l'IA et les images réelles. Cela permet non seulement de renforcer la confiance du public, mais aussi de contribuer à l'effort général de lutte contre la prolifération des contenus trompeurs en ligne.
Des implications plus larges : Un appel en faveur de l'utilisation de filigranes pour les contenus authentiques
Si l'initiative de DeepMind est louable, elle souligne également l'importance du filigrane pour les contenus originaux et authentiques. Tous les logiciels d'IA générative ne choisiront peut-être pas de suivre l'exemple de Google, ce qui laissera un vide dans le paysage du filigrane. Pour remédier à cette situation, il est essentiel d'envisager de filigraner des images authentiques afin de maintenir la confiance et l'intégrité dans les médias visuels. En fait, les photos de presse, qui sont déjà couramment marquées d'un filigrane pour contrôler leurs publications en ligne, peuvent être facilement identifiées comme authentiques.
En outre, le volume d'images générées est appelé à croître de manière exponentielle. Pour mettre les choses en perspective, l 'IA a généré plus d'images à ce jour que l'humanité n'en a créées en des centaines d'années. Ce contraste frappant entre le volume des images générées et celui des images authentiques souligne le besoin critique de solutions robustes de filigrane pour maintenir la confiance, surtout si l'on considère que le nombre de photos d'actualité prises chaque année reste relativement stable.

Naviguer dans les eaux complexes du filigrane
La décision de DeepMind d'adopter la technologie de filigrane invisible de SynthID souligne la nécessité d'une approche à multiples facettes pour résoudre la crise de l'authenticité de l'imagerie numérique. Alors que l'IA générative devient de plus en plus répandue et accessible, la technologie du filigrane offre un moyen crucial de faire la distinction entre ce qui est réel et ce qui est généré. Si l'initiative de DeepMind constitue une avancée louable, elle souligne la nécessité plus générale de filigraner les images authentiques. Cette intégration marque un tournant dans l'histoire du filigrane invisible, soulignant sa pertinence à une époque où la confiance et l'authenticité sont des préoccupations primordiales. Enfin, elle ouvre la voie à un avenir où l'authenticité des contenus numériques sera préservée et où le public pourra naviguer en toute confiance dans le paysage numérique.

Vous voulez "voir" un filigrane invisible ?
Découvrez la solution IMATAG pour insérer des filigranes invisibles dans vos contenus visuels.
Demander une démonstrationCes articles peuvent également vous intéresser

Droit d'auteur
13 juillet 2023
Au-delà du son : Quelles sont les conséquences des fuites visuelles dans l'industrie musicale ?

Droit d'auteur
29 juin 2023
Protéger les actifs visuels : Le rôle des services juridiques dans l'atténuation des fuites

Droit d'auteur
4 juin 2019