Google a rejoint en début d’année une coalition d’entreprises tech pour déterminer la provenance et l’authenticité d’images, savoir si elles sont ou non générées par IA. Après cette étape, Google indique comme son moteur de recherche nous indiquera si une image a été générée par intelligence artificielle ou non.
C’est évidemment un grand défi auquel doivent faire face les géants de la tech : nous indiquer si les images que nous voyons ont été générées par intelligence artificielle. C’est d’ailleurs un problème que ces mêmes entreprises créent en partie, en éditant des outils de génération d’images. En début d’année, Google rejoignait la Coalition for Content Provenance and Authenticity (C2PA). Aujourd’hui, la firme veut montrer comment elle souhaite utiliser son moteur de recherche pour nous prévenir.
« À propos de cette image » : elle a été générée par IA
Dans les prochains mois, la norme technique Content Credentials sera intégrée dans Google. Ainsi, si une image contient des métadonnées C2PA, « Les internautes pourront utiliser notre fonction « À propos de cette image » pour savoir si elle a été créée ou modifiée à l’aide d’outils d’IA. »
Pour l’instant, cette fonctionnalité permet de voir toutes les pages indexées par Google où on peut trouver ladite image. Ce changement arrivera dans les prochains mois sur Google Images, Google Lens et Circle to Search. Google précise vouloir intégrer ce système dans d’autres de ses services.
Google s’allie pour éviter les images trompeuses
Avec cette C2PA, Google a participé à une norme technique, Content Credentials. Il s’agit d’une norme permettant d’indiquer dans les métadonnées d’une image qu’elle a été générée par intelligence artificielle. Selon la société, même en la modifiant, l’image pourra toujours être détectée comme ayant été générées. Renforcer cette norme technique, c’est donc éviter au plus les attaques voulant altérer les images pour tromper leur origine. Un autre intérêt de la Coalition for Content Provenance and Authenticity, c’est la création d’une « liste de confiance ». Autrement dit, les acteurs qui la rejoignent prennent des engagements et mesures, se font confiance les uns les autres. Google explicite ce système dans un billet de blog : « par exemple, si les données indiquent qu’une image a été prise par un modèle d’appareil photo spécifique, la liste de confiance permet de valider l’exactitude de cette information. »
Dans la Coalition for Content Provenance and Authenticity, on trouve aussi Adobe, Amazon, Intel, Meta, Microsoft, TikTok ou encore OpenAI. Parmi eux par exemple, Meta s’est déjà engagé à annoter les images générées par IA, par le biais du C2PA. Manquent à l’appel (pour l’instant) Apple, dernier « grand nom » de la tech. Google pourrait d’ailleurs intégrer la norme technique de cette coalition dans Android.