Nouveaux outils OpenAI pour détecter les images IA

Nouveaux outils OpenAI pour détecter les images IA
Nouveaux outils OpenAI pour détecter les images IA
-

3 min de lecture

OpenAI a révélé de nouveaux outils d’IA capables de détecter si une image a été créée à l’aide de son générateur d’images DALL-E AI. La société a également introduit des techniques avancées de filigrane pour mieux identifier le contenu qu’elle génère.

Recevez des notifications des dernières nouvelles, articles et bien plus encore !


Continuer

Ce qui est arrivé

OpenAIsupporté par Microsoft Corp. (NASDAQ : MSFT), développe des méthodes avancées pour suivre et authentifier le contenu généré par l’IA. Cela implique un classificateur de détection d’images de pointe capable d’identifier les photos générées par l’IA et un système de filigrane pour étiqueter discrètement le contenu audio, a expliqué la société dans un article de blog.

De plus, OpenAI a également introduit Model Spec, un cadre qui décrit les comportements attendus des outils d’IA et qui guidera les futures réponses des outils d’IA comme GPT-4.

Le classificateur est capable de déterminer si une image a été générée par DALL-E 3. OpenAI affirme que le classificateur reste précis même si l’image est recadrée, compressée ou si la saturation est modifiée.

Cependant, sa capacité à identifier le contenu d’autres modèles d’IA est limitée, car elle n’identifie qu’environ 5 à 10 % des images provenant d’autres générateurs d’images, tels que À mi-parcours.

OpenAI avait précédemment ajouté des informations d’identification de contenu aux métadonnées d’image du Coalition de provenance et d’autorité du contenu (C2PA). Ce mois-ci, OpenAI a également rejoint le comité de pilotage de cette instance. La startup d’intelligence artificielle a également commencé à ajouter des filigranes aux clips de Voice Engine, sa plate-forme de synthèse vocale actuellement en aperçu limité.

Le classificateur d’images et le signal de filigrane audio restent affinés. Les chercheurs et les groupes de journalisme à but non lucratif peuvent tester le classificateur de détection d’images en l’appliquant à la plateforme d’accès à la recherche d’OpenAI.

Cela arrive à un moment où un nombre record de pays dans le monde organisent des élections nationales ou les tiendront plus tard en 2024. Des pays comme les États-Unis, l’Inde et le Royaume-Uni organiseront des élections au cours des six prochains mois.

Vous pouvez également lire : Elon Musk lève 6 milliards pour concurrencer OpenAI

Parce que c’est important

Les nouveaux outils de détection d’images générés par l’IA d’OpenAI arrivent à un moment où les inquiétudes grandissent quant à la propagation de la désinformation via le contenu généré par l’IA.

En mars, il a été signalé que les outils d’imagerie IA d’OpenAI et de Microsoft étaient utilisés pour usurper des images susceptibles de contribuer à la désinformation liée aux élections. Cela a soulevé des inquiétudes quant à la possibilité que les outils d’IA soient utilisés de manière malveillante.

L’intelligence artificielle et la désinformation sont des sujets brûlants à l’approche des élections de 2024, avec plus de la moitié des Américains s’inquiétant du potentiel de l’IA à diffuser de la désinformation.

Image via Shutterstock

Ce contenu a été partiellement produit avec l’aide de Benzinga Neuro et révisé et publié par les éditeurs de Benzinga.

Pour plus de mises à jour sur ce sujet, activez les notifications Benzinga Espagne ou suivez-nous sur nos réseaux sociaux : X et Facebook.

-

PREV “Je crois en Xbox”, commente Seamus Blackley sur les licenciements et les fermetures de studios
NEXT L’un des bugs les plus effrayants de Red Dead Redemption II fait perdre la peau aux animaux