OpenAI lance un nouveau détecteur de deepfake pour lutter contre la désinformation

OpenAI lance un nouveau détecteur de deepfake pour lutter contre la désinformation
OpenAI lance un nouveau détecteur de deepfake pour lutter contre la désinformation
-

OpenAI travaille sur de nouveaux outils de détection d’images IA. Le reconnu démarrer l’intelligence artificielle a incorporé un nouvel outil pour identifier si une image a été créée avec son générateur d’images DALL-E, en plus d’introduire des méthodes avancées de filigrane pour marquer de manière plus évidente le contenu généré par ses systèmes.

Dans un article récent, OpenAI a annoncé avoir commencé à développer de nouvelles méthodes pour explorer le contenu et vérifier s’il a été généré par l’IA. Cela inclut un nouveau classificateur de détection d’image – qui utilise en fait l’IA – pour déterminer si la photo a été générée par l’IA, ainsi qu’un filigrane inviolable qui peut baliser du contenu tel que l’audio avec des indices invisibles. L’entreprise s’attend à ce que ces filigranes soient difficiles à supprimer.

OpenAI a déclaré que son nouveau détecteur pouvait identifier correctement 98,8 % des images créées par DALL-E 3

OpenAI a déclaré que son nouveau détecteur pouvait identifier correctement 98,8 % des images créées par DALL-E 3, la dernière version de son imageur. Mais la société a déclaré que l’outil n’était pas conçu pour détecter les images produites par d’autres générateurs populaires tels que À mi-parcours et La stabilité.

Comme les géants de la technologie Google et Meta, la société rejoindra le comité directeur de la Coalition for Content Provenance and Authenticity, ou C2PA, un effort visant à développer des références pour le contenu numérique. La norme C2PA est une sorte d’« étiquette nutritionnelle » pour les images, vidéos, clips audio et autres fichiers qui indique quand et comment ils ont été produits ou modifiés, y compris avec l’IA.

Selon Open AI, les gens peuvent toujours créer du contenu trompeur sans ces informations (ou les supprimer), mais ils ne peuvent pas facilement le falsifier ou le modifier, ce qui en fait une ressource importante pour instaurer la confiance.

« Pour favoriser l’adoption et la compréhension des normes de provenance, y compris C2PA, nous nous sommes associés à Microsoft pour lancer un fonds de résilience sociale. Ce fonds de 2 millions de dollars soutiendra l’éducation et la compréhension de l’IA, notamment par le biais d’organisations telles que les services technologiques pour les personnes âgées de l’AARP. , International IDEA et Association on AI », a déclaré la société.

-

PREV Ghost of Tsushima pour PC est testé sur 35 GPU différents et est considéré comme un port exceptionnel, supérieur à sa version sur PlayStation 5
NEXT Une étude montre que les trous noirs ont une « région de chute », comme l’avait prédit Einstein