Un modèle GenAI pour les « compétences affectives visuelles » qui améliore l’expressivité des humains numériques (et des DeepFakes et FakeNews)

-

(et de DeepFakes & FakeNews)

Pour que vous compreniez le travail, vous devez d’abord comprendre en quoi consistent ces “Têtes Talking” dont je vous ai déjà parlé en 2019, où avec un seul cadre ou une série d’entre eux, un modèle de communication peut être appliqué. Apprentissage par transfert pour obtenir un mouvement de tête. Un processus également connu sous le nom de Visage Renaissancee, et dont tu as expliqué la vidéo de l’année 2019.

Maintenant avec le modèle VASA-1le processus va plus loin, et étant donné une photo plus un fichier audio que vous souhaitez monter avec un “Tête parlante“, vous obtenez une animation avec “Compétences visuelles et affectives” ou ce qui est pareil, avec des gestes très humanisés.

4770b9ee53.jpg

Le résultat final est un fichier animé de la personne utilisée comme entrée disant et gesticulant de manière très humaine à l’audio d’entrée, avec synchronisation labiale. Pour réaliser les tests, les chercheurs ont utilisé Humains synthétiques généré avec StyleGAN-2 – Je t’en ai aussi parlé dans 2019 dans l’article : “Style GAN : Une IA pour créer des profils de personnes qui n’existent PAS” et où est évoqué le site “Cette personne n’existe pas” – et qui permet de créer des personnes qui n’existent pas à partir de deux photographies d’humains (réels ou synthétique).

Dans leur travail, les chercheurs ont étendu le modèle, réussissant à réaliser ce processus avec une haute qualité en temps réel, en générant les images avec la gesticulation et en synchronisant les lèvres pendant le traitement du fichier audio, ce qui pourrait avoir un impact sur le monde de la cybersécurité, comme DeepFakes presque parfait, ou pour accompagner FaussesNouvelles plus crédible. Cela signifie qu’il n’est toujours pas prévu d’en publier un. API du modèle mis en œuvre, ni un produit. Ici vous pouvez voir comment cela fonctionne dans Temps réel.

Il s’agit d’un travail réalisé par la société BeHumans, et bien sûr ces avancées apportées par des recherches telles que VASA-1 Ils sont orientés vers la partie positive du GénAIc’est-à-dire humaniser davantage les interactions des gens avec la technologie, en augmentant son adoption et en réduisant la fracture numérique avec les personnes âgées, qui auront plus de facilité à utiliser les nouveaux services numériques.

Figure 9 : Une vidéo du prototype AutoVerifAI réalisée par TID

En revanche, pour le jeu de détection de Génération de Contenu par GenAI, ce que nous faisons chez AutoVerifAI, ces nouveaux algorithmes nous obligent à revoir les algorithmes de détection afin de trouver de nouvelles façons de les détecter, et voir lesquels fonctionnent le mieux. Ils en détectent les signes.

555a13a274.jpg

Figure 10 : Algorithmes de détection vidéo DeepFakes dans AutoVerifAI

peu de signes sont détectés dans les vidéos réalisées avec VASA-1 étant donné son

réalisme extrême dans “Compétences d’affection visuelle”,

ce qui les amène à mettre beaucoup de détails sur les micro-gestes humains.

Par exemple, avec les algorithmes Tête, Clignoter et LRCN/VIT que nous avons maintenant dans la version gratuite, dans cette vidéo de l’article il y a très peu de signes qu’il s’agit d’un DeepFauxalors que si l’on prend un cadre avec uniquement le visage de la personne, les indications augmentent, pour se baser sur un StyleGan.

769bfae783.jpg

Figure 11 : Avec la détection générée par GenAI pour les images,

AutoVerifAI augmente jusqu’à 28 % les indications selon lesquelles il est généré par l’IA.

Mais comme vous le voyez, les œuvres de perfection dans GénAI Pour rendre les Digital Humans plus parfaits, ils exigent de plus en plus de travail pour effectuer une analyse médico-légale déterministe, et de plus en plus de tests doivent être exécutés, afin d’avoir une opinion formée.

Salutations maléfiques !

7c281e01de.jpg

-

PREV Pokémon a 3 jeux en développement pour Nintendo Switch 2, déclare un initié bien connu
NEXT Le nom de l’ordinateur portable Samsung Snapdragon X Elite semble confirmé dans une nouvelle fuite