Auteur Message
Administrateur
Avatar de l’utilisateur
La question de la confiance se pose décidément beaucoup avec les médias ; et je ne parle des « grands médias », mais de tous les médias, y compris ce que des gens postent sur internet, comme sur les sites de vidéos.

Il a toujours été facile d’écrire dans mots en les prêtant à quelqu’un à tord. Même si ça ne sera jamais autant facile, il est de plus en plus facile de truquer la vidéo, et pas que pour des fausses vidéos d’OVNI, pour des fausses répliques dans des interviews par exemple aussi.

Ce sujet est ouvert avec un exemple issu de l’université de Standford, une université réputée pour ses travaux dans l’informatique appliquée au graphisme.

Ci‑dessous, la vidéo de démonstration d’une technique d’animation pour donner en temps réel, des expressions faciales à une personne, alors qu’elle n’a jamais eu ces expressions ; et cela inclut les mouvements des lèvres, ce qui peut permettre de faire croire qu’une personne à réellement prononcé certains mots qu’elles n’a pourtant jamais dit. Remarque : ce n’est pas du morphisme, c’est différent.

Cette université n’instille pas d’intentions malhonnêtes, elle ne fait que étudier et explorer des techniques, mais les usages que certaines gens pourraient en faire, c’est une autre question.

C’est en Anglais, mais l’image parle assez, même si on ne comprends pas l’Anglais.

Real-time Face Capture and Reenactment of RGB Videos


La page du site de l’université de Standford, présentant cette vidéo : Face2Face: Real-time Face Capture and Reenactment of RGB Videos (graphics.stanford.edu), 2015.

Note : la page mentionne la date de Juin 2016, alors que nous ne sommes qu’en Mars 2016. C’est peut‑être la date d’un événement à venir ou une erreur, je ne sais pas.
Profil