Logo
Alain Web-creator
3 mois depuis
#deepfake | l'intelligence artificielle peut cloner la voix de quelqu'un. En fait, il existe plusieurs entreprises qui proposent des services de clonage vocal. Parmi les plus connues, citons #Lyrebird et #Resemble #ai . 🤖

Ces services fonctionnent en analysant un enregistrement audio de la voix de la personne que vous souhaitez cloner. Ils utilisent ensuite cette analyse pour créer un modèle de la voix de la personne, qui peut ensuite être utilisé pour générer de nouvelles voix.

Les voix générées par ces services sont souvent très réalistes, et il peut être difficile de les distinguer de la voix réelle de la personne. Cela peut être utilisé à des fins diverses, telles que la création de voix off pour des publicités ou des vidéos, ou la création de voix d'assistants virtuels.

Cependant, il est important de noter que les services de clonage vocal peuvent également être utilisés à des fins malveillantes, telles que la création de #deepfakes . Un deepfake est une vidéo ou un enregistrement audio dans lequel la voix d'une personne a été remplacée par la voix d'une autre personne. Les deepfakes peuvent être utilisés pour diffuser de fausses informations ou pour nuire à la réputation de quelqu'un.

#ondoossa #chambrier #afrigpt
Twitbook 24 Social
11 mois depuis
🔴🔴🔴Attention aux Deepfake !

Ces derniers jours, de nombreuses videos et de nombreux audios à l'air authentique qui font étrangement faire ou dire à des gens des choses assez compromettantes ont défrayé la chronique chez nous. Une occurence qui ne saurait être banalisée au vue des conséquences désatreuse que ces incidents ont sur les vie et les carrières. Et une des premières questions que posent ces éléments multimédia est la question de leur authenticité. En effet, avec le perfectionnement de l'intelligence artificielle il est devenu possible de créer des fausses vidéos ou des faux audios assez crédible, les deepfakes.

👉 Qu'est ce qu'un deepfake ?

Selon l'encyclopédie Wikipédia, " le deepfake , ou hypertrucage, est une technique de synthèse multimédia reposant sur l'intelligence artificielle. Elle peut servir à superposer des fichiers vidéo ou audio existants sur d'autres fichiers vidéo (par exemple changer le visage d'une personne sur une vidéo) ou audio (par exemple reproduire la voix d'une personne pour lui faire dire des choses inventées). Cette technique peut être utilisée pour créer des infox et des canulars malveillants. Le terme deepfake est un mot-valise formé à partir de deep learning (« apprentissage profond ») et de fake (« faux », « contrefait »)."

Le site ajouté qu'il est possible de créer des hypertrucages en utilisant l'application FakeApp, qui utilise TensorFlow, un outil open source développé par Google.

Les hypertrucages vidéos sont aussi appelés infox vidéo ou vidéotox.

👉Comment fonctionnent les deepfakes ?

Pour faire simple, une partie de la vidéo originale (par exemple un visage) est remplacée par un faux d’apparence similaire. Dans ce cas, on parle aussi de “faceswap”

Cependant, le phénomène ne se limite pas à la vidéo : il existe également des images et des sons truqués (et, qui sait, des avatars VR truqués dans un avenir proche).

👉Une arme très dangereuse!

Les deepfakes sont un peu comme il fallait s'y attendre devenus une arme utilisée par les esprits malveillants pour nuire à ceux qu'ils ont pris comme ennemis. Pour revenir au cas spécifiques du Cameroun on a eu en très peu de temps, des audios compromettantes de Samuel Eto'o auxquelles ont répondu des audios compromettantes de Faustin Domkeu, puis on a eu une vidéo d'un sous prefet en train de se m*sturber, qui a été suivie par une vidéo d'un professeur d'université dans le même exercice avec apparemment la même femme (ce qui aurait dû alerter n'importe quelle personne ayant un sens critique). Et rien ne dit qu'on en a fini tant que les foules ne seront pas outillées pour répérer ces malveillance

👉Gardez l’œil ouvert !

Deepfkaes utilise l’intelligence artificielle pour faire dire des choses à n’importe qui.

Le premier conseil à suivre est de ne pas faire confiance à ce que vous voyez sur internet. Il y a des tonnes de fausses informations, et leur efficacité ne fait que croître.

Et comme il sera de plus en plus facile de les créer, il est temps d’apprendre à repérer les “deepfakes”.

La prochaine fois donc, avant de jurer sur l'authenticité d'une vidéo ou d'un audio, demandons-nous si c'est un deepfake ou pas ? En attendant voici quelques techniques simples pour reconnaître un deepfake vidéo, même si comme nous l'avons vu le deepfake ne se limite pas à la vidéo.

👉Comment reconnaitre un #deepfake ?

Pour détecter les deepfake il faut donc :

1. Se demander si ce qu'on voit peut vraiment être réel ? Si on n'est pas sûr, il faut donc éviter de partager le contenu sur les réseaux sociaux.

2. Vérifiez si une autre source fiable raconte la même histoire ou le même récit.

3. Un défi bien plus important est la détection de traces presque invisibles dans les médias synthétiques et manipulés. De telles manipulations peuvent être détectées en recherchant des sauts étranges dans une vidéo, une insistance modifiée sur la voix, une mauvaise qualité audio, des taches floues, des formes de membres étranges et d'autres incohérences inhabituelles.

4. Faites attention aux caractéristiques deepfake connues : un visage parfaitement symétrique, des boucles d'oreilles dépareillées, des lunettes déformées, des formes inhabituelles d'oreilles, de nez et de dents, une perte de contraste, des incohérences dans la région du cou, des cheveux ou des doigts.

5. Parfois, on doit regarder une vidéo image par image pour voir ces incohérences.

6. Zoomez sur les mouvements de la bouche et des lèvres et comparez-les à votre propre comportement humain pour voir la synchronisation des lèvres, à quoi devrait ressembler une bouche lorsqu'elle émet un certain son.

💥 Source: #Jacques_Kisoto_Ndongo_Bitye ✍️

Rien n'a été trouvé!

Désolé, mais nous n'avons rien trouvé dans notre base de données pour votre requête de recherche {{search_query}}. Veuillez réessayer en saisissant d'autres mots clés.