www.zejournal.mobi
Mercredi, 24 Avr. 2024

Les Deepfakes vont transformer le monde en une Dystopie digne de la SF car les humains « ne pourront pas faire la différence »

Auteur : David Rivers | Editeur : Walt | Jeudi, 24 Sept. 2020 - 08h22

Des experts ont averti que la technologie des deepfakes progresse à un rythme bien plus soutenu que la technologie utilisée pour la détecter, l’un d’entre eux estimant qu’elle pourrait être trop intelligente pour que l’homme puisse la déceler.

La technologie Deepfake risque de plonger le monde dans un cauchemar de dystopique digne de la pire science fiction où les humains sont incapables de faire la différence entre le vrai et le faux, a-t-on prévenu.

La technologie de l’intelligence artificielle (IA) est délibérément utilisée pour tromper les internautes en leur faisant croire que des personnages fabriqués sont réels.

Ces dernières années, cela a conduit à la réalisation de fausses vidéos de politiciens présentés comme ayant dit quelque chose qu’ils n’avaient pas dit, ou de célébrités apparaissant dans de faux films pour adulte.

Mais les scientifiques ont insisté sur le fait que toute plateforme hébergeant des deepfakes doit rendre des comptes.

Jennifer Fernick, chercheuse en chef du groupe NCC, a commenté le danger que les deepfakes soient “la substance de la science-fiction dystopique et des rêves des cinéastes” : “L’inquiétude que j’aurais pour cette entreprise est que la sophistication des technologies existantes de deepfake est certainement au-delà du seuil de la plupart des humains pour être trompés par des images fausses”.

Elle a ajouté que la technologie des deepfakes progressait plus rapidement que la technologie permettant de les identifier.

Mme Fernick a ajouté : “Les défenses actuelles basées sur des machines ne résolvent pas tous nos problèmes”.

Joseph Carson, chef scientifique de la sécurité chez Thycotic, a déclaré que les géants de la technologie qui hébergent des contrefaçons devraient être punis.

Il a dit à DarkReading : “Pour l’avenir, la meilleure façon de se défendre contre les deepfakes est de tenir pour responsables les plateformes qui hébergent et mettent à disposition du public les deepfakes.”

“Si un message n’a pas été accompagné d’une source ou d’un contexte de confiance, l’étiquetage correct du contenu doit indiquer clairement au spectateur que la source du contenu a été vérifiée, qu’elle est toujours en cours d’analyse ou que le contenu a été modifié de manière significative”.

L’année dernière, Shamir Allibhai, PDG de la société de vérification vidéo Amber, a déclaré au Daily Star Online qu’il pense que la technologie des deepfakes pourrait devenir si réaliste que des innocents pourraient aller en prison.

Il nous l’a dit : “Au départ, les contrefaçons seront des manipulations de preuves audio/vidéo existantes, telles que celles provenant de la vidéosurveillance, des enregistreurs vocaux, des caméras de surveillance de la police et des téléphones portables des spectateurs.

“Les humains ont une ouïe notoirement faible par rapport à notre vue : je parierais que nous nous faisons d’abord avoir par une fausse bande audio.”

“Il est également beaucoup plus facile de créer un faux son crédible que de créer une fausse vidéo crédible.”

“À l’avenir, la vidéo sera générée à partir de zéro, sans aucune base dans des séquences réelles.”

Traduit par Aube Digitale

Lire aussi:

Deep fake: la notion de vérité est-elle vouée à disparaître


Cela peut vous intéresser

Commentaires

Envoyer votre commentaire avec :



Fermé

Recherche
Vous aimez notre site ?
(230 K)
Derniers Articles
Articles les plus lus
Loading...
Loading...
Loading...