Nous protégeons vos émissions de télévision, films, événements en direct, logiciels, jeux vidéo ou ebooks
Nous vous aidons à protéger votre rentabilité en arrêtant les diffusions illégales en temps réel
Nous surveillons les réseaux pour protéger votre marque et votre réputation, en vous donnant les outils nécessaires pour la préserver.
Service hautement spécialisé permettant de rechercher les revendeurs illégaux d’IpTv dans une zone géographiquement délimitée.
Nous protégeons vos émissions de télévision, films, événements en direct, logiciels, jeux vidéo ou ebooks
Nous vous aidons à protéger votre rentabilité en arrêtant les diffusions illégales en temps réel
Nous surveillons les réseaux pour protéger votre marque et votre réputation, en vous donnant les outils nécessaires pour la préserver.
Service hautement spécialisé permettant de rechercher les revendeurs illégaux d’IpTv dans une zone géographiquement délimitée.
Au début de l’année 2024, les réseaux sociaux ont été inondés de fausses images pornographiques de Taylor Swift. Une de ces images a été vue près de 50 millions de fois sur Twitter/X. Ce n’est pas la première fois qu’un tel scandale arrive, mais l’immense popularité de la chanteuse – nommée personnalité de l’année 2023 par le magazine Times – a forcé les politiciens à s’exprimer, et demander une législation sur le sujet. Les deepfakes sont, en effet, actuellement insuffisamment encadrés. Que sont-ils et quels sont les problèmes qu’ils posent ?
Les « deepfakes » viennent de « deep learning » et « fake ». Ce sont des médias synthétiques qui ont été manipulés numériquement pour remplacer de manière convaincante la représentation (photo, vidéo) d’une personne par celle d’une autre personne. Il peut également s’agir d’images générées par ordinateur de sujets humains qui n’existent pas dans la vie réelle.
Les deepfakes sont nés en 2017 lorsqu’un utilisateur de Reddit publié sur le site des clips pornographiques trafiqués. Dans ces vidéos, les visages de célébrités et ceux d’acteurs de films pornographiques étaient intervertis.
Actuellement, nombre de deepfakes sont pornographiques.
Exemple de deepfakes fabriqués à partir d’oeuvres d’art célèbres.
Tout d’abord, il faut passer des milliers de photos de visages des deux personnes à travers un algorithme d’intelligence artificielle d’encodage. L’encodeur trouve et apprend les similitudes entre les deux visages et les réduit à leurs caractéristiques communes, tout en compressant les images. Un deuxième algorithme d’IA, le décodeur, apprend ensuite à récupérer les visages à partir des images compressées. Deux décodeurs sont utilisés:: l’un récupère le visage de la personne A, l’autre celui de la personne B. Les images compressées de la personne A sont ensuite introduites dans le décodeur entraîné à reconnaître le visage de la personne B; ce dernier va alors reconstruire le visage de la personne B, en utilisant les expressions et les attitudes du visage 1.
Pour une vidéo convaincante, cette opération doit être effectuée sur chaque image.Mais, désormais, de nouvelles techniques permettent à des personnes non qualifiées de réaliser des deepfakes avec quelques photos. Il existe désormais des outils gratuits et disponibles en ligne pour n’importe qui permettant de simuler ces étapes très facilement, comme le site https://deepfakesweb.com/.
Manipulation, désinformation, diffamation ou humiliation, les personnalités discréditées (très majoritairement des stars féminines) sont au premier plan. Le revenge porn privé, maintenant que la technologie est devenue beaucoup plus accessible, est également une des utilisations les plus fréquentes de cette technologie.
Dans une étude effectuée en septembre 2019, la société d’intelligence artificielle Deeptrace a en effet trouvé 15 000 vidéos deepfake (deux fois plus que neuf mois auparavant). Plus de 96 % de ce contenu était pornographique et 99 % d’entre eux mettaient en correspondance des visages de célébrités féminines avec des stars du porno. La modération, insuffisante sur de nombreux réseaux sociaux, et plus particulièrement sur Twitter / X a été de nombreuses fois relevée. La politique est également particulièrement visée: de fausses images compromettant les personnalités en vue sont générées, et de faux coups de fil de Joe Biden ont récemment été passés, en vue de décourager les électeurs à participer au vote de la future élection présidentielle. De fausses informations sur les conflits armés en cours sont également créées par ce biais. Des campagnes entières de désinformation peuvent ainsi être crées en quelques clics, par quasiment n’importe qui, même avec des compétences techniques limitées et à moindre coût.
Mais cette technique crée désormais également des problèmes de sécurité importants dans les entreprises: récemment, plusieurs employés de grandes entreprises ont été piégés, par le biais coups de téléphones reproduisant les voix de dirigeants, et même d’une fausse visioconférence sur Zoom, et ont effectué des virements de plusieurs dizaines de millions de dollars sur l’ordre fictif de supérieurs hiérarchiques autorisés à demander de telles opérations. Un rapport de VMWare a révélé une augmentation de 13 % des attaques de type « deepfake » l’année dernière, 66 % des professionnels de la cybersécurité déclarant en avoir été témoins au cours de l’année écoulée. Bon nombre de ces attaques sont menées par courrier électronique (78 %), ce qui est lié à l’augmentation des attaques de type « Business Email Compromise » (BEC). Il s’agit d’une méthode utilisée par les attaquants pour accéder au courrier électronique de l’entreprise et se faire passer pour le propriétaire du compte afin d’infiltrer l’entreprise, l’utilisateur ou les partenaires. Selon le FBI, les attaques BEC ont coûté 43,3 milliards de dollars aux entreprises en seulement cinq ans, de 2016 à 2021. Les plateformes telles que les réunions de tiers (31%) et les logiciels de coopération commerciale (27%) sont de plus en plus utilisées pour le BEC, l’industrie informatique étant la principale cible des attaques deepfake (47%), suivie par la finance (22%) et les télécommunications (13%). Il est donc essentiel que les entreprises restent vigilantes et mettent en place une technologie de détection des deepfakes et des mesures de sécurité robustes pour se protéger et protéger leur organisation contre ce type d’attaques.
Le vol d’identité par deepfake est donc devenu un problème inquiétant pour la sécurité des entreprises. Par ailleurs, la technologie évoluant rapidement, ces fausses images, voix et vidéos deviennent de plus en plus difficiles à identifier. Le problème a donc désormais largement dépassé le cadre privé, et ne peut plus être ignoré, ni par les gouvernements ni par les entreprises.
Nous verrons dans notre prochain article quelles solutions peuvent être adoptées pour combattre ce phénomène. Dans l’intervalle, si vous avez un film, une série, un logiciel ou un livre électronique à protéger, n’hésitez pas à faire appel à nos services en contactant l’un de nos gestionnaires de comptes ; PDN est pionnier dans la cybersécurité et l’antipiratage depuis plus de dix ans, et nous avons forcément une solution pour vous aider. Bonne lecture et à bientôt !
Partager cet article