Le FBI a émis un admonition relatif à la accession en volonté de l’accord artificielle (IA) générée par des deepfakes revers irriter ou commettre brailler des hommes pour de fausses photos ou vidéos sensuellement explicites d’elles-mêmes.
Lundi, le FBI a publié une allégation avertissant que les escrocs utilisent de avec en avec la technologie de l’IA revers encourager des photos et des vidéos deepfake sensuellement explicites de hommes comme le but de à elles arracher de l’capital, ce qui est aussi découvert en deçà le nom de « sextorsion ».
La défi est singulièrement préoccupante car les escrocs exploitent habituellement les photographies et vidéos bénignes que les monde publient sur à elles justificatifs publics de médias sociaux.
En utilisant la technologie deepfake, les escrocs utilisent en conséquence le mine de la tourment comme à elles photos de médias sociaux revers encourager de la indécent générée par l’IA.
« Le FBI continue de encaisser des relations de victimes, y imprégné des bébés mineurs et des adultes non consentants, lesquels les photos ou vidéos ont été modifiées en attitude clair », a direct l’filiale.
« Les photos ou vidéos sont en conséquence diffusées notoirement sur les réseaux sociaux ou des sites pornographiques, comme le but de irriter les victimes ou de concrétiser des échelons de sextorsion. »
« Les dangers de imprimer des photos publiques »
Le FBI a aussi émis un admonition au aide sur les dangers de imprimer des photos et des vidéos publiques d’ceux-là en ornement.
« Capital qu’sans doute inoffensives lorsqu’elles-mêmes sont publiées ou partagées, les images et les vidéos peuvent énumérer aux acteurs malveillants une départ fastueuse de attitude à tyranniser revers des activités criminelles », déclare le FBI.
« Les révision de la technologie de filiation de attitude et des images personnelles accessibles en ornement offrent de nouvelles opportunités aux acteurs malveillants revers révéler et viser les victimes.
« Ceci les rend vulnérables à l’problème, au guérilla, à l’spoliation, aux pertes financières ou à la revictimisation continue à énorme conclusion. »
En avril, le FBI a direct disposer suivi une renforcement du chiffre de victimes de sextorsion signalant l’application d’images ou de vidéos deepfake générées par l’IA en empressement de à elles attitude sur les réseaux sociaux.
Les escrocs exigeraient souvent un absolution des victimes pour des menaces de diviser les photos et les clips pour les amas de la généalogie et les amis des médias sociaux si les finances n’vivaient pas reçus. Successivement, ils exigeraient que les victimes expédient de vraies images sexuelles d’eux.
Aux Mémoires-Unis, il n’existe soutenant aucune code fédérale revers renforcer comme l’application des images des hommes sinon à elles ratification comme le deepfake porn ou pour toute technologie associée.
Les escroqueries deepfakes se multiplient. L’cycle dernière, le FBI a émis un admonition escortant lesquelles un chiffre progressif de les escrocs utilisent la technologie deepfake se commettre monter revers des candidats donc d’entretiens revers des postes à divergence.
Biens parnassien : Caricature d’front en deçà consentement via Depositphotos.