Un robot Telegram est capable de déshabiller les femmes et c’est terrible

Déshabiller des filles en envoyant simplement une photo est l'activité principale d'un canal Telegram qui propose ce service gratuitement et avec des options de paiement par l'intermédiaire d'un bot.

Le bot utilise l' et offre des résultats quasi instantanés et si réalistes qu'ils peuvent conduire à l'extorsion ou même à l'intimidation par des personnes à l'esprit pervers.

La procédure est très simple : ils utilisent un robot qui traite l'image que nous envoyons en quelques secondes. Les créateurs de la chaîne proposent désormais une option de paiement pour des résultats plus réalistes et sans attente. Tout cela avec des monnaies virtuelles.

L'utilisateur n'a besoin d'aucune connaissance préalable

La chaîne encore active, que nous ne dévoilerons pas pour des raisons évidentes, propose ce service en échange de l'adhésion à une chaîne principale. Grâce à ce simple procédé, n'importe quel utilisateur peut capturer et envoyer l'image d'une fille qui lui sera renvoyée complètement nue.

Le résultat offre un filigrane et un traitement à 50 % permettant d'observer l'efficacité du service. L'utilisateur qui souhaite opter pour une conversion complète devra payer un montant d'environ 1,50 euros pour la conversion.

L'ensemble du processus ne nécessite pas d'intervention humaine ni de connaissances techniques, comme cela peut être le cas avec d'autres logiciels aux techniques similaires. C'est ce qui a conduit à sa croissance potentielle, avec plus de 56 000 membres à l'heure où nous écrivons ces lignes.

A lire :   Microsoft rétablit les services de Teams après avoir subi une panne du cloud

DeepNude, un logiciel qui a été retiré et qui pourrait être utilisé sur .
Mi-2019, Vice publiait la terrible utilisation de l'appli DeepNude. Cette appli était capable de déshabiller une fille simplement en fournissant une photo d'elle.

Les photos en sous-vêtements ou en maillot de bain donnaient des résultats plus crédibles. Le traitement de l'image supprimait complètement les vêtements, mais les résultats n'étaient pas optimaux. La technique utilisée aujourd'hui a permis d'améliorer les résultats et d'obtenir un réalisme presque parfait.

Le service offert par cette chaîne est très similaire à celui offert par l'application DeepNude, aujourd'hui disparue. Selon une étude réalisée par Sensity, une entreprise de cybersécurité visuelle, la chaîne russe pourrait utiliser une partie du logiciel original pour traiter les images.

Les utilisateurs se servent du bot principalement sur des femmes anonymes et connues

Plus de 100 000 femmes auraient pu être victimes de ce traitement d'images. La plupart d'entre elles sont des anonymes, bien qu'il y ait aussi des filles connues dans le monde des streamers, des influenceurs et des célébrités avec un profil plus élevé.

A lire :   L'intelligence artificielle a raison : voici les cinq meilleurs emplois au monde

Le nombre pourrait être beaucoup plus élevé, car les données vérifiées correspondent à la chaîne principale. Il est possible qu'il existe d'autres groupes privés parallèles ou des groupes ayant moins d'impact dans lesquels il n'a pas été possible de retracer le nombre réel ou approximatif de femmes qui ont été utilisées à cette fin.

Beaucoup d'entre elles ne sauront probablement pas que certaines de leurs photos partagées sur des réseaux sociaux tels qu' ou par le biais d'une application de messagerie directe telle que WhatsApp ont fini dans ces lieux.

Malheureusement, le rapport mentionne également des images de mineurs, ce qui confirmerait l'intérêt de certains utilisateurs pour les contenus pédophiles.

Extorsion et intimidation

L'utilisation de ces outils peut conduire à l'extorsion ou à l'intimidation. Pratiquement n'importe quelle image innocente de la victime trouvée sur les réseaux sociaux peut suffire à déclencher ce type d'attaque à son encontre.

A lire :   ChatGPT : L'intelligence artificielle révèle comment devenir millionnaire d'ici 2023 !

Les dommages causés à chacune d'entre elles peuvent être extrêmement graves, c'est pourquoi ce type d'outil peut représenter un réel danger entre les mains de quelqu'un qui veut nuire à autrui. D'autant plus qu'ils sont faciles à utiliser et sans connaissance préalable.

Les fausses nouvelles se répandent comme une traînée de poudre dans les chats WhatsApp ou sur les réseaux sociaux sans que nous nous arrêtions quelques secondes pour en vérifier la véracité. Il en va de même avec les DeepFakes, qui peuvent causer des dommages irréparables à la victime.

Voter pour cet article
Afficher Masquer le sommaire
Laurence Jardin

Je suis une grande fan de nouvelles sur les gens – je suis une pro de la tech et des smartphones, de la littérature de série, et j'écris pendant mon temps libre.