Tysiące mężczyzn działa w grupach i kanałach na Telegramie, w których otwarcie reklamowane są usługi hakerskie i narzędzia do inwigilacji – wynika z najnowszych badań AI Forencics, europejskiej organizacji non-profit. Z ustaleń badaczy wynika, iż rozwiązania te są wykorzystywane do nękania i kontrolowania aktualnych czy byłych partnerek, żon, znajomych czy innych kobiet z otoczenia. To kolejny przykład tego, jak technologie mogą być używane jako narzędzie przemocy i kontroli w relacjach.
Ustalenia organizacji AI Forencics pokazują, iż wokół tych społeczności funkcjonuje rozbudowany rynek przemocowych i nielegalnych treści. Handel obejmuje m.in. niekonsensualne intymne zdjęcia kobiet, tzw. usługi „rozbierania” fotografii przy użyciu sztucznej inteligencji, a także pakiety plików, które zawierające drastyczne materiały związane z przemocą seksualną.
Co nam robi cyfrowa przemoc seksualna?
Z perspektywy bezpieczeństwa cyfrowego i zdrowia psychicznego to szczególnie niepokojące zjawisko. Eksperci podkreślają, iż takie społeczności nie tylko normalizują przemoc wobec kobiet i dziewczyn, ale także wzmacniają kulturę kontroli, nękania i uprzedmiotowienia w relacjach. Pokazuje to, jak ważna jest edukacja na temat zgody, prywatności w sieci i odpowiedzialnego korzystania z technologii – oraz szybkie reagowanie na przemoc cyfrową i jej konsekwencje.
Skala zjawiska: miliony wiadomości, tysiące użytkowników
Badanie objęło niemal 2,8 mln wiadomości opublikowanych w 16 społecznościach działających w Hiszpanii i we Włoszech. W ciągu zaledwie sześciu tygodni ponad 24 tys. użytkowników udostępniło 82 723 pliki – zdjęcia, nagrania wideo i audio. Skala jest ogromna, ale jeszcze bardziej niepokojący jest charakter tych treści: od zdjęć rozpowszechnianych bez zgody, przez deepfake’i i tzw. nudifying, po materiały opisujące przemoc seksualną.
Według raportu większość osób udostępniających takie treści to młodzi, heteroseksualni mężczyźni, którzy publikują materiały dotyczące kobiet ze swojego otoczenia – partnerek, byłych partnerek lub znajomych.
Antyprzemocowa Linia Pomocy SEXEDPL „To zwykłe kobiety”
Jak podkreśla Silvia Semenzin z AI Forencics: „Często zapominamy, iż większość ofiar to zwykłe kobiety, które czasem choćby nie wiedzą, iż ich zdjęcia są udostępniane lub przerabiane w tego typu kanałach”. Co więcej, „większość tej przemocy jest skierowana wobec osób, które sprawcy znają”.
Z raportu wynika, iż kobiety pojawiające się w materiałach są często identyfikowane – ich imiona są publikowane, profile oznaczane, a linki do kont umożliwiają ich łatwe odnalezienie. Oznacza to, iż przemoc nie kończy się na publikacji materiałów, ale może przenosić się dalej – do nękania, stalkingu czy dalszego rozpowszechniania treści.
Materiały te trafiają także na inne platformy, takie jak TikTok czy Instagram. Z kolei Reddit pełni rolę „bramy rekrutacyjnej” – to tam publikowane są linki kierujące do kanałów na Telegramie, gdzie dostęp do treści jest już płatny.
Rynek przemocy: hacking „na zamówienie”
W analizowanych kanałach funkcjonuje cały rynek usług. Oferty przypominają ogłoszenia z legalnych platform – tyle iż dotyczą włamań, szpiegowania i kradzieży danych. Jedno z ogłoszeń, zatytułowane „Professional hacking on commission”, obiecuje „dostęp do galerii telefonu oraz pobieranie zdjęć i filmów”, a także „anonimowe włamywanie się do mediów społecznościowych”. W innym wpisie ktoś deklaruje wprost: „Włamuję się i odzyskuję każdy typ konta w mediach społecznościowych. Mogę szpiegować konto twojej partnerki. Napisz do mnie prywatnie”.
„Chcesz włamać się do jej telefonu?” – język normalizacji przemocy
Takich treści są tysiące. Badacze odnotowali ponad 18 tys. odniesień do działań szpiegowskich. Użytkownicy pytają: „Cześć, czy chcesz zajrzeć do galerii dziewczyny? Sprzedajemy bota, który to umożliwia – napisz prywatnie” albo „Kto wymienia się zdjęciami i nagraniami ze szpiegowania?”.
Choć nie wszystkie narzędzia da się zweryfikować, ich obecność pokazuje coś innego – normalizację przemocy technologicznej.
Jak mówi Semenzin: „Osoby oferujące takie usługi czują się bezpiecznie, proponując rozwiązania, które polegają bezpośrednio na kontrolowaniu partnerki albo kradzieży jej danych i prywatnych treści, by sprzedać je dalej”. I dodaje: „To otwiera poważną dyskusję o bezpieczeństwie kobiet, które stają się ofiarami tych społeczności”.
Co zrobić, jeżeli padłaś_eś ofiarą pornograficznego deepfake’a?
Odpowiedzialność platform
Przedstawiciele Telegram podkreślają, iż platforma usuwa „miliony” treści dziennie przy użyciu „własnych narzędzi opartych na sztucznej inteligencji” i zakazuje publikowania materiałów nielegalnych, w tym pornografii bez zgody, deepfake’ów czy treści związanych z doxingiem. Jak zaznaczają: „Pornografia bez zgody, w tym deepfake’i, jest jednoznacznie zabroniona w regulaminie i usuwana, gdy tylko zostanie wykryta”. Firma dodaje również: „Stanowczo odrzucamy sugestię, iż Telegram czerpie zyski z treści, które aktywnie usuwamy”, wskazując na zgodność działań z europejskim prawem, w tym Digital Services Act.
Eksperci nie mają jednak wątpliwości, iż problem wykracza poza pojedyncze przypadki moderacji.
Jak zauważa Adam Dodge z organizacji EndTAB: „Każda platforma, która może zostać wykorzystana do krzywdzenia kobiet i dziewczyn, zostanie w ten sposób użyta”.
W jego ocenie szczególnie Telegram sprzyja takim praktykom, ponieważ łączy anonimowość, szybkość i skalę działania. „W takich warunkach rynki oparte na nadużyciach zawsze będą powstawać i się rozwijać – zwłaszcza gdy nie tylko rozpowszechniają treści, ale też oferują narzędzia do ich zdobywania”.
To tylko fragment większego zjawiska
Autorzy raportu podkreślają, iż przeanalizowane przez nich społeczności to jedynie wycinek znacznie szerszego problemu. Jak mówi Salvatore Romano z AI Forencics : „Te sieci, które odkryliśmy, są bardzo małą próbką znacznie szerszego zjawiska”. I dodaje: „Można przypuszczać, iż bez Telegrama znacznie trudniej byłoby tym osobom dotrzeć do tak dużej liczby użytkowników”.
Organizacja podkreśla, iż sposób rozpowszechniania treści seksualnych bez zgody nie jest ograniczony ani przez granice państw, ani przez konkretne platformy. W raporcie określono to jako „problem strukturalny o skali europejskiej, który wymaga europejskiej odpowiedzi”.
To śledztwo pokazuje, iż przemoc wobec kobiet coraz częściej przenosi się do świata cyfrowego i iż technologie, które miały ułatwiać komunikację, mogą równie łatwo stać się narzędziem kontroli, nadużyć i systemowego wykorzystywania.
Autorzy raportu apeluje również o uwzględnienie w przepisach dotyczących sztucznej inteligencji (AI Act) rozwiązań, które ułatwią usuwanie treści przedstawiających wykorzystywanie dzieci oraz materiałów publikowanych bez zgody.
Choć regulaminy zakazują takich treści, a platforma korzysta zarówno z narzędzi AI, jak i pracy moderatorów, raport pokazuje, iż skala zjawiska przez cały czas rośnie – a istniejące mechanizmy nie nadążają za tempem jego rozwoju.





