Okazuje się, że AI, uznawane jako postęp technologiczny, może stanowić narzędzie prowadzące do seksualnych nadużyć wobec dzieci.
Dynamiczny rozwój AI CSAM (Artificial Intelligence Child Sexual Abuse Material) przyczynia się do wprowadzania nowych metod wykorzystywanych w przestępczości seksualnej wobec dzieci. Zaawansowane narzędzia generatywne, dają sprawcom nieograniczoną możliwość tworzenia hiperrealistycznych obrazów oraz nagrań, które eliminują potrzebę fizycznej interakcji z dzieckiem.
Szczególnie niepokojącym trendem jest wykorzystanie zasobów internetowych (stron, aplikacji, grup) do tzw. „rozbierania” (ang. nudification), czyli przekształcenia zwykłych, ubranych zdjęć w fałszywe, lecz bardzo realistyczne nagie wizerunki.
Alarmujące statystyki
Jak wynika z raportu, Childlight. (2025). 2025 Into the Light Index on Global Child Sexual Exploitation and Abuse: Supplemental Thematic Analysis Report. Edinburgh: Childlight – Global Child Safety Institute AI CSAM, w tym manipulacje typu deepfake, obecnie odnotowują gwałtowny wzrost.
IWF udokumentowała pojawienie się aplikacji do „rozbierania”, zgłaszając w okresie od kwietnia 2023 do marca 2024 roku 21 dedykowanych temu stron internetowych. Sprawcy często wykorzystują te narzędzia do szantażu seksualnego dzieci (blackmail), próbując wymusić prawdziwe intymne treści. Najnowsze analizy wskazują, że pojawiające się materiały AI CSAM niemal całkowicie przedstawiają dziewczęta.
W kontekście szantażu seksualnego, który często wykorzystuje fałszywe materiały, National Center for Missing and Exploited Children (NCMEC) odnotowało, że od 2021 roku ponad trzydziestu sześciu nastolatków odebrało sobie życie w wyniku wiktymizacji szantażem finansowym.
Oprócz AI CSAM, NCMEC odnotowało także alarmujący wzrost zgłoszeń dotyczących uwodzenia online. W 2024 roku było ich o 192% więcej niż w 2023 roku (z ok. 186 986 do 546 000). Z kolei liczba zgłoszeń zawierających AI CSAM wzrosła z 4700 w 2023 roku do ponad 67 000 w 2024 roku. Oznacza to ponad 1325% więcej zaledwie w rok.
Raport zwraca uwagę, że sztuczna inteligencja ma dwojaki charakter. Stanowi narzędzie przestępców, a jednocześnie potencjalny klucz do skutecznej ochrony dzieci.
Jeśli sztuczna inteligencja zostanie dobrze uregulowana i zabezpieczona, może ochronić miliony dzieci, poprzez pomaganie platformom internetowym w szybszym znajdowaniu i usuwaniu szkodliwych materiałów. Dzięki temu można powstrzymać krzywdzenie dzieci, których wizerunki latami krążą w internecie.
Choć AI ma potencjał, by skutecznie chronić najmłodszych, bariery takie jak szyfrowanie E2EE stwarzają przestępcom bezpieczną przestrzeń do działania, która jest niewidoczna dla mechanizmów ochronnych. Pełna protekcja dzieci w erze cyfrowej wymaga pilnej strategii, zarówno regulacyjnej, jak i technologicznej. Dzięki temu potencjał sztucznej inteligencji w zwalczaniu przestępczości może przewyższyć jej obecne wykorzystanie do krzywdzenia.