
La intel·ligència artificial com a eina de violència sexual cap a les dones
La violència sexual digital és una realitat cada cop més estesa, i les eines d’intel·ligència artificial (IA) han portat aquesta problemàtica a un nivell encara més greu. Recentment, s’han fet públiques diverses notícies sobre grups d’homes que manipulen imatges de dones joves per despullar-les digitalment i compartir-les en xarxes socials i WhatsApp o Telegram. Aquest fenomen, conegut com a deepfake pornogràfic, posa en evidència com les tecnologies poden ser utilitzades com una arma contra les dones, sense el seu consentiment i amb greus repercussions per a les víctimes.
La nova cara de la violència digital
El deepfake pornogràfic consisteix a utilitzar IA per modificar imatges i vídeos, fent que semblin reals. En molts casos, les imatges de les víctimes s’extreuen de les seves xarxes socials sense el seu consentiment i es manipulen per generar continguts sexuals falsos. Aquest material es difon en grups d’homes que no només consumeixen aquests tipus de continguts, sinó que també fan comentaris degradants i vexatoris sobre les dones afectades. Es tracta d’una forma de violència sexual digital que perpetua la cosificació i la deshumanització de les dones, reforçant una cultura de la violència masclista que no es queda només a internet, sinó que influeix en la vida real de les víctimes.
Impacte psicològic i social en les víctimes
Les dones afectades per aquesta pràctica pateixen greus conseqüències emocionals i socials. L’ansietat, la vergonya, la por i la impotència són alguns dels efectes més habituals. En molts casos, les imatges falsificades es converteixen en una forma de xantatge o assetjament continu. La difusió d’aquests tipus de continguts pot afectar la vida professional i personal de les víctimes, generant estigma i aïllament social.
La necessitat d’una resposta legal i social
Actualment, la legislació no està suficientment preparada per abordar aquests casos amb contundència. Tot i que a Espanya s’han fet avenços amb la Llei del “Només Sí és Sí”, encara hi ha moltes mancances pel que fa a la penalització de l’ús de deepfakes per a la creació de continguts sexuals sense consentiment. És urgent que les institucions regulin aquestes tecnologies i estableixin sancions clares per als agressors:
- A nivell legal: És imprescindible que la legislació penalitzi explícitament l’ús de deepfakes sexuals sense consentiment i que es creïn mecanismes àgils per denunciar i eliminar aquests continguts. Cal que els agressors siguin sancionats amb contundència per evitar la impunitat.
- A nivell tecnològic: Les plataformes digitals han d’assumir la seva responsabilitat i implementar sistemes més eficients per detectar i bloquejar aquests continguts. També caldria establir mecanismes d’alerta perquè les víctimes puguin actuar amb rapidesa davant la difusió d’imatges falsificades.
Però la resposta no pot ser només legal. La clau per combatre aquesta problemàtica està en l’educació. És imprescindible treballar des de la infància una educació afectiva i sexual basada en el respecte i la igualtat. No podem permetre que es continuï formant generacions d’homes que, en comunitat, trobin diversió en la humiliació de les dones. Això només es pot revertir amb una educació que posi en valor el consentiment i que desmunti la cultura masclista que perpetua la violència digital.
Conclusió: tecnologia, control i responsabilitat social
La intel·ligència artificial ha de ser una eina per millorar la vida de les persones, no per destruir-la. La seva regulació és necessària, però no suficient. És imprescindible un canvi cultural profund que erradiqui la normalització de la violència sexual digital. No podem permetre que la tecnologia sigui una aliada del masclisme. La solució passa per educar, sensibilitzar i establir mecanismes efectius de prevenció i protecció perquè cap dona hagi de patir la violència d’una societat que encara tolera la seva deshumanització.