Repository logo
 
Loading...
Thumbnail Image
Publication

Quando a tecnologia viola a intimidade: o caso dos deepfakes sexuais

Use this identifier to reference this record.
Name:Description:Size:Format: 
PG_2022122003.pdfProjeto de graduação_2022122003568.5 KBAdobe PDF Download

Abstract(s)

O presente projeto de graduação, visa em primeiro lugar definir e contextualizar os deepfakes sexuais não consentidos (DSNC) do ponto de vista histórico, legal e social, tendo como proposta de estudo investigar os discursos, motivações e racionalizações de indivíduos que produzem ou divulgam DSNC em comunidades digitais. A DSNC é estudada como uma nova forma de violência de género baseada em imagem. Atualmente, a disseminação dos DSNC é alarmante. Entre 2019 e 2023, registou-se um aumento de 550% no número de vídeos manipulados disponíveis online, alojados em mais de 100 sites especializados, sendo entre 96% e 98% de todos os deepfakes identificados de teor sexual (Home Security Heroes, 2023). A partir do enquadramento teórico foi orientada a proposta de estudo. Esta proposta, entre junho de 2025 até junho de 2027, é voltada a compreender discursos, motivações e dinâmicas de comunidades que produzem e compartilham DSNC, a partir de instrumentos como inquéritos e entrevistas, para fundamentar intervenções informadas e eficazes. Além disso, os resultados antecipados permitiram delinear perfis sociodemográficos dos autores de DSNC, mapear as técnicas de neutralização moral utilizadas para justificar a violação de imagens íntimas e identificar os mecanismos comunitários que reforçam e normalizam estas práticas. Ademais, o trabalho pretende não só iluminar quem produz e difunde DSNC e porquê, mas também procura colmatar a lacuna científica existente sobre os perpetradores de DSNC e contribuir para políticas públicas de prevenção, legislação digital e proteção das vítimas.
The present graduation project first seeks to define and contextualise non-consensual sexual deepfakes (NCSF) from historical, legal and social perspectives. Its empirical component is designed to investigate the discourses, motivations and rationalisations of individuals who produce or disseminate NCSF in digital communities. In this regard, NCSF are treated as a new, image-based form of gender-based violence. Today, the spread of NCSF is alarming. Between 2019 and 2023, the number of manipulated videos available online grew by 550 %, hosted on more than 100 specialised sites; 96–98 % of all detected deepfakes are sexual in nature (Home Security Heroes, 2023). Guided by this theoretical framework, the study proposal, between June of 2025 and June of 2027, aims to understand the discourses, motivations and community dynamics behind the production and sharing of NCSF. It will rely on online surveys and semistructured interviews to generate evidence-based recommendations for effective interventions. The anticipated results include outlining the perpetrators’ sociodemographic profiles, mapping the moral-neutralisation techniques used to justify the violation of intimate images and identifying the community mechanisms that reinforce and normalise these practices. Ultimately, the project intends not only to shed light on who produces and spreads NCSF and why, but also to fill the scientific gap regarding NCSF perpetrators and to inform public policies on prevention, digital legislation and victim protection.

Description

Projeto de Graduação apresentado à Universidade Fernando Pessoa como parte dos requisitos para obtenção do grau de Licenciada em Criminologia.

Keywords

Deepfake Inteligência artificial Pornografia Abuso sexual baseado em imagens Artificial intelligence Pornography Image-based sexual abuse

Pedagogical Context

Citation

Research Projects

Organizational Units

Journal Issue

Publisher

[s.n.]

CC License