Apple bane apps de 'deepfake nude' após denúncia da BBC: Como a IA está sendo usada para violar privacidade

A Apple retirou da App Store uma série de aplicativos que utilizavam inteligência artificial (IA) para criar deepfakes de "remoção de roupas" sem consentimento. A decisão ocorreu após uma investigação da BBC, que expôs como esses apps eram promovidos no TikTok como ferramentas para gerar imagens sexualizadas de mulheres, muitas vezes sem autorização. O caso levanta questões urgentes sobre ética, privacidade e a responsabilidade das plataformas digitais.
O que são os apps de "nudificação"?
Esses aplicativos, conhecidos como "nudify" ou de "remoção de roupas", usam IA para manipular fotos, apagando digitalmente as roupas de pessoas e gerando imagens nuas ou seminuas. Embora alguns se apresentem como ferramentas de "edição criativa" ou "diversão", suas propagandas no TikTok revelavam um uso mais preocupante: incentivar a criação de conteúdo íntimo não consentido, principalmente de mulheres.
A investigação da BBC e as práticas enganosas
-
Descrição nos anúncios: Nos vídeos promocionais do TikTok, os desenvolvedores incentivavam o download com frases como "veja as fotos mais quentes da sua paixão" ou "tire a roupa de qualquer pessoa". Alguns anúncios usavam imagens de celebridades, como as atrizes de Game of Thrones Lena Headey e Maisie Williams, para demonstrar a funcionalidade.
-
Contradição: Nas páginas oficiais da App Store, os apps eram descritos como inofensivos, mas sua divulgação no TikTok revelava um propósito mais invasivo e antiético.
Impactos e preocupações
-
Vítimas e casos reais: Esses aplicativos têm sido associados a escândalos globais, incluindo casos de assédio e chantagem contra adolescentes, como relatados na Espanha, Coreia do Sul e EUA.
-
Responsabilidade das plataformas: A Apple removeu quatro aplicativos após a investigação, e o TikTok excluiu os anúncios, mas vídeos similares ainda circulam na plataforma. O Google também iniciou uma investigação sobre os apps na Play Store.
-
Debate ético: Especialistas, como o professor Arvind Narayanan (Universidade de Princeton), argumentam que empresas de tecnologia têm o dever moral de barrar a proliferação dessas ferramentas, e governos devem agir para proibi-las.
Respostas das empresas envolvidas
-
Apple: Removeu três apps "até que os desenvolvedores corrijam os problemas" e baniu permanentemente um quarto, que criava vídeos de mulheres dançando seminuas.
-
TikTok: Admitiu que os anúncios violavam suas políticas, mas não explicou como passaram pela moderação.
-
Desenvolvedores: Um criador de app afirmou à BBC que não tinha a intenção de promover deepfakes não consentidos e prometeu revisar suas práticas.
Um problema que exige ação global
A remoção desses aplicativos é um passo importante, mas a investigação da BBC revela desafios maiores: a facilidade com que ferramentas de IA podem ser usadas para violar privacidade e a necessidade de regulação mais rígida. Enquanto plataformas como Apple e TikTok tentam corrigir falhas, especialistas defendem leis específicas para coibir o uso malicioso de deepfakes. O caso serve como alerta para a sociedade discutir os limites da tecnologia e proteger indivíduos de abusos digitais.