Pelo menos 17 alunas de um colégio militar em Salvador, na Bahia, tiveram as próprias imagens manipuladas com inteligência artificial em conteúdos pornográficos. A suspeita é que as imagens foram criadas por colegas das vítimas, utilizando Deepfake, técnica que usa I.A para criar vídeos que parecem muito reais.
As imagens criadas eram colocadas na internet como conteúdo pornográfico e colocado à venda. Por enquanto, os acusados não foram expulsos.
A pena para menores de idade neste caso é socioeducativa, como serviço comunitário. A família pode ter que pagar indenização e tratamento psicológico da vítima. A escola também pode ser responsabilizada judicialmente por omissão se não adotar medidas.
O colégio militar em Salvador diz que repudia a conduta. E abriu investigação para identificar os envolvidos e quem compartilhou as imagens na internet.