82 8123-9972

NO AR

Rádio Lobo Web

radiolobo.com.br

Política

Uso de IA e deepfakes contra mulheres poderá dar até 4 anos de cadeia

Texto que tramita na Câmara puniria quem adulterar fotos, vídeos ou áudios com intuito de humilhar ou ameaçar mulheres

Publicada em 24/05/24 às 10:40h - 12 visualizações

por Rádio Lobo Web com CNN Brasil


Compartilhe
 

Link da Notícia:

 (Foto: Rádio Lobo Web com Reprodução)

O uso de inteligência artificial (IA) com o objetivo de alterar ou criar fotos, vídeos e áudios para constranger e prejudicar mulheres poderá ser tipificado como crime no país, de acordo com um projeto que está tramitando na Câmara dos Deputados.

A infração pode render até quatro anos de cadeia, segundo o texto, que seria incluído na Lei Maria da Penha.

O projeto de lei 5.695/23, que foi aprovado pela Comissão de Defesa dos Direitos da Mulher, agora precisa ser analisado e aprovado pela Comissão de Constituição e Justiça e de Cidadania (CCJ) para ser levado ao plenário da Câmara. Em caso de aprovação, ele será enviado ao Senado.

Segundo o texto, o intuito é punir quem “adulterar, alterar, criar, desenvolver, elaborar, fabricar, manipular, preparar ou produzir fotos, vídeos ou áudios, utilizando-se de sistema de inteligência artificial, com o objetivo de causar constrangimento, humilhação, assédio, ameaça ou qualquer outro tipo de violência à mulher, no âmbito doméstico ou familiar”.

O projeto, de autoria do deputado federal Fred Linhares (Republicanos-DF), foi proposto inicialmente com pena de um a dois anos de reclusão, com multa.

A punição prevista, no entanto, foi dobrada após a apresentação de um substitutivo da relatora da proposta, a parlamentar Dayany Bittencourt (União-CE). A pena mínima também foi elevada de um para dois anos.

A proposta surge após uma série de casos criminosos que envolvem o uso de IA terem ganhado repercussão no Brasil e no mundo.

Em novembro de 2023, mais de 20 meninas, em sua maioria alunas do Colégio Santo Agostinho, no Rio de Janeiro, foram vítimas de falsos nudes produzidos por outros estudantes com o uso de IA.

As montagens, que se baseavam em fotos reais das meninas, foram amplamente divulgadas em grupos de WhatsApp. No Colégio Marista São Luís, em Recife, outras 18 meninas foram vítimas do mesmo tipo de crime.

Ainda em 2023, a atriz Ísis Valverde também foi vítima de ataques similares. No final de outubro, supostas fotos nuas da artista foram vazadas e atribuídas a ela. Posteriormente, a polícia concluiu que as fotos foram retiradas de uma rede social da atriz e manipuladas através de programas de alteração de imagem, com auxílio de inteligência artificial.

Outro caso que ganhou destaque global, já em 2024, foi o da cantora Taylor Swift. Ela foi vítima de falsos nudes criados por inteligência artificial – também chamados de “deepnudes”, uma variação do termo “deepfakes” –, com imagens que chegaram a ser visualizadas mais de 47 milhões de vezes na rede social X.




ATENÇÃO:Os comentários postados abaixo representam a opinião do leitor e não necessariamente do nosso site. Toda responsabilidade das mensagens é do autor da postagem.

Deixe seu comentário!

Nome
Email
Comentário
0 / 500 caracteres


Insira os caracteres no campo abaixo:


Enquete
O que você está achando do Site e da Rádio Lôbo Web?

 Adorei.
 Bom
 Ótimo, excelente!
 Ruim.







.

LIGUE E PARTICIPE

82 8123-9972

Visitas: 106355
Usuários Online: 4685
Copyright (c) 2025 - Rádio Lobo Web
Converse conosco pelo Whatsapp!