Conexão Digital 1291 - Grok poderá ser responsabilizado por crimes cometidos por usuários na IA
Como eu já tinha comentado aqui na semana passada, o Grok, ferramenta de IA que funciona dentro do X (antigo Twitter), entrou numa baita polêmica. A ferramenta estava permitindo que qualquer usuário criasse imagens editadas, inclusive deepfakes de conteúdo sexual, e isso acabou gerando milhares de imagens por hora, até com menores de idade.
A repercussão foi tão ruim que o X decidiu travar a edição de imagens só para usuários pagantes, exigindo nome e dados de pagamento para acessar o recurso. A ideia é criar um rastro para identificar quem abusar da ferramenta. Especialistas em proteção de dados dizem que o Grok e o próprio X podem acabar respondendo na Justiça pelos crimes envolvendo sexualização, nudez e deepfakes sem consentimento.
Advogados explicam que, mesmo sendo IA, não existe imunidade: vale o Código Penal e o Marco Civil da Internet. Juristas também batem forte na falta de governança das plataformas, alertando para a falta moderação, filtros e comitês de ética, e que as empresas não querem investir nisso porque preferem deixar o mercado se autorregular.
Ao liberar o recurso só para assinantes, fica mais fácil rastrear o usuário que manipulou a imagem. Para quem for vítima de manipulação de imagens, o recado é claro: guardar provas, não repostar o conteúdo e acionar o X e o Grok pedindo a remoção com base no Marco Civil. Na Justiça, dá pra buscar indenização, quebra de sigilo e responsabilização dos autores.
O caso virou um debate global sobre até onde vai a responsabilidade das plataformas e como controlar ferramentas de IA que geram conteúdo tão sensível. Você já foi vítima de uso de imagens feitas com IA? Me conta no Instagram @marcelosander. Por uma internet melhor para todos, até o próximo artigo!

Nenhum comentário :
Postar um comentário