A jurisprudência brasileira sobre deepfake ainda está em processo de desenvolvimento. Porém, é possível se proteger de fraudes através da adoção de um protocolo básico de cuidados

 

A utilização de deepfakes – técnicas que permitem alterar vídeos ou fotos com auxílio de IA – vem se tornando cada vez mais preocupante devido ao grande potencial de manipulação de informações. Tanto que a Justiça brasileira começa a traçar os primeiros limites ao uso de IA nas eleições municipais deste ano, com previsão de punições pelo uso de imagens modificadas.

 

Todo mundo lembra do vídeo do falso discurso dado pelo ex-presidente dos Estados Unidos Barack Obama, no ano de 2018. Mais recentemente, no Brasil, pessoas públicas como o médico Drauzio Varella, a cantora Anitta e o jornalista William Bonner tiveram suas vozes e rostos clonados na tentativa de promoção de produtos de qualidade duvidosa. Os casos confundiram a internet e foram bastante divulgados, mas o deepfake não afeta apenas celebridades. Qualquer pessoa pode ser vítima de alterações, com graves consequências na vida social ou profissional.

 

No meio empresarial, onde as videoconferências já se tornaram rotina, a IA pode ser um meio facilitador, mas também de risco. É fundamental que sejam tomadas medidas para garantir a segurança e a integridade de todos, principalmente quando os encontros virtuais envolvem assinaturas de contratos. A validade jurídica dos documentos assinados de forma digital deve ser rigorosamente assegurada.

 

A jurisprudência brasileira sobre deepfake ainda está em processo de desenvolvimento, sendo que os impactos jurídicos das novas tecnologias são compreendidos e abordados pelos tribunais de forma gradual. Porém, é possível se proteger de fraudes através da adoção de um protocolo básico de cuidados, que envolve utilização de plataformas consideradas confiáveis para realização de reuniões virtuais e softwares reconhecidos pela adoção de medidas concretas de segurança. Estes devem ter políticas claras e robustas no que se refere à preservação de dados e da privacidade.

 

Também é fundamental a contratação de empresas de segurança da informação capacitadas que utilizem mecanismos em tela e em áudio que dificultem o acesso da IA à voz e ao vídeo. Isso é importante por que a alteração de voz e vídeo pode gerar alteração de conteúdo, como por exemplo a inserção de uma ofensa que venha resultar em indenização ou de uma falsa concordância com uma cláusula contratual em nome da sua empresa. Os riscos são grandes!

 

Um protocolo interno para reuniões virtuais que envolvam assinaturas de contratos também deve ser estabelecido, com autenticação dos participantes através de senhas únicas ou biometria. É importante manter registros detalhados do que é discutido nos encontros virtuais, incluindo data, horário, participantes presentes e informações relevantes do conteúdo colocado em discussão. As informações podem ser úteis em futuros processos de auditoria e até servir como prova em possíveis disputas legais.

 

Em relação à validade jurídica dos contratos firmados, as práticas adotadas devem estar alinhadas às normas vigentes, com atenção às legislações locais e regulamentações específicas. Os contratos devem ser assinados mediante o certificado digital, com cada pessoa utilizando seu próprio dispositivo de computação ou o seu aplicativo de assinatura eletrônica. Assinaturas de contratos mediante o uso de voz e imagem devem ser evitadas enquanto não houverem mecanismos de bloqueio de utilização e alteração de face e voz.

 

Fonte: Migalhas

Deixe um comentário