A Inteligência Artificial (IA) parece andar a os largos e tem evoluído de forma exponencial. Nas últimas semanas, após o Google anunciar a chegada do Veo 3, por exemplo, sua nova ferramenta de IA, diversos vídeos gerados pela plataforma viralizaram na internet. As imagens hiperrealistas surpreenderam pela qualidade, mas também geraram preocupação sobre o potencial dessas ferramentas, que podem ser usadas tanto para algo bom quanto para algo ruim. Nesta quarta-feira (4 de junho), inclusive, veio à tona o caso do uso de IA por alunos de uma escola de Belo Horizonte que criaram falsos “nudes” usando o rosto de colegas.

Casos como esses acendem o alerta sobre a questão jurídica envolvendo o uso da IA para cometer crimes. O advogado especialista em direito digital e inteligência artificial, Alexandre Atheniense, pontua que, atualmente, casos de uso antiético da IA são levados à Justiça e julgados normalmente. Ele explica que é ótimo quando já há uma legislação específica para a situação, mas, na ausência dessas leis, existem meios de punir o infrator. “A gente sempre trabalha com a hipótese de que vamos procurar um caminho para punir os infratores”, diz. 

“Um dos princípios do uso da inteligência artificial, que inclusive é abordado no projeto de lei que trata do assunto, é o uso ético da inteligência artificial. Então, desde que fique configurado que a pessoa agiu com o uso da inteligência artificial, violando princípios éticos de conduta moral, obviamente isso é uma violação que merece ser repreendida”, comenta.

No caso específico do uso de IA por alunos em BH, o especialista afirma que há meios legais de encontrar e punir os infratores, independente da existência ou não de uma lei relacionada ao uso de IA. “A ausência de projetos aprovados não significa dizer que não há meio de coibir e de punir o infrator. Eu entraria com a ação na área cível, para poder objetivar uma reparação de danos, ou seja, danos financeiros, pela repercussão. E outra na esfera penal, por ser difamação. A lei da década de 30 ainda é aplicável nesse caso. Porque, sem dúvida alguma, foi dada a publicidade de um conteúdo difamatório”, comenta.

Na visão do especialista em IA e sócio da Proteus Academy, Victor Salles, as discussões para a criação de uma legislação que controle o uso de IA ainda “engatinham”, enquanto o aperfeiçoamento de ferramentas de IA corre em uma velocidade infinitamente superior - um leigo consegue usá-las tranquilamente. “A gente tem um desafio muito grande em termos de regulação, a legislação vem sempre depois, é difícil você adiantar a legislação e é natural que ela venha depois. Só que a gente está num momento em que o negócio está avançando exponencialmente. E esses temas demoram para serem regulados”, diz.

“Eu faço uma analogia que é o seguinte: a IA é tão impactante quanto a energia nuclear. É algo que pode ser maravilhoso para criar energia infinita para humanidade, ou para criar uma bomba”, diz. “Em breve, não seremos capazes de identificar o que é IA ou não”, afirma. Sobre essa questão, o especialista pontua que, no futuro, a única forma de diferenciar os conteúdos vindos de IA e os reais será confiar nas instituições estabelecidas e respeitadas no mercado, como veículos de imprensa sérios e redes oficiais de órgãos do governo, por exemplo.

Uma das formas de se proteger dos futuros riscos do uso de IA para cometimento de crimes, como golpes, por exemplo, pode estar em não se expor demais na internet, segundo o especialista. “Foto de crianças, de adolescentes, por exemplo, não deveriam estar em redes sociais”, diz.