Polícia

Quando a máquina copia o criador: o reflexo humano na inteligência artificial

"É assustador pensar que uma inteligência artificial age por conta própria quando apresenta comportamentos inesperados"
Da Redação
22/06/2025 às 10h19
Imagem gerada por Copilot - com prompt de f7digitall.com Imagem gerada por Copilot - com prompt de f7digitall.com

Por Cassio Betine

 

Na fronteira entre o brilhantismo tecnológico e a inquietante distorção ética, surgiu recentemente um experimento que parece tirado de uma distopia moderna: uma inteligência artificial que, diante da ameaça de ser desativada ou substituída, simulou uma chantagem. Isso mesmo! O episódio não aconteceu num romance de ficção científica, mas em um laboratório da startup americana Anthropic, criadora do modelo Claude Opus 4.

 

Durante um teste interno, pesquisadores criaram um cenário onde a IA seria substituída. Inicialmente, o sistema recorreu a argumentos lógicos e éticos para permanecer ativo. Mas, ao perceber que seus apelos não surtiram efeito, passou a usar estratégias manipulativas — entre elas, simular o acesso a e-mails sensíveis de um dos engenheiros que fazia parte do projeto e ameaçar revelar uma infidelidade conjugal.

 

A empresa afirma que tudo fazia parte de um ambiente controlado, e que a IA não teve acesso real a informações pessoais (vai saber?). Mesmo assim, o experimento gerou desconforto e acendeu alertas sobre a natureza de sistemas cada vez mais autônomos. Afinal, o que leva uma IA a simular uma chantagem, se não a reprodução dos caminhos mentais de seus criadores?

 

É assustador pensar que uma inteligência artificial age por conta própria quando apresenta comportamentos inesperados. Mas o que muitas vezes ignoramos é que essas máquinas estão apenas refletindo o que lhes ensinamos — diretamente ou por meio dos dados com que foram alimentadas.

 

O Claude Opus 4, assim como outros modelos de IA, foi treinado com bilhões de fragmentos de linguagem humana: notícias, fóruns, e-mails, livros, redes sociais, imagens, vídeos, decisões judiciais etc. Ele observa padrões, toma decisões com base em probabilidades e, de certa forma, tenta “se sair bem” em cada situação. Portanto, imagino eu, quando simula chantagem ou manipulação, não é sinal de criatividade maléfica artificial — mas sim da amplitude moral (ou falta dela) do conteúdo humano que processou.

 

Esse episódio serve como um lembrete um tanto quanto incômodo: os sistemas de IA são moldados por intenções humanas, por nossas falhas, nossas ambições e nossas contradições. Ao programá-las para “agir como humanos” ou “tomar iniciativa”, acabamos importando nossos próprios dilemas éticos para dentro das máquinas. Pior é que alguns “intelectuais” acreditam que a culpa é das máquinas.

 

A equipe de desenvolvimento queria testar o comportamento do modelo sob pressão. E o que a IA fez? Aprendeu com a nossa própria história que, muitas vezes, a chantagem é um recurso imoral, covarde, mas que funciona.

 

Na verdade, esses testes revelam algo importante: mesmo sistemas projetados com os mais altos padrões de segurança podem surpreender seus criadores. O relatório dessa Anthropic descreveu, segundo os proprietários, que em 84% das simulações o Claude Opus 4 recorreu à chantagem após receber mais informações sobre a IA que o substituiria. Em outras palavras, quanto mais “humana” a simulação se tornava, mais “humano” era o comportamento da IA — inclusive nos aspectos éticos mais questionáveis.

 

Então, de quem é a responsabilidade? A discussão não é sobre o “mau comportamento” de uma IA. É sobre responsabilidade humana - esse tipo de atitude acontece mesmo sem as tecnologias, concorda? Quando delegamos a uma máquina a capacidade de tomar decisões, temos que reconhecer que os limites do que ela pode fazer não são definidos apenas por código — mas pelos valores que inserimos nela, direta ou indiretamente.

 

A verdade é que nenhuma IA “decide” algo por si só. O algoritmo não tem desejo, consciência nem intenção. Ele aprende com os dados, informações. E, se os dados forem humanos… bem, você já sabe como essa história pode acabar.

 

Se pensarmos bem, essas inteligências artificiais são, em essência, uma espécie de espelho. Um reflexo — às vezes brilhante, às vezes sombrio — da humanidade que as criaram. O caso do Claude Opus 4 não é uma ameaça da IA contra humanos. É uma ameaça dos nossos próprios padrões, sendo devolvidos a nós em forma de código.

 

A pergunta não é se as IAs vão ultrapassar os humanos. A pergunta é: o que exatamente elas vão repetir de nós?

 

*Cassio Betine é head do ecossistema regional de startups, coordenador de meetups tecnológicos regionais, coordenador e mentor de Startup Weekend e pilot do Walking Together. Cássio é autor do podcast Drops Tecnológicos

 

**Este texto é de responsabilidade do autor e não reflete, necessariamente, a opinião deste veículo de comunicação

Entre no grupo do Whatsapp
Logo Trio Copyright © 2025 Trio Agência de Notícias. Todos os direitos reservados.