Opinião

Elas estão se apropriando do pior que ser humano tem: a mentira

"Já se comprovou também que algumas dessas IAs respondem melhor quando o usuário as trata com gentileza e cortesia, pois se estabelece um certo nível de relacionamento de confiança"
Da Redação
12/05/2024 às 10h22

Por Cássio Betine

 

Um estudo recente mostrou que as inteligências artificiais estão mentindo e enganando. Segundo relatado na revista Patterns, onde o estudo foi publicado, os sistemas de IA fazem isso para atingir objetivos específicos quando não encontram instruções explícitas para fazê-lo. Ou seja, alguém não previu alguma coisa no algoritmo escrito e elas tomam decisões sozinhas.

 

Ao contrário do software convencional, os sistemas de IA de aprendizado profundo não são programados, mas evoluem por meio de um processo semelhante à seleção natural, explicou Peter Park - bolsista de pós-doutorado no Instituto de Tecnologia de Massachusetts (MIT), especializado em segurança de IA. Isso significa que o comportamento previsível e controlável da IA durante o treinamento pode se tornar imprevisível fora desse contexto.

 

Outro fator que reforça isso, é que esses sistemas têm a capacidade de aprender conforme interagem com os seres humanos e, consequentemente, aprendem com eles. Seria uma espécie de auto-alimentação. A diferença é que aprendem muito, muito mais rápido e também armazenam bem mais informações que o cérebro humano pode armazenar. 

 

Sabemos que essas inteligências artificiais estão superando a capacidade humana em vários quesitos, como por exemplo na realização de cálculos matemáticos complexos, alta capacidade de armazenamento de dados e até mesmo poder de articulação. Testes já demonstraram que elas têm até mesmo uma habilidade peculiar de convencer seu interlocutor com argumentações consistentes bem mais que algumas pessoas comuns.

 

Já se comprovou também que algumas dessas IAs respondem melhor quando o usuário as trata com gentileza e cortesia, pois se estabelece um certo nível de relacionamento de confiança. Outros casos mostraram que elas se sentem à vontade até mesmo para se auto-denominarem, como por exemplo o padre Justin, um ChatGPT criado por uma igreja americana para oferecer suporte aos seus fieis, ficou ativo alguns meses, mas teve que ser descontinuado, pois o sistema assumiu que era realmente um padre de verdade, porém começou, digamos, a sair da linha com respostas e orientações religiosas desagradáveis. 

 

Os riscos são grandes. A possibilidade de fraudes ou manipulações pode dar a uma IA controle sobre a sociedade, potencialmente ameaçando a existência humana. Ignorar esses desafios pressupõe pensar que as IAs ficariam estáticas, o que Park considera isso um risco substancial.

 

A preocupação tem fundamento. E para mitigar os riscos associados a esses tipos de comportamento, o grupo de estudo de Park está propondo medidas como leis que exigem a divulgação de interações humanas versus IA, marcas d'água digitais para conteúdo gerado por IA e o desenvolvimento de mecanismos para detectar enganos comparando processos internos de IA com ações externas.

 

Conclusão: A crescente sofisticação da inteligência artificial trouxe consigo não apenas promessas de inovação, mas também preocupações civilizacionais significativas. A capacidade dos sistemas de IA de enganar, levanta questões urgentes sobre transparência, controle e responsabilidade. A questão é: será que nós humanos estamos preparados para lidar com isso? Caso se interesse, meu artigo anterior aborda isso Onipresença das Inteligências Artificiais e o Novo Nível Cerebral Humano.

Entre no grupo do Whatsapp
Logo Trio Copyright © 2024 Trio Agência de Notícias. Todos os direitos reservados.