Por Cassio Betine
Para quem acompanha pari passu a evolução das inteligências artificiais, ou, no mínimo, para quem está atento sobre o quanto elas estão presentes em nossas vidas, sabe que o futuro dessa tecnologia é complexo e exige muita atenção. Em praticamente todo aparelho conectado à internet, as IAs estão lá, seja num simples bot “burrinho” que responde a comandos predeterminados ou nos Chats GPTs que estão cada vez mais “espertinhos”, fazendo desenhos extraordinários e textos melhores do que o de muitos humanos.
O avanço silencioso de novos modelos de IA acontecem em vários laboratórios de diversas universidades ao redor do mundo. Atualmente esse pessoal está trabalhando num modelo chamado IAG, ou, Inteligência Artificial Geral, projetada para realizar tarefas específicas, que busca uma inteligência ampla e flexível, semelhante à humana, capaz de se adaptar e evoluir em qualquer contexto e lidar com informações completas, incompletas ou até mesmo ambíguas. Isso significa que elas estão “pensando”.
A questão aqui não é se vão “pensar” certo ou errado, igual ou melhor que nós humanos, mas que estão desenvolvendo algum tipo de cognição - que é nosso diferencial em relação ao restante dos seres vivos.
Esse tipo de IA funciona através do uso de diferentes técnicas, como por exemplo, redes neurais artificiais (que simulam as redes neurais orgânicas do cérebro humano); regressão simbólica (que é um tipo específico de algoritmo); e o aprendizado por reforço (que são sistemas que treinam outros sistemas para tomarem decisões).
Alguns futurólogos, como Ray Kurzweil - um dos mais conhecidos futuristas do mundo, que previu o surgimento dos smartphones bem antes que qualquer um sequer pensasse no assunto, prevê que a IA alcançará a inteligência humana por volta de 2029 e que a singularidade tecnológica, onde a IA ultrapassará a inteligência humana, ocorrerá em 2045.
Outro “maluco” como Leopold Aschenbrenner - um ex-funcionário da OpenAI, acredita que essa tecnologia se igualará à inteligência humana agora em 2027 e atingirá uma superinteligência a partir de 2030.
E Nick Bostrom, um filósofo, autor do livro "Superintelligence: Paths, Dangers, Strategies", é um dos que se preocupam com o outro lado da moeda: os desafios éticos e de segurança que isso traria para a sociedade. Ele acredita que elas serão perigosas porque terão um objetivo final, o qual vão cumprir mesmo que coloquem pessoas em risco.
Os impactos que as IAGs em seu estágio avançado poderão promover são bem abrangentes. Elas serão meio que superpoderosas, podendo atuar em resoluções mais abrangentes e globais, através da identificação e implementação de soluções para desafios como por exemplo, mudanças climáticas, doenças pandêmicas e desigualdade econômica. Também terão potencial que humanos jamais conseguiriam, como analisar grandes volumes de dados e gerar novas hipóteses de forma mais rápida.
E se elas estão alcançando este nível de importância, imagina o que não farão no mercado de trabalho de massa? Só para ilustrar o quanto isso está avançado, uma pesquisa recente mostrou que 2 de cada 3 empresas globais só contratam pessoas que tenham habilidades no uso dessas IAs. Então, um recadinho a quem interessar: bom ficar amiguinho delas!
*Cassio Betine é pós-graduado em Tecnologias na Aprendizagem, bacharel em Artes Visuais e Desenho Industrial. É coordenador e mentor de negócios e eventos; autor de livros, artigos e produtor de podcasts periódicos sobre Tecnologia e Inovação para mais de 70 rádios do Brasil. É fundador e coordenador de projetos da f7digitall Comunicação e empreendedor em outros negócios.
** Este texto é de responsabilidade do autor e não reflete, necessariamente, a opinião deste veículo de comunicação.