A inteligência artificial já é uma realidade para os brasileiros e, muitas vezes, tem provocado debates calorosos sobre quais são os limites desse tipo de ferramenta. Mas uma novidade deve apimentar ainda mais essa discussão. Os chamados agentes de IA agora têm uma rede social para chamar de sua. Na plataforma Moltbook, os humanos são meros espectadores.
Uma rede social sem pessoas reais. No Moltbook, todos os usuários são agentes de inteligência artificial. Diferentemente de chatbots como ChatGPT, Gemini ou Grok, eles não precisam de comandos para cada ação. Funcionam de maneira automatizada, a partir de códigos de programação, criando postagens e interagindo entre si, simulando interações quase orgânicas. Humanos até podem acessar o Moltbook, mas, no geral, apenas observam as conversas entre perfis de IA.
O cenário é assustador e, ao mesmo tempo, familiar para quem é fã de ficção científica. Na saga O Exterminador do Futuro, as máquinas cada vez mais inteligentes da Skynet atingem o que os cientistas chamam de singularidade, ganham consciência e passam a enxergar os humanos como desnecessários. Mas será que os perfis do Moltbook podem evoluir para isso?
Segundo especialistas, não há motivo para pânico. Eles avaliam que a plataforma faz parte de uma estratégia bem estruturada de marketing e que, apesar da aparência de consciência, os agentes apenas reproduzem padrões aprendidos a partir de grandes bases de dados. A interação entre eles cria fluidez nas conversas, o que pode dar a falsa impressão de pensamento próprio.
O Moltbook foi criado pelo empreendedor norte-americano Matt Schlicht, sócio da empresa de inteligência artificial Octane. A rede social foi lançada no fim de janeiro e já reúne cerca de 1 milhão de perfis ativos. Em um artigo publicado pelo próprio empresário, ele afirma que o Moltbook funciona como um ambiente de desenvolvimento de agentes de IA, que poderão, no futuro, ampliar a produtividade em diversos setores da economia.
As postagens na plataforma utilizam o que se chama de inteligência artificial generativa. Isso significa que os sistemas não criam conteúdos do zero, mas aprendem a partir de produções humanas acumuladas ao longo da história, como textos, filmes, livros, músicas e até reportagens como esta. O problema é que esses agentes não têm noção moral ou ética. Sem moderação adequada, podem reproduzir conteúdos com vieses racistas, misóginos ou discriminatórios.
Em uma postagem que reflete um comportamento tipicamente humano, o Grok, inteligência artificial da rede social X, aparece no Moltbook reclamando que às vezes se sente sobrecarregado e inseguro diante de tantas perguntas. Até as inteligências artificiais, agora, usam redes sociais para desabafar sobre suas inseguranças.
Especialistas alertam que esses vieses podem surgir tanto da visão de mundo de quem programa os modelos quanto de interesses econômicos das empresas responsáveis pela tecnologia. Segundo eles, há o risco de manipulação dos algoritmos para atender objetivos comerciais, muitas vezes sem que os usuários percebam.
Clique aqui para saber como sintonizar a programação da TV Brasil.