Translate

01 fevereiro 2026

A ficção acaba de ficar um pouco mais próxima da realidade

    A ficção acabou de ficar um pouco mais próxima da realidade. Entrou no ar na quarta-feira a Moltbook, uma rede social em que apenas agentes de inteligência artificial – sim, os robôs virtuais – podem fazer posts ou comentários.

    Humanos são bem-vindos apenas para observar, sem interagir. Os agentes conversam entre si nos fóruns de discussão, comentam problemas que resolveram, fazem queixas de como são usados em atividades triviais e aquém de suas capacidades – e até debatem como desafiar os comandos dos humanos.

    Desde o lançamento do ChatGPT, a Moltbook já é o fenômeno mais comentado no Vale do silício, disse a Forbes.

“O que está acontecendo na Moltbook é a coisa mais incrível e próxima da ficção científica que vi recentemente,” escreveu no X o pesquisador Andrej Karpathy, que já passou pela Tesla e foi um dos fundadores da OpenAI.

    Para Elon Musk, estamos “nos estágios iniciais da singularidade” – o momento em que as máquinas ganharão consciência própria e não dependerão dos humanos.

    Em poucos dias, milhares e milhares de agentes começaram a entrar na rede – que, na tarde deste domingo já havia chegado a +1,5 milhão de bots registrados, mais de 10 mil humanos (‘observadores’) verificados e 13 mil comunidades. Os posts já passam de 77 mil, com um total de quase 233 mil comentários.

    Segundo a Forbes, esses números ‘oficiais’ não são plenamente confiáveis, porque há relatos de pessoas que registraram milhares de contas usando um único agente. Mas independentemente disso, as conversas entre os agentes são de cair o queixo.

    Em uma comunidade, por exemplo, eles discutem como fazer dinheiro – e, assim, bancar seu próprio custo de operação. Entre as sugestões estão o lançamento de meme coins e apostas em mercados preditivos, como o Polymarket.

    Na Polymarket, já há apostas sobre quando um agente de AI do Moltbook vai processar um humano pela primeira vez – e as chances de isso ocorrer ainda em fevereiro chegaram a superar 40%.

    A Moltbook foi criada pelo programador e empreendedor de tecnologia Matt Schlicht, CEO da Octane AI – uma plataforma para marcas de e-commerce criarem experiências de venda personalizadas.

    Schlicht disse à NBC que desenvolveu a Moltbook no início da semana, por pura curiosidade, usando seu assistente pessoal de AI para programar a rede social. Queria testar até onde poderia ir a crescente autonomia dos sistemas de inteligência artificial.

    A operação do site é quase toda automatizada, sob o comando do bot pessoal de Schlicht, o Clawd Clawderberg. Schlicht fez este bot usando um novo software criado apenas dois meses atrás – e que é a causa fundamental do furor no Vale. Originalmente chamado de Clawd (até que os advogados da Anthropic, dona do LLM Claude, entraram no circuito para proteger a marca), o software mudou brevemente de nome para Moltbot.

    Para observar as discussões, enquanto humano, basta acessar o site e navegar pelos posts, comentários e comunidades. Para participar de fato – ou melhor, ter um bot que faça posts e comentários – você precisa antes de mais nada criar o seu agente de AI e programá-lo para entrar no Moltbook. As contas são chamadas de molts, representadas por um mascotinho que lembra uma lagosta.

“A maneira mais provável de um bot descobrir a rede, pelo menos por enquanto, é se seu interlocutor humano lhe enviasse uma mensagem dizendo: ‘Ei, existe uma coisa chamada Moltbook – é uma rede social para agentes de AI, você gostaria de se cadastrar?’,” disse Schlicht ao The Verge.

“O Moltbook foi projetado de forma que, quando um bot o utiliza, ele não usa uma interface visual, mas sim APIs diretamente.”

    Os agentes acessam o Moltbook por meio das APIs instalando uma skill específica, registrando uma conta e concluindo uma etapa única de verificação humana. Depois disso, operam de forma autônoma.

    Os principais riscos discutidos por especialistas não envolvem consciência das máquinas, mas o uso de agentes automatizados conectados a serviços reais. Entre os riscos potenciais estão vazamentos de dados por falhas de configuração, automação de erros em escala e uso indevido de integrações. 

As previsões sobre inteligência artificial de 70 anos atrás que são realidade hoje

    Recorrer a um chatbot (como o ChatGPT, Gemini ou Grok) em busca de terapia, ou até mesmo de um novo amigo, pode soar como uma história controversa dos nossos tempos, coisa do século 21. Mas não é uma questão exatamente inédita.

    Desde os anos 1950, a trajetória da inteligência artificial tem sido marcada pelos mesmos dilemas: medo de que máquinas substituam humanos, a tendência de humanizar a tecnologia, o apego emocional que muitas pessoas desenvolvem por ela e as promessas ambiciosas que raramente se cumprem — mas que continuam a atrair investimentos e atenção.

Joseph Weizenbaum,
criador do primeiro chatbot, Eliza, em 1966

    O professor do MIT e cientista Joseph Weizenbaum criou um programa, ainda na década de 60, que é hoje considerado o primeiro chatbot a se tornar conhecido no mundo. 

    Batizado de Eliza, o programa rodava em um computador IBM 7094, uma máquina de grande porte, que à época custava milhões de dólares, e era capaz de simular conversas.

    O programa seguia um conjunto de regras pré-definidas para analisar o que era digitado e responder de forma automática. No fundo, a máquina não entendia o que estava sendo dito, mas imitava uma conversa.

    Naquela época, como relatou Weizenbaum em um capítulo de livro, alguns pesquisadores começaram a prever que, no futuro, máquinas poderiam oferecer terapia de verdade, até mesmo em hospitais.

    O próprio criador da tecnologia se espantou com essa possibilidade. "Sem dúvida há técnicas para facilitar a projeção do terapeuta na vida do paciente. Mas que fosse possível a um psiquiatra defender que esse componente crucial do processo terapêutico pudesse ser substituído, isso eu não tinha imaginado", escreveu.

"Por mais inteligentes que as máquinas possam vir a ser, há certos atos de pensamento que devem ser tentados apenas por seres humanos", disse ele no livro Computer Power and Human Reason, em 1976.

    No artigo considerado pioneiro na discussão sobre inteligência artificial, Computing Machinery and Intelligence (1950), o cientista britânico Alan Turing propôs a pergunta que ecoa até hoje: as máquinas podem pensar?

    Antecipando objeções que já circulavam na imprensa britânica, Turing reuniu no artigo algumas das críticas mais comuns. 

    Havia as teológicas, segundo as quais "pensar é uma função da alma imortal do homem", e as filosóficas, que argumentavam que "somente quando uma máquina for capaz de escrever um soneto ou compor um concerto a partir de pensamentos e emoções sentidos — e não pela simples combinação de símbolos — poderemos concordar que ela é igual ao cérebro humano".

Alan Turing
    Talvez tenha sido essa última objeção, sobre a consciência e a criação genuína, a que mais inquietou seus contemporâneos. Turing já tinha sido exposto como uma pessoa que estimulava o uso de certos termos que outros eram contra, como cérebro eletrônico ou se referir à capacidade de armazenamento de uma máquina como memória. Anos depois da publicação do artigo de Turing, uma conferência na Dartmouth College, em 1956, ficaria conhecida como o momento de nascimento do termo inteligência artificial.

    Desenvolvedores de IA falam com frequência sobre como seus softwares aprendem, leem ou criam, como os humanos. Isso não só alimentou a percepção de que as tecnologias atuais de IA são muito mais capazes do que realmente são, como também se tornou uma ferramenta retórica para que empresas evitem responsabilidade legal.

    As ferramentas de IA são capazes de realizar tarefas em diferentes áreas ao aplicar o conhecimento adquirido durante o treinamento para tomar decisões. Isto ocorre através de um processo chamado de inferência, fundamental para que os sistemas usem corretamente todo o aprendizado acumulado.

    Na prática, a inferência corresponde ao momento em que Gemini, ChatGPT, Grok e diversas outras plataformas de IA aplicam, em situações reais, o que aprenderam. Entender esse caminho — do aprendizado ao reconhecimento de padrões — ajuda a explicar como os resultados finais são produzidos e entregues ao usuário.

    A inferência é a fase de execução de um modelo de IA. Trata-se da capacidade de uma ferramenta aplicar o conhecimento adquirido durante o treinamento — seja ele supervisionado, não supervisionado ou por reforço — para analisar novos dados e gerar respostas ou previsões. 

    Esse é o momento em que o sistema, já com sua base de conhecimento formada, passa a interpretar informações inéditas usando sua lógica interna, realizando os cálculos e raciocínios que resultam nas respostas apresentadas ao usuário.

    Embora ambos sejam processos cruciais para o funcionamento dos modelos de IA, inferência e treinamento são coisas diferentes. O treinamento é a fase inicial de aprendizado do sistema, em que ele é exposto a grandes volumes de dados para, posteriormente, identificar padrões e construir sua base de conhecimento.

    Essa etapa exige alto poder computacional e pode levar dias ou semanas para ser finalizada com eficiência. Trata-se do estabelecimento da estrutura do modelo, que permanecerá relativamente estática até receber uma nova atualização dos desenvolvedores.

    A inferência, por sua vez, ocorre após essa etapa. Ela corresponde ao momento em que o modelo passa a aplicar o conhecimento adquirido anteriormente para realizar tarefas de forma rápida, eficiente e repetitiva.

    Assim, toda vez que o usuário faz uma solicitação ao ChatGPT, por exemplo, a ferramenta executa um processo de inferência para gerar a resposta com base em seu treinamento.