Translate

01 fevereiro 2026

As previsões sobre inteligência artificial de 70 anos atrás que são realidade hoje

    Recorrer a um chatbot (como o ChatGPT, Gemini ou Grok) em busca de terapia, ou até mesmo de um novo amigo, pode soar como uma história controversa dos nossos tempos, coisa do século 21. Mas não é uma questão exatamente inédita.

    Desde os anos 1950, a trajetória da inteligência artificial tem sido marcada pelos mesmos dilemas: medo de que máquinas substituam humanos, a tendência de humanizar a tecnologia, o apego emocional que muitas pessoas desenvolvem por ela e as promessas ambiciosas que raramente se cumprem — mas que continuam a atrair investimentos e atenção.

Joseph Weizenbaum,
criador do primeiro chatbot, Eliza, em 1966

    O professor do MIT e cientista Joseph Weizenbaum criou um programa, ainda na década de 60, que é hoje considerado o primeiro chatbot a se tornar conhecido no mundo. 

    Batizado de Eliza, o programa rodava em um computador IBM 7094, uma máquina de grande porte, que à época custava milhões de dólares, e era capaz de simular conversas.

    O programa seguia um conjunto de regras pré-definidas para analisar o que era digitado e responder de forma automática. No fundo, a máquina não entendia o que estava sendo dito, mas imitava uma conversa.

    Naquela época, como relatou Weizenbaum em um capítulo de livro, alguns pesquisadores começaram a prever que, no futuro, máquinas poderiam oferecer terapia de verdade, até mesmo em hospitais.

    O próprio criador da tecnologia se espantou com essa possibilidade. "Sem dúvida há técnicas para facilitar a projeção do terapeuta na vida do paciente. Mas que fosse possível a um psiquiatra defender que esse componente crucial do processo terapêutico pudesse ser substituído, isso eu não tinha imaginado", escreveu.

"Por mais inteligentes que as máquinas possam vir a ser, há certos atos de pensamento que devem ser tentados apenas por seres humanos", disse ele no livro Computer Power and Human Reason, em 1976.

    No artigo considerado pioneiro na discussão sobre inteligência artificial, Computing Machinery and Intelligence (1950), o cientista britânico Alan Turing propôs a pergunta que ecoa até hoje: as máquinas podem pensar?

    Antecipando objeções que já circulavam na imprensa britânica, Turing reuniu no artigo algumas das críticas mais comuns. 

    Havia as teológicas, segundo as quais "pensar é uma função da alma imortal do homem", e as filosóficas, que argumentavam que "somente quando uma máquina for capaz de escrever um soneto ou compor um concerto a partir de pensamentos e emoções sentidos — e não pela simples combinação de símbolos — poderemos concordar que ela é igual ao cérebro humano".

Alan Turing
    Talvez tenha sido essa última objeção, sobre a consciência e a criação genuína, a que mais inquietou seus contemporâneos. Turing já tinha sido exposto como uma pessoa que estimulava o uso de certos termos que outros eram contra, como cérebro eletrônico ou se referir à capacidade de armazenamento de uma máquina como memória. Anos depois da publicação do artigo de Turing, uma conferência na Dartmouth College, em 1956, ficaria conhecida como o momento de nascimento do termo inteligência artificial.

    Desenvolvedores de IA falam com frequência sobre como seus softwares aprendem, leem ou criam, como os humanos. Isso não só alimentou a percepção de que as tecnologias atuais de IA são muito mais capazes do que realmente são, como também se tornou uma ferramenta retórica para que empresas evitem responsabilidade legal.

    As ferramentas de IA são capazes de realizar tarefas em diferentes áreas ao aplicar o conhecimento adquirido durante o treinamento para tomar decisões. Isto ocorre através de um processo chamado de inferência, fundamental para que os sistemas usem corretamente todo o aprendizado acumulado.

    Na prática, a inferência corresponde ao momento em que Gemini, ChatGPT, Grok e diversas outras plataformas de IA aplicam, em situações reais, o que aprenderam. Entender esse caminho — do aprendizado ao reconhecimento de padrões — ajuda a explicar como os resultados finais são produzidos e entregues ao usuário.

    A inferência é a fase de execução de um modelo de IA. Trata-se da capacidade de uma ferramenta aplicar o conhecimento adquirido durante o treinamento — seja ele supervisionado, não supervisionado ou por reforço — para analisar novos dados e gerar respostas ou previsões. 

    Esse é o momento em que o sistema, já com sua base de conhecimento formada, passa a interpretar informações inéditas usando sua lógica interna, realizando os cálculos e raciocínios que resultam nas respostas apresentadas ao usuário.

    Embora ambos sejam processos cruciais para o funcionamento dos modelos de IA, inferência e treinamento são coisas diferentes. O treinamento é a fase inicial de aprendizado do sistema, em que ele é exposto a grandes volumes de dados para, posteriormente, identificar padrões e construir sua base de conhecimento.

    Essa etapa exige alto poder computacional e pode levar dias ou semanas para ser finalizada com eficiência. Trata-se do estabelecimento da estrutura do modelo, que permanecerá relativamente estática até receber uma nova atualização dos desenvolvedores.

    A inferência, por sua vez, ocorre após essa etapa. Ela corresponde ao momento em que o modelo passa a aplicar o conhecimento adquirido anteriormente para realizar tarefas de forma rápida, eficiente e repetitiva.

    Assim, toda vez que o usuário faz uma solicitação ao ChatGPT, por exemplo, a ferramenta executa um processo de inferência para gerar a resposta com base em seu treinamento.

Um comentário: