A ideia ainda está no campo teórico e em alguns aspectos até lembra algo vindo da ficção científica, mas pode virar uma realidade em longo prazo. Trata-se da AGI (Artificial General Intelligence), uma tecnologia mais poderosa do que a inteligência artificial de hoje, comentada neste artigo.
Enquanto a IA tradicional é projetada para resolver um problema discreto, a AGI deverá ser capaz de realizar qualquer tarefa mental que um ser humano possa realizar. Dessa forma, consegue agir como uma pessoa para aprender, responder e raciocinar sobre um tema, inclusive com uma capacidade cognitiva similar ou ligeiramente superior a dos humanos.
O advento da AGI ainda está a anos, talvez até décadas de distância, mas qualquer país que saia na frente do desenvolvimento dessa tecnologia terá uma enorme vantagem, uma vez que poderá então usar a AGI para desenvolver versões cada vez mais avançadas, ganhando uma vantagem em todos os outros domínios da ciência e tecnologia. Um avanço neste campo poderia inaugurar uma era de predominância não muito diferente do curto período de superioridade nuclear que os Estados Unidos desfrutaram no final da década de 1940.Conhecimento é poder.
O que falta para chegarmos à AGI?
O caminho para alcançar a AGI ainda envolve muitas evoluções nas áreas de hardware e software. No primeiro caso, é necessário desenvolver uma estrutura de supercomputadores capaz de comportar todo o processamento e treinamento da IA — vale lembrar que os modelos mais modernos da OpenAI, Microsoft e Google já demandam uma grande rede de computadores para funcionarem. Microsoft e OpenAI projetam avançados data centers. Plano supera US$ 100 bilhões. A parte de software envolve a construção de novos algoritmos e modelos de IA para processar novas informações. Isso inclui novas formas para alimentar os LLMs (large language models).
Quando isso poderá acontecer?
As expectativas ainda são mantidas a longo prazo, mas as recentes evoluções do mercado podem acelerar o processo. A OpenAI já estipulou que uma IA superior à mente humana poderia surgir a partir do final dessa década, mas ainda depende da evolução e do treinamento de outras tecnologias.
A OpenAI supostamente já conseguiu desenvolver uma IA superior as tecnologias atuais e com facilidade para resolver problemas matemáticos. O modelo do chamado Projeto Q teria deixado a diretoria do projeto em alerta sobre os riscos à humanidade, mas também representaria um avanço em direção à AGI. O CEO da DeepMind (divisão de IA do Google) Demis Hassabis tem uma opinião parecida.
No seu site oficial, a OpenAI explica que adota os cronogramas mais curtos porque são mais fáceis de serem coordenados e levam a uma sobrecarga computacional menor. O teste mais lento, por sua vez, “dá mais tempo para descobrir empiricamente como resolver o problema de segurança e como nos adaptarmos”, registra a página.
Riscos e benefícios
A AGI poderia potencializar todos os aspectos da IA generativa — o problema é que isso inclui pontos positivos e negativos.
Uma IA com o mesmo nível de cognição do cérebro humano traria inúmeras vantagens para o desenvolvimento da sociedade como um todo. A ferramenta poderia ser usada para promover insights, tomar decisões, simplificar cálculos e processos, oferecer mais soluções criativas para problemas, e por aí vai. Isso poderia ser integrado em sistemas empresariais, ações governamentais e até em dispositivos pessoais para ajudar durante o cotidiano.
Por outro lado, uma IA mais poderosa pode colocar a humanidade em risco: não dá para prever como a ferramenta será usada e quais interesses seriam defendidos pela máquina. Um dos cenários apocalípticos envolve o desenvolvimento acelerado da AGI a ponto dela ficar mais inteligente do que os humanos — assim, não seria mais possível controlar os computadores, num cenário quase apocalíptico digno de filmes como Matrix e Exterminador do Futuro.
Porém, todo o processo ainda esbarra em alguns obstáculos atuais que envolvem a IA, como a regulamentação da tecnologia e as medidas adotadas para evitar alucinações ou respostas enviesadas. Pesquisadores reforçam a importância da atuação humana no treinamento para um desfecho positivo e citam como exemplo o ChatGPT que no seu início, se pedido, ele dava a fórmula da bomba atômica.
Intrigante positivamente e assustador.
ResponderExcluir