Translate

01 maio 2024

Cem anos de estudos sobre Inteligência Artificial (AI100)


Os avanços contínuos nas capacidades de inteligência artificial (IA) levaram ao projeto denominado "Cem Anos de estudos sobre Inteligência Artificial" da Universidade de Stanford, proposto por Eric Horvitz, com base na investigação de longa data que ele e os seus colegas conduziram na Microsoft Research.

O projeto tem como objetivo  estudar e antecipar como os efeitos da inteligência artificial irão repercutir em todos os aspectos de como as pessoas trabalham, vivem e se divertem. É administrado pela Universidade de Stanford e gerenciado por um Comitê Permanente de especialistas em IA de instituições de todo o mundo.

Antes de se prosseguir é recomendável se esclarecer dois conceitos que estão intrinsecamente vinculados ao desenvolvimento da IA. O de Machine Learning e o de Deep Learning.

Machine Learning (ML) é uma forma de inteligência artificial que pode se adaptar a uma ampla gama de entradas, incluindo grandes conjuntos de dados e instruções humanas. Seus algoritmos podem detectar padrões e aprender como fazer previsões e recomendações processando dados e experiências. Os algoritmos também se adaptam em resposta a novos dados e experiências para melhorar ao longo do tempo. Contudo, o volume e a complexidade dos dados que estão agora a ser gerados, demasiado vastos para serem considerados pelos humanos, aumentaram a necessidade de aprendizagem automática.

Deep Learning (DL) é uma versão mais avançada da aprendizagem automática que é particularmente adequada ao processamento de uma gama mais ampla de recursos de dados (texto e dados não estruturados, incluindo imagens), requer ainda menos intervenção humana e muitas vezes pode produzir resultados mais precisos do que a máquina tradicional. Semelhante a Machine Learning, o Deep Learning usa iteração para autocorreção e para melhorar suas capacidades de previsão. Por exemplo, depois de “aprender” a aparência de um objeto, ele poderá reconhecê-lo em uma nova imagem. 

O conceito de Deep Learning existe desde a década de 1950. A seguir um breve resumo de como ele evoluiu de conceito à realidade e quais as pessoas-chave que fizeram isso acontecer.

Pode se dizer, sem medo de errar, que é demasiado cedo para se escrever uma história completa do Deep Learning, mas já se pode traçar um esboço reconhecidamente incompleto das suas origens e identificar alguns dos pioneiros. Eles incluem Warren McCulloch e Walter Pitts, que já em 1943 propuseram um neurônio artificial, um modelo computacional da “rede nervosa” no cérebro. Bernard Widrow e Ted Hoff, da Universidade de Stanford, desenvolveram uma aplicação de rede neural reduzindo o ruído nas linhas telefônicas no final da década de 1950.

Na mesma época, Frank Rosenblatt, um psicólogo americano, apresentou a ideia de um dispositivo chamado Perceptron, que imitava a estrutura neural do cérebro e mostrava capacidade de aprender. Marvin Minsky e Seymour Papert, do MIT, interromperam essa pesquisa em seu livro Perceptrons, de 1969, mostrando matematicamente que o Perceptron só poderia realizar tarefas muito básicas.

Em 1986, Geoffrey Hinton, da Universidade de Toronto, juntamente com os colegas David Rumelhart e Ronald Williams, resolveram este problema de treinamento com a publicação de um agora famoso algoritmo de treinamento de retropropagação - embora alguns profissionais apontem para um matemático finlandês, Seppo Linnainmaa, como tendo inventado a retropropagação já na década de 1960. 

Yann LeCun, da Universidade de Nova York, foi pioneiro no uso de redes neurais em tarefas de reconhecimento de imagens e seu artigo de 1998 definiu o conceito de redes neurais que imitam o córtex visual humano. 

Paralelamente, John Hopfield popularizou a rede “Hopfield”, que foi a primeira rede neural recorrente. Isto foi posteriormente expandido por Jürgen Schmidhuber e Sepp Hochreiter em 1997 com a introdução da memória de longo prazo (LSTM), melhorando significativamente a eficiência e praticidade das redes neurais recorrentes. Em 2012, Hinton e dois de seus alunos destacaram o poder do Deep Learning quando obtiveram resultados significativos, com base em um conjunto de dados coletado por Fei-Fei Li e outros. Ao mesmo tempo, Jeffrey Dean e Andrew Ng estavam realizando um trabalho inovador em reconhecimento de imagens em grande escala no Google Brain.

Deep Learning também aprimorou o campo existente de aprendizado por reforço, liderado por diversos pesquisadores, levando ao sucesso de jogos de sistemas desenvolvidos pela DeepMind. Em 2014, Ian Goodfellow publicou um artigo sobre o modelo denominado adversarial nets generative, que junto com a aprendizagem por reforço se tornou o foco de muitas das pesquisas recentes na área.

Qual é a relação entre Deep Learning e IA generativa (IAgen)?

O ChatGPT tornou a IA visível – e acessível – ao público em geral pela primeira vez. O ChatGPT e outros modelos de linguagem semelhantes foram treinados em ferramentas de Deep Learning chamadas transformer networks para gerar conteúdo em resposta as solicitações. 

As transformer networks permitem que as ferramentas de IAgen avaliem diferentes partes da sequência de entrada de maneira diferente ao fazer previsões. As transformer networks, compreendendo camadas codificadoras e decodificadoras, permitem que os modelos de IAgen aprendam relações e dependências entre palavras de uma forma mais flexível em comparação com os modelos tradicionais de máquina e de aprendizagem profunda. Isso ocorre porque as transformer networks são treinadas em grandes áreas da Internet (por exemplo, todas as imagens de trânsito já gravadas e carregadas) em vez de um subconjunto específico de dados (certas imagens de um sinal de pare, por exemplo). Os modelos básicos treinados na arquitetura de transformer networks – como o ChatGPT da OpenAI ou o BERT do Google – são capazes de transferir o que aprenderam de uma tarefa específica para um conjunto mais generalizado de tarefas, incluindo a geração de conteúdo.

Quais setores podem se beneficiar do Machine Learning e do Deep Learning?

Segundo os dados de diversas pesquisas já publicadas, todas elas indicaram que praticamente qualquer setor pode se beneficiar de ambos os modelos: (ML e DL). Aqui estão alguns exemplos de casos de uso que abrangem vários setores:

Manutenção preventiva. Atividade crucial para qualquer indústria ou negócio que dependa de equipamentos. Em vez de esperar até que um equipamento quebre, as empresas podem usar a manutenção preventiva para projetar quando a manutenção será necessária, reduzindo assim o potencial tempo de inatividade e diminuindo os custos operacionais.

Tanto a ML como o DL têm a capacidade de analisar grandes quantidades de dados multifacetados, o que pode aumentar a precisão da manutenção preventiva. Por exemplo, os profissionais de IA podem incluir  novas entradas, como dados de áudio e de imagem, o que pode adicionar nuances à análise de uma rede neural.

Otimização logística. Usar a IA para otimizar a logística pode reduzir custos por meio de previsões em tempo real. Por exemplo, a IA pode otimizar o roteamento do tráfego de entrega, melhorando a eficiência do combustível e reduzindo os prazos de entrega.

Atendimento ao Cliente. As técnicas de IA em call centers podem ajudar a permitir uma experiência mais integrada para os clientes e um processamento mais eficiente. A tecnologia vai além da compreensão das palavras do chamador: a análise Deep Learning do áudio pode avaliar o tom do cliente. Se o serviço de chamada automatizado detectar que um chamador está chateado, o sistema poderá redirecioná-lo para outro operador ou um gerente.


Nenhum comentário:

Postar um comentário