Afinal, a IA pode não precisar de dados de treinamento massivos
Uma nova pesquisa da Universidade Johns Hopkins mostra que os sistemas de inteligência artificial construídos com designs inspirados na biologia podem começar a assemelhar-se à atividade cerebral humana mesmo antes de serem treinados com quaisquer dados. O estudo sugere que a forma como a IA é estruturada pode ser tão importante quanto a quantidade de dados que ela processa.
As descobertas, publicadas em Inteligência da Máquina da Naturezadesafiar a estratégia dominante no desenvolvimento da IA. Em vez de depender de meses de treinamento, enormes conjuntos de dados e vasto poder computacional, a pesquisa destaca o valor de começar com uma base arquitetônica semelhante à do cérebro.
Repensando a abordagem de IA com uso pesado de dados
“A maneira como o campo da IA está se movendo agora é lançar um monte de dados nos modelos e construir recursos computacionais do tamanho de pequenas cidades. Isso requer gastar centenas de bilhões de dólares. Enquanto isso, os humanos aprendem a ver usando muito poucos dados”, disse o autor principal Mick Bonner, professor assistente de ciência cognitiva na Universidade Johns Hopkins. “A evolução pode ter convergido para este projeto por uma boa razão. Nosso trabalho sugere que projetos arquitetônicos mais parecidos com o cérebro colocam os sistemas de IA em um ponto de partida muito vantajoso.”
Bonner e os seus colegas pretendiam testar se a arquitectura por si só poderia dar aos sistemas de IA um ponto de partida mais humano, sem depender de formação em larga escala.
Comparando arquiteturas populares de IA
A equipe de pesquisa se concentrou em três tipos principais de projetos de redes neurais comumente usados em sistemas modernos de IA: transformadores, redes totalmente conectadas e redes neurais convolucionais.
Eles ajustaram repetidamente esses projetos para criar dezenas de redes neurais artificiais diferentes. Nenhum dos modelos foi treinado previamente. Os pesquisadores então mostraram aos sistemas não treinados imagens de objetos, pessoas e animais e compararam sua atividade interna com as respostas cerebrais de humanos e primatas não humanos que visualizavam as mesmas imagens.
Por que as redes convolucionais se destacaram
O aumento do número de neurônios artificiais em transformadores e redes totalmente conectadas produziu poucas mudanças significativas. No entanto, ajustes semelhantes nas redes neurais convolucionais levaram a padrões de atividade que correspondiam mais de perto aos observados no cérebro humano.
De acordo com os pesquisadores, esses modelos convolucionais não treinados tiveram desempenho equivalente aos sistemas tradicionais de IA que normalmente exigem exposição a milhões ou até bilhões de imagens. Os resultados sugerem que a arquitetura desempenha um papel maior na formação do comportamento semelhante ao do cérebro do que se acreditava anteriormente.
Um caminho mais rápido para uma IA mais inteligente
“Se o treinamento em dados massivos é realmente o fator crucial, então não deveria haver maneira de chegar a sistemas de IA semelhantes ao cérebro apenas através de modificações arquitetônicas”, disse Bonner. “Isso significa que, começando com o modelo certo e talvez incorporando outros insights da biologia, poderemos acelerar drasticamente o aprendizado em sistemas de IA.”
A equipa está agora a explorar métodos de aprendizagem simples inspirados na biologia que podem levar a uma nova geração de estruturas de aprendizagem profunda, tornando potencialmente os sistemas de IA mais rápidos, mais eficientes e menos dependentes de conjuntos de dados massivos.
Share this content:



Publicar comentário