Por que a IA não pode resolver problemas desconhecidos

Por

 Ben Dickson

29 de março de 2021

Quando teremos inteligência geral artificial, o tipo de IA que pode imitar a mente humana em todos os aspectos? 

Os especialistas estão divididos sobre o assunto e as respostas variam entre algumas décadas e nunca.

Mas o que todos concordam é que os sistemas de IA atuais estão muito longe da inteligência humana!

Os humanos podem explorar o mundo, descobrir problemas não resolvidos e pensar sobre suas soluções, enquanto isso, a caixa de ferramentas de IA continua a crescer com algoritmos que podem realizar tarefas específicas, mas não podem generalizar seus recursos além de seus domínios estreitos. 

Temos programas que podem vencer campeões mundiais no StarCraft, mas não podem jogar um jogo ligeiramente diferente no nível amador. 

Temos redes neurais artificiais que podem encontrar sinais de câncer de mama em mamografias, mas não podem dizer a diferença entre um gato e um cachorro. 

E temos modelos complexos de linguagem que pode girar milhares de artigos aparentemente coerentes por hora, mas, começam a quebrar quando você faz perguntas lógicas simples sobre o mundo.

Resumindo, cada uma de nossas técnicas de IA consegue replicar alguns aspectos do que sabemos sobre a inteligência humana, mas, juntar tudo e preencher as lacunas continua a ser um grande desafio. 

Em seu livro Algorithms Are Not Enough, o cientista de dados Herbert Roitblat fornece uma revisão aprofundada dos diferentes ramos da IA ​​e descreve por que cada um deles fica aquém do sonho de criar inteligência geral.

A deficiência comum em todos os algoritmos de IA é a necessidade de representações predefinidas, discute Roitblat, uma vez que descobrimos um problema e podemos representá-lo de uma forma computável, podemos criar algoritmos de IA que podem resolvê-lo, muitas vezes com mais eficiência do que nós. No entanto, são os problemas não descobertos e irrepresentáveis ​​que continuam a nos escapar!

Representações em IA simbólica

“Algorithms Are Not Enough” por Herbert Roitblat

 

Ao longo da história da inteligência artificial, os cientistas inventaram regularmente novas maneiras de alavancar os avanços dos computadores para resolver problemas de maneiras engenhosas, as primeiras décadas da IA ​​se concentraram em sistemas simbólicos.

Este ramo da IA ​​assume que o pensamento humano é baseado na manipulação de símbolos, e qualquer sistema que possa computar símbolos é inteligente. A IA simbólica exige que os desenvolvedores humanos especifiquem meticulosamente as regras, fatos e estruturas que definem o comportamento de um programa de computador. 

Os sistemas simbólicos podem realizar feitos notáveis, como memorizar informações, computar fórmulas matemáticas complexas em velocidades ultrarrápidas e emular a tomada de decisões de especialistas. 

Linguagens de programação populares e a maioria dos aplicativos que usamos todos os dias têm suas raízes no trabalho que foi feito na IA simbólica.

Mas, a IA simbólica só pode resolver problemas para os quais podemos fornecer soluções bem formadas e passo a passo, o problema é que a maioria das tarefas que humanos e animais executam não pode ser representada em regras bem definidas.

“As tarefas intelectuais, como jogar xadrez, análise de estrutura química e cálculo são relativamente fáceis de realizar com um computador. 

Muito mais difíceis são os tipos de atividades que até mesmo um ser humano de um ano de idade ou um rato poderia fazer ”, escreve Roitblat em Algorithms Are Not Enough.

Isso é chamado de “ paradoxo de Moravec ” , em homenagem ao cientista Hans Moravec, que afirmou que, ao contrário dos humanos, os computadores podem realizar tarefas de raciocínio de alto nível com muito pouco esforço, mas lutam com habilidades simples que humanos e animais adquirem naturalmente.

“Os cérebros humanos desenvolveram mecanismos ao longo de milhões de anos que nos permitem realizar funções sensório-motoras básicas, pegamos bolas, reconhecemos rostos, julgamos a distância, tudo aparentemente sem esforço ”, escreve Roitblat. “Por outro lado, as atividades intelectuais são um desenvolvimento muito recente. 

Podemos realizar essas tarefas com muito esforço e muitas vezes com muito treinamento, mas devemos suspeitar se pensarmos que essas capacidades são o que torna a inteligência, ao invés de que a inteligência torna essas capacidades possíveis. ”

Portanto, apesar de suas notáveis ​​capacidades de raciocínio, a IA simbólica está estritamente ligada a representações fornecidas por humanos!

Representações em aprendizado de máquina

O aprendizado de máquina oferece uma abordagem diferente para IA, em vez de escrever regras explícitas, os engenheiros “treinam” modelos de aprendizado de máquina por meio de exemplos. “Os sistemas [de aprendizado de máquina] podiam não apenas fazer o que foram programados especificamente para fazer, mas também estender seus recursos para eventos nunca vistos anteriormente, pelo menos aqueles dentro de um determinado intervalo”, escreve Roitblat em Algorithms Are Not Enough.

A forma mais popular de aprendizado de máquina é o aprendizado supervisionado, no qual um modelo é treinado em um conjunto de dados de entrada (por exemplo, umidade e temperatura) e resultados esperados (por exemplo, probabilidade de chuva). O modelo de aprendizado de máquina usa essas informações para ajustar um conjunto de parâmetros que mapeiam as entradas para as saídas. Quando apresentado com uma entrada nunca vista anteriormente, um modelo de aprendizado de máquina bem treinado pode prever o resultado com precisão notável. Não há necessidade de regras explícitas do tipo se-então.

Mas o aprendizado de máquina supervisionado ainda se baseia em representações fornecidas pela inteligência humana, embora seja mais flexível do que a IA simbólica. 

Veja como Roitblat descreve o aprendizado supervisionado: “[M] O aprendizado envolve uma representação do problema que deve ser resolvido como três conjuntos de números. Um conjunto de números representa as entradas que o sistema recebe, um conjunto de números representa as saídas que o sistema produz e o terceiro conjunto de números representa o modelo de aprendizado de máquina ”.

Portanto, embora o aprendizado de máquina supervisionado não esteja estritamente vinculado a regras como a IA simbólica, ele ainda requer representações estritas criadas pela inteligência humana! 

Os operadores humanos devem definir um problema específico, selecionar um conjunto de dados de treinamento e rotular os resultados antes de criar um modelo de aprendizado de máquina. Somente quando o problema foi estritamente representado em sua própria maneira, o modelo pode começar a ajustar seus parâmetros.

“A representação é escolhida pelo projetista do sistema”, escreve Roitblat. “De muitas maneiras, a representação é a parte mais importante do projeto de um sistema de aprendizado de máquina. ”

Um ramo do aprendizado de máquina que cresceu em popularidade na última década é o aprendizado profundo, que muitas vezes é comparado ao cérebro humano, no centro do aprendizado profundo está a rede neural profunda, que empilha camadas e mais camadas de unidades computacionais simples para criar modelos de aprendizado de máquina que podem executar tarefas muito complicadas, como classificar imagens ou transcrever áudio.

 

Modelos de aprendizado profundo podem realizar tarefas complicadas, como classificação de imagens (fonte: http://www.deeplearningbook.org)

Mas, novamente, o aprendizado profundo depende muito da arquitetura e da representação, a maioria dos modelos de aprendizado profundo precisa de dados rotulados e não existe uma arquitetura de rede neural universal que possa resolver todos os problemas possíveis. 

Um engenheiro de aprendizado de máquina deve primeiro definir o problema que deseja resolver, selecionar um grande conjunto de dados de treinamento e, em seguida, descobrir a arquitetura de aprendizado profundo que pode resolver esse problema. 

Durante o treinamento, o modelo de aprendizado profundo ajustará milhões de parâmetros para mapear entradas em saídas. 

Mas ainda precisa de engenheiros de aprendizado de máquina para decidir o número e tipo de camadas, taxa de aprendizado, função de otimização, função de perda e outros aspectos não aprendidos da rede neural.

“Como grande parte da inteligência de máquina, a verdadeira genialidade [do aprendizado profundo] vem de como o sistema é projetado, não de qualquer inteligência autônoma própria. Representações inteligentes, incluindo arquitetura inteligente, tornam a inteligência da máquina inteligente ”, escreve Roitblat. “Redes de aprendizagem profunda costumam ser descritas como aprendendo suas próprias representações, mas isso é incorreto, a estrutura da rede determina quais representações ela pode derivar de suas entradas, como ele representa as entradas e como representa o processo de solução de problemas são tão determinados para uma rede de aprendizado profundo quanto para qualquer outro sistema de aprendizado de máquina. ”

Outros ramos do aprendizado de máquina seguem a mesma regra, a aprendizagem não supervisionada, por exemplo, não requer exemplos marcados. Mas ainda requer um objetivo bem definido, como detecção de anomalias em segurança cibernéticasegmentação de clientes em marketing, redução de dimensionalidade ou incorporação de representações.

O aprendizado por reforço, outro ramo popular do aprendizado de máquina, é muito semelhante a alguns aspectos da inteligência humana e animal, o agente de IA não depende de exemplos rotulados para treinamento. Em vez disso, é dado a um ambiente (por exemplo, um tabuleiro de xadrez ou go) um conjunto de ações que ele pode realizar (por exemplo, mover peças, colocar pedras). A cada etapa, o agente realiza uma ação e recebe feedback de seu ambiente na forma de recompensas e penalidades. Por meio de tentativa e erro, o agente de aprendizagem por reforço encontra sequências de ações que geram mais recompensas.

O cientista da computação Richard Sutton descreve o aprendizado por reforço como ” a primeira teoria computacional da inteligência “. Nos últimos anos, tornou-se muito popular para resolver problemas complicados, como dominar jogos de computador e de tabuleiro e desenvolver braços e mãos robóticos versáteis.

 

O aprendizado por reforço pode resolver problemas complicados, como jogos de tabuleiro e videogames e manipulações robóticas, mas os ambientes de aprendizagem por reforço são tipicamente muito complexos e o número de ações possíveis que um agente pode realizar é muito grande. Portanto, os agentes de aprendizagem por reforço precisam de muita ajuda da inteligência humana para projetar as recompensas certas, simplificar o problema e escolher a arquitetura certa. 

Por exemplo, o OpenAI Five, o sistema de reforço de aprendizagem que dominou o videogame online. DotA 2, contou com seus designers para simplificar as regras do jogo, como reduzir o número de personagens jogáveis.

“É impossível verificar, em qualquer coisa que não seja sistemas triviais, todas as combinações possíveis de todas as ações possíveis que podem levar à recompensa”, escreve Roitblat. “Assim como em outras situações de aprendizado de máquina, as heurísticas são necessárias para simplificar o problema em algo mais tratável, mesmo que não seja possível garantir a produção da melhor resposta possível. ”

Veja como Roitblat resume as deficiências dos sistemas de IA atuais em Algoritmos não são suficientes: “As abordagens atuais de inteligência artificial funcionam porque seus projetistas descobriram como estruturar e simplificar os problemas para que os computadores e processos existentes possam resolvê-los. Para ter uma inteligência verdadeiramente geral, os computadores precisarão da capacidade de definir e estruturar seus próprios problemas. ”

A pesquisa de IA está indo na direção certa?

“Cada classificador (na verdade, cada sistema de aprendizado de máquina) pode ser descrito em termos de uma representação, um método para medir seu sucesso e um método de atualização”, disse Roitblat à TechTalks por e-mail. “Aprender é encontrar um caminho (uma sequência de atualizações) através de um espaço de valores de parâmetros. No momento, porém, não temos nenhum método para gerar essas representações, metas e otimizações. ”

Existem vários esforços para enfrentar os desafios dos sistemas de IA atuais, uma ideia popular é continuar a expandir o aprendizado profundo. O raciocínio geral é que redes neurais maiores acabarão decifrando o código da inteligência geral. Afinal, o cérebro humano tem mais de 100 trilhões de sinapses. A maior rede neural até hoje, desenvolvida por pesquisadores de IA do Google, tem um trilhão de parâmetros. E a evidência mostra que adicionar mais camadas e parâmetros às redes neurais resulta em melhorias incrementais, especialmente em modelos de linguagem como o GPT-3.

Mas as grandes redes neurais não tratam dos problemas fundamentais da inteligência geral!

“Esses modelos de linguagem são conquistas significativas, mas não são inteligência geral”, diz Roitblat. “Essencialmente, eles modelam a sequência de palavras em um idioma. Eles são plagiadores com uma camada de abstração. Dê a ele um prompt e ele criará um texto que tem as propriedades estatísticas das páginas que leu, mas nenhuma relação com nada além do idioma. Ele resolve um problema específico, como todos os aplicativos de inteligência artificial atuais. É exatamente o que foi anunciado – um modelo de linguagem. Isso não é nada, mas não é inteligência geral. ”

Outras direções de pesquisa tentam adicionar melhorias estruturais às estruturas de IA atuais.

Por exemplo, a inteligência artificial híbrida reúne IA simbólica e redes neurais para combinar o poder de raciocínio das primeiras e as capacidades de reconhecimento de padrões das últimas. Já existem várias implementações de IA híbrida, também chamadas de ” sistemas neuro-simbólicos “, que mostram que os sistemas híbridos requerem menos dados de treinamento e são mais estáveis ​​em tarefas de raciocínio do que as abordagens de rede neural pura.

 

Herbert Roitblat, cientista de dados e autor de “Algorithms Are Not Enough” (Crédito: Josiah Grandfield)

O aprendizado profundo do Sistema 2, outra direção de pesquisa proposta pelo pioneiro do aprendizado profundo Yoshua Bengio, tenta levar as redes neurais além do aprendizado estatístico. O aprendizado profundo do System 2, visa permitir que as redes neurais aprendam “representações de alto nível” sem a necessidade de incorporação explícita de inteligência simbólica.

Outro esforço de pesquisa é o aprendizado auto-supervisionado, proposto por Yann LeCun, outro pioneiro do aprendizado profundo e o inventor das redes neurais convolucionais. A aprendizagem auto-supervisionada visa aprender tarefas sem a necessidade de dados rotulados e explorando o mundo como uma criança faria.

“Eu acho que tudo isso contribui para solucionadores de problemas mais poderosos (para problemas de caminho), mas nenhum deles aborda a questão de como essas soluções são estruturadas ou geradas”, diz Roitblat. “Todos eles ainda envolvem a navegação dentro de um espaço pré-estruturado. Nenhum deles aborda a questão de onde vem esse espaço. Acho que essas são ideias realmente importantes, só que não atendem às necessidades específicas de passar da inteligência restrita para a geral.

Em Algorithms Are Not Enough, Roitblat fornece ideias sobre o que procurar para aprimorar os sistemas de IA que podem buscar e resolver ativamente problemas para os quais não foram projetados. Ainda temos muito que aprender conosco e como aplicamos nossa inteligência no mundo.

“Pessoas inteligentes podem reconhecer a existência de um problema, definir sua natureza e representá-lo”, escreve Roitblat. “Eles podem reconhecer onde falta conhecimento e trabalhar para obtê-lo. Embora pessoas inteligentes se beneficiem de instruções estruturadas, elas também são capazes de buscar suas próprias fontes de informação. ”

Mas observar um comportamento inteligente é mais fácil do que criá-lo e, como Roitblat me disse em nossa correspondência, “Os humanos nem sempre resolvem seus problemas da maneira que dizem / pensam que resolvem.”

Mas à medida que continuamos a explorar a inteligência artificial e humana, continuaremos avançando em direção à AGI, um passo de cada vez!

“A inteligência artificial é um trabalho em andamento, algumas tarefas avançaram mais do que outras, alguns têm um longo caminho a percorrer, as falhas da inteligência artificial tendem a ser falhas de seu criador, e não propriedades inerentes à tomada de decisão computacional. Eu esperaria que eles melhorassem com o tempo ”, disse Roitblat.

Para ler o artigo original, copie e cole em seu navegador o link abaixo:

Why AI can’t solve unknown problems

 

Compartilhe em suas Redes Sociais