Aprendizagem de Máquina versus Aprendizagem Humana – Parte 2

Por que ML é diferente da aprendizagem humana

The Curious Learner Blocked Desbloquear Seguir Seguindo 5 de janeiro

No post anterior , expliquei brevemente os três principais tipos de aprendizado de máquina e os comparei com os equivalentes da teoria da aprendizagem humana. Usando a discussão de Dolan & Dayan (2013) sobre objetivos e hábitos no cérebro, este post discutirá a diferença entre aprendizagem baseada em modelo e aprendizado sem modelo , antes de mostrar como isso ajuda a diferenciar aprendizado humano e de máquina.

Aprendizagem baseada em modelos versus model-free

O aprendizado baseado em modelos é uma abordagem de cima para baixo, na qual o aluno começa com um modelo preconcebido do ambiente, e o aprendizado é baseado no planejamento, previsões e ações que são feitas de acordo com as probabilidades e recompensas conhecidas desse modelo. O aprendizado sem modelo, por outro lado, não começa com nenhum modelo do ambiente, mas as recompensas de cada ação são aprendidas e armazenadas de forma ascendente, e as ações futuras são decididas com base no que foi aprendido. Dolan & Dayan (2013) postulam que o aprendizado em humanos é baseado em modelos quando o reforço é usado de uma forma direcionada por objetivos, enquanto uma abordagem livre de modelo resulta na formação de hábitos [1].

Abordagem baseada em modelo versus abordagem sem modelo para navegar em casa. (Imagem de Dayan e Niv (2008) via Yael Niv ) [2]

Embora tanto os mecanismos sem modelo quanto os baseados em modelos possam ser encontrados na aprendizagem humana, os mecanismos geralmente observados são baseados em modelos. Conforme descrito nas teorias da aprendizagem humana, tanto o condicionamento clássico quanto o operante envolvem recompensas por um certo comportamento a ser reforçado. Essas recompensas são o que Dolan e Dayan (2013) chamam de metas, e os comportamentos são as ações direcionadas por objetivos. As pessoas normalmente aprendem desenhando as conexões entre seus comportamentos e atingindo uma determinada meta, e, ao fazê-lo, estão construindo um modelo causal que pode ser usado para planejar ações futuras a serem tomadas.

a profundidade da camada de saída.

Hyperparameters da camada Conv – Profundidade, Stride, Padding.

O número de filtros usados é chamado de profundidade da camada Conv. Ele determina a profundidade do volume de saída.

Trending AI Articles:

1. Minha solução para alcançar o top 1% em um novo Concurso de PNL em Ciência de Dados

2. Aplicação do Aprendizado Profundo no Desenvolvimento Web Front-end (HTML + CSS)

3. Investigando Perda de Dados e Focais para o Kaggle 2018 Data Science Bowl

4. Repro papel: “Redes Neurais Auto-Normalizantes”

Isto é evidente também no aprendizado social , que é de fato uma extensão do condicionamento operante (Bandura & Walters, 1977) [3]. Os seres humanos vivem em ambientes sociais, portanto, além da experiência pessoal, os modelos causais também podem ser construídos observando-se as consequências do comportamento dos outros, o que também é conhecido como reforço vicário . Determinar a causalidade no ambiente requer que os seres humanos façam inferências, uma habilidade que ainda não é possível no aprendizado de máquina.

Aprendizagem vicária dos pais. (Imagem por channelate.com )

Assim como o aprendizado humano, existem abordagens baseadas em modelos e livres de modelos no aprendizado de máquina. A aprendizagem supervisionada seria considerada uma abordagem de aprendizagem baseada em modelos, pois ela depende de um conjunto de dados de treinamento pré-rotulado para determinar suas previsões. O aprendizado não supervisionado, como redes neurais artificiais, concentra-se na busca de padrões no conjunto de dados que não constroem um modelo, portanto, ele é isento de modelo. Aprendizagem por reforço tem métodos baseados em modelos e livres de modelo, mas não está claro quais são os mais dominantes (Kaelbling et al., 1996) [4].

O aprendizado por reforço baseado em modelo é semelhante ao condicionamento operante baseado em modelo mencionado anteriormente, em que o programa de computador tem um objetivo final e aprende a alcançar esse objetivo final por meio dos resultados de suas ações. Pelo contrário, o aprendizado de reforço sem modelo não tem um objetivo final, mas os resultados das ações ainda contêm recompensas que o programa usa para aprender de uma forma de tentativa e erro. Um exemplo popular de aprendizado de reforço sem modelo é o Q-learning , que foi bem sucedido em aprender como completar os videogames Atari como Pac-Man, até os níveis de especialistas (Watkins & Dayan, 1992) [5].

Atari video games.

Por que o aprendizado de máquina é diferente do aprendizado humano?

O aprendizado de máquina baseado em modelo e sem modelo tem diferentes custos e benefícios. Embora os algoritmos baseados em modelo forneçam um esboço abrangente do ambiente de tarefas, eles exigem uma grande quantidade de dados para que o modelo seja construído, tornando-os estatisticamente bem suportados, mas ineficientes em termos computacionais. Algoritmos livres de modelo, por outro lado, não exigem muitos dados, pois não há nenhuma tentativa de entender o ambiente, permitindo que eles sejam computacionalmente eficientes, mas menos suportados estatisticamente.

É aí que reside a principal diferença com a aprendizagem humana . Como explicado, o aprendizado humano pode ser baseado em modelos, mas é freqüentemente computacionalmente eficiente. Os humanos usam modelos mentais que geralmente requerem poucos exemplos, mas são capazes de fazer novas previsões através da extrapolação. Isso ocorre porque os seres humanos são capazes de extrair inferências de conceitos subjacentes e generalizá-los para situações novas. O aprendizado de máquina é incapaz de fazer isso porque os programas só interpretam dados e não conceitos.

O tipo de modelos mentais que os humanos usam é às vezes conhecido como heurística. As heurísticas foram comparadas a modelos de aprendizado de máquina para mostrar que, apesar de usarem regras simples e poucos exemplos de treinamento, eles não apenas são capazes de executar quase tão bem quanto os modelos de aprendizado de máquina, mas também são mais generalizáveis para situações novas (Czerlinski et al., 1999). Martignon et al., 2008) [6] [7]. Isso se deve a um fenômeno no aprendizado de máquina baseado em modelo conhecido como overfitting.

Diferentes maneiras de ajustar uma curva com os mesmos dados. (Imagem por xkcd.com )

O overfitting ocorre quando os dados de treinamento usados para construir um modelo explicam os dados muito bem, mas não conseguem fazer previsões úteis para novos dados (Pitt & Myung, 2002) [8]. Como um modelo mais simples, as heurísticas supostamente não sofrem de tal problema, pois a variância que elas permitem geralmente é mais ampla, especialmente quando a amostra de treinamento é pequena. Descobertas recentes de Parpart et al. (2017) revelam que a heurística e a regressão linear são possivelmente extremas opostos da inferência bayesiana , sugerindo que os modelos construídos pela aprendizagem humana resultam em heurísticas flexíveis, enquanto os modelos que surgem da aprendizagem de máquina são mais rígidos e complexos [9].

Além disso, faltam aprendizado de máquina em vários aspectos para simular a aprendizagem humana (Lake et al., 2016) [10]. Para começar, as pessoas nascem com um pacote de física intuitiva e psicologia intuitiva . Essas primeiras intuições já agem como um modelo pré-existente para os bebês descobrirem como as interações físicas e sociais funcionam em seus ambientes e podem ser construídas através de reforços e condicionamentos. A este respeito, um algoritmo de aprendizado de máquina precisa incorporar alguma forma de software de inicialização que lhe dê a mesma vantagem. Mas mesmo assim, atualmente ainda é difícil para o aprendizado de máquinas entender as interações sociais, enquanto os bebês são capazes de distinguir amigos de inimigos mesmo em uma idade muito jovem (Hamlin, 2013) [11].

Como mencionado algumas vezes, o aprendizado de máquina também é incapaz de fazer inferências e entender conceitos subjacentes. Essas são habilidades importantes necessárias para construir um modelo causal , mas os modelos construídos pelo aprendizado de máquina são, na maioria das vezes, correlacionais. E, finalmente, o que é único no aprendizado humano é a capacidade de aprender a aprender e melhorar o aprendizado. Enquanto o aprendizado de máquina é capaz de aprender com suas ações e recompensas, o mesmo algoritmo é incapaz de mudar sua estratégia de aprendizado, ao contrário de um humano. Se o aprendizado de máquina se tornasse mais humano, certamente precisaria ser capaz de alcançar os pontos acima mencionados.

* * * * * * * * * *

O aprendizado de máquina tem sido freqüentemente comparado ao aprendizado humano, embora os dois não sejam exatamente os mesmos. Aprender em humanos foi moldado por processos evolutivos para se tornar o que é hoje. Embora muitas teorias tenham tentado explicar os mecanismos da aprendizagem humana, a natureza dinâmica disso provavelmente significa que diferentes estratégias podem ser usadas simultaneamente ou separadamente, dependendo da situação. Isso dificulta capturar de forma abrangente a totalidade do aprendizado humano, muito menos compará-lo ao aprendizado de máquina. Afinal, o aprendizado de máquina foi programado por humanos, o que pode não ser tão eficiente quanto o design da natureza.

No entanto, ainda se pode dizer que a idéia básica de aprendizado de máquina foi inspirada pela aprendizagem humana, especialmente através dos vários exemplos de aprendizado por reforço. Talvez uma razão importante para projetar um aprendizado de máquina mais semelhante ao humano seja para uma melhor compreensão da aprendizagem humana a ser desenvolvida através de modelos computacionais. Mas é possível até mesmo que o aprendizado de máquina imite a aprendizagem humana? Embora a resposta possa não ser clara, provavelmente não importa tanto quando o aprendizado de máquina é capaz de superar a aprendizagem humana em todos os aspectos imagináveis da resolução de problemas e da tomada de decisões.

Se você quiser saber mais sobre as semelhanças entre aprendizado de máquina e aprendizado humano, confira a primeira parte desta série:

Aprendizagem de Máquina vs Aprendizagem Humana Parte 1
Tipos de ML e seus Equivalentes da Teoria da Aprendizagem Humana medium.com

Se você achou este artigo interessante, você também pode gostar deste:

Fuzzy Buzzy: Destruindo a “lógica fuzzy” dos chavões na ciência dos dados
Com a crescente popularidade da Data Science, muitos chavões foram vagamente jogados ao redor sem uma boa…

Referências:

  1. Dolan, RJ e Dayan, P. (2013). Objetivos e hábitos no cérebro. Neuron , 80 (2), 312-325.
  2. Dayan, P., & Niv, Y. (2008). Aprendizado de reforço: o bom, o ruim e o feio. Opinião atual em neurobiologia , 18 (2), 185–196.
  3. Bandura, A. e Walters, RH (1977). Teoria da aprendizagem social.
  4. Kaelbling, LP, Littman, ML e Moore, AW (1996). Aprendizado por reforço: uma pesquisa. Jornal de pesquisa de inteligência artificial , 4 , 237-285.
  5. Watkins, CJ e Dayan, P. (1992). Q-learning. Machine learning , 8 (3-4), 279-292.
  6. Czerlinski, J., Gigerenzer, G., & Goldstein, DG (1999). Quão boas são as heurísticas simples? Em heurísticas simples que nos tornam inteligentes (pp. 97–118). Imprensa da Universidade de Oxford.
  7. Martignon, L., Katsikopoulos, KV e Woike, JK (2008). Categorização com recursos limitados: uma família de heurísticas simples. Journal of Mathematical Psychology , 52 (6), 352-361.
  8. Pitt, MA e Myung, IJ (2002). Quando um bom ajuste pode ser ruim. Tendências em ciências cognitivas , 6 (10), 421-425.
  9. Parpart, P., Jones, M., & Love, BC (2018). Heurística como inferência bayesiana sob priores extremos. Psicologia cognitiva , 102 , 127-144.
  10. Lago, BM, Ullman, TD, Tenenbaum, JB, & Gershman, SJ (2016). Construindo máquinas que aprendem e pensam como pessoas. arXiv preprint arXiv: 1604.00289 .
  11. Hamlin, JK (2013). O julgamento moral e a ação em bebês e crianças pré-verbais evidenciam um núcleo moral inato. Direções atuais em psicologia , 22 (3), 186-193.