Controle mental e a interface cérebro-computador

Alasdair Gilchrist Blocked Unblock Seguir Seguindo 11 de janeiro

Mais uma vez, as interfaces cerebrais do computador atingiram as principais notícias da mídia, depois de terem sido levantadas em abril de 2017 na conferência de desenvolvedores do Facebook 8. Tradicionalmente, a idéia de controle da mente sobre os objetos tem sua origem na ficção científica e no horror. No entanto, a pesquisa em interfaces computador-cérebro em tecnologia ainda é de grande interesse na ciência, pois também pode fornecer métodos muito profundos para melhorar a qualidade de vida de pacientes tetraplégicos, fornecendo-lhes, como um exemplo simples, uma técnica que eles podem usar. independentemente para operar uma interface de mouse para interagir com um computador através do poder do pensamento.

Se tudo isso soa um pouco ficção científica, realmente não é e já existe há algum tempo, embora com a grave desvantagem da cirurgia cerebral intrusiva. Isso se deve aos eletrodos necessários para serem instalados em áreas específicas do cérebro, onde poderiam interceptar sinais elétricos vazando dos neurônios que estavam conduzindo os sinais gerados pelo cérebro. A maneira como isso funcionou foi que os neurônios têm um longo braço ou extensão chamado axônio, como mostrado na figura xxx.

O axônio tem um revestimento de isolamento de mielina, mas curiosamente não cobre completamente o axônio. Em vez disso, há intervalos regulares na mielina chamada nó de Ranvier. O que isto significa é que parte da carga que está sendo conduzida ao longo do axônio vaza através dessas lacunas na mielina e pode ser capturada por eletrodos no exterior do crânio. Infelizmente, com o crânio sendo espesso, a maior parte do sinal é perdida ou distorcida, mas, em alguns casos, pode ser amplificada para controlar um membro prostético, por exemplo.

A solução para esse dilema era usar as Tecnologias de Imagem do Cérebro para examinar o cérebro em busca das áreas que experimentam ativação elétrica quando o paciente pensa em determinada tarefa, como movimentar os dedos. Exames de imagem do cérebro, como PET (Positron Emission Tomography) e MRI (Imagem por Ressonância Magnética) pode destacar as áreas precisas de actividade neural que correspondem à tarefa, que permite o posicionamento preciso de eléctrodos para o cérebro por meio de um procedimento cirúrgico. Colocando estrategicamente os eletrodos nas partes específicas do cérebro dedicadas à tarefa dada, os sinais de comando elétricos podem ser capturados com muito mais confiabilidade. Este procedimento existe desde o final dos anos 60, onde o trabalho com macacos revelou a capacidade de manipular objetos através do controle da mente. Da mesma forma, os avanços nas interfaces cérebro-máquina, como eram conhecidos, permitiram avanços no trabalho com pacientes humanos que lhes permitiram operar membros protéticos por meio de eletrodos implantados no cérebro e conectados a nervos do braço. O primeiro sensor foi implantado no cérebro de um homem paralisado chamado Matthew Nagle em 2006. Desde então, apenas cerca de uma dúzia de pessoas receberam implantes semelhantes.

Recentemente, tem havido muito sucesso em melhorar as interfaces cérebro-computador para controlar próteses, cadeiras de rodas e um mouse de computador simplesmente pelos pensamentos do paciente. No entanto, em fevereiro de 2017, uma equipe de pesquisadores da Universidade de Stanford divulgou um trabalho de pesquisa clínica que demonstrou que uma interface cérebro-computador poderia permitir que pessoas com paralisia digitassem em um aplicativo de computador exibido na tela por meio do controle cerebral direto. Além disso, eles poderiam fazer isso com as maiores velocidades e níveis de precisão relatados até o momento.

O relatório envolveu três participantes do estudo com fraqueza severa nos membros, cada um com um ou dois arranjos de eletrodos em miniatura colocados cirurgicamente em seus cérebros para registrar sinais do córtex motor, que é uma região que controla o movimento muscular. Esses sinais de controle elétrico foram detectados e transmitidos para um computador por meio de um cabo. O computador então analisou e traduziu os sinais de controle usando algoritmos em comandos de apontar e clicar, guiando um cursor para caracteres em um teclado na tela.

Os participantes do experimento aqui podem gravar até oito palavras por minuto usando esse método de apontar e clicar que não tinha a ajuda de algoritmos preditivos de autocompletar e está na velocidade em que a maioria das pessoas pode digitar texto nas telas de seus smartphones.

No entanto, o experimento de Stanford pode muito bem ser uma melhoria significativa em outros métodos de BCI para manipular um cursor – uma interface de mouse ainda era um requisito para operar um teclado. No entanto, em outro experimento, esse tempo realizado pelos participantes da NASA foi capaz de digitar sem qualquer teclado.

O experimento da NASA envolveu um programa de computador que podia ler palavras faladas em silêncio, analisando os sinais nervosos na boca e na garganta do indivíduo. A maneira como fizeram isso foi aplicar pequenos sensores não intrusivos sob o queixo e ao lado do pomo de Adão. Assim, é possível detectar e reconhecer os sinais e padrões nervosos da língua e das cordas vocais que correspondem a palavras específicas.

Esse fenômeno ocorre porque os sinais biológicos surgem mesmo quando estamos lendo ou falando silenciosamente para nós mesmos e o sensor nem exige que haja qualquer movimento labial ou facial real. Tudo o que é necessário é o mais fraco movimento na caixa de voz e na língua, que aparentemente ocorrem quando se lê ou se fala silenciosamente com nós mesmos, e é tudo o que precisa para funcionar.

Para testar esta teoria, os cientistas da NASA treinaram o programa de software para reconhecer apenas seis palavras e 10 números. Sensores foram anexados aos participantes do experimento para capturar os sinais na garganta e na boca quando os sujeitos disseram silenciosamente as palavras para eles mesmos e o software captou os sinais 92% do tempo. Além disso, os pesquisadores tornaram a tarefa mais complexa apresentando as letras do alfabeto em uma matriz com cada coluna e linha representadas por um par único de coordenadas numéricas. Estes foram usados para silenciosamente soletrar "NASA" em um mecanismo de busca na web usando o programa. Além do mais, tudo isso foi feito traduzindo os impulsos elétricos sendo enviados para as cordas vocais do sujeito, com sensores não intrusivos e sem interface adicional ou dispositivo de tradução, como um teclado na tela.

Apesar de este ser um exemplo convincente de digitar o controle do pensamento em um computador, os aspectos práticos podem não ser tão escalonáveis na prática, e a utilidade, de certa forma, limitada àqueles incapazes de falar em voz alta devido a lesão ou doença. Aqueles capazes de falar permitida já podem controlar objetos e digitar muito mais facilmente usando tecnologia URA de última geração, embora possa ter um propósito em ambientes barulhentos onde é difícil se comunicar acusticamente ou inversamente onde privacidade, e não ser ouvido por acaso é um critério essencial.

Para voltar ao Facebook e suas revelações na conferência de desenvolvedores do F8, eles revelaram que tinham uma equipe de cerca de 60 engenheiros trabalhando na construção de uma interface cérebro-computador. O objetivo deste dispositivo será facilitar as postagens e atualizações de um usuário do Facebook, com apenas suas mentes e sem implantes ou sensores intrusivos. A estratégia do Facebook parece ser que sua equipe de pesquisa planeja usar imagens ópticas para fazer a varredura do cérebro do usuário uma centena de vezes por segundo, a fim de detectar os sinais criados quando estão falando silenciosamente em sua cabeça, e os algoritmos irão traduzir os sinais capturados em texto. .

As táticas do Facebook parecem basear-se no usuário usando uma touca ou faixa embutida com algum tipo de sensor ótico. Esses sensores presumivelmente estarão usando algo como a tecnologia que sustenta a espectroscopia de infravermelho próximo, que é usada atualmente para medir a atividade cerebral. No entanto, eletrodos implantados cirurgicamente intrusivos que podem capturar sinais em uma definição muito mais alta do que os sensores não intrusivos têm apenas 40% a 50% de sucesso na resolução correta dos sinais de fala que as pessoas estão pensando. Portanto, é um mistério como o Facebook avançará usando sensores externos não intrusivos em uma capa ou faixa wearable.

Regina Dugan, diretora do prédio 8 da divisão de P & D do Facebook, explicou aos participantes da conferência que o objetivo é permitir que as pessoas digitem 100 palavras por minuto, 5 vezes mais rápido do que digitar em um telefone. Isso é curiosamente o tipo de pesquisa empreendedora que os gigantes da Internet mergulham e, sem surpresa, o objetivo final da BCI é, eventualmente, a interface que permite que as pessoas controlem a realidade aumentada e experiências de realidade virtual com sua mente, em vez de uma tela ou controlador.

O plano, de acordo com o Facebook, é construir dispositivos não implantados que possam ser embarcados em escala presumivelmente em um ponto de preço voltado para o mercado de massa. No entanto, para abordar as questões óbvias em relação à privacidade – e isso seria um ponto positivo, já que o Facebook e os outros gigantes da Internet não têm um histórico forte de respeito aos dados privados de seus usuários – e do inevitável medo, esta pesquisa irá inspirar . Facebook afirma: “Isso não é sobre decodificação de pensamentos aleatórios. Trata-se de decodificar as palavras que você decidiu compartilhar enviando-as para o centro de fala de seu cérebro ”.

Isso pode ser verdade, mas é estranho que não tenha cruzado suas mentes coletivas para talvez vislumbrar o que seus usuários estão pensando quando vêem um anúncio? O que suscita a pergunta é, no entanto, por que alguém permitiria que uma empresa que obtinha quase todo o dinheiro da coleta de dados pessoais de seus usuários, acesso livre a seus pensamentos mais íntimos, é uma loucura total.

Na verdade, o Facebook comparou a forma como você tira muitas fotos, mas compartilha apenas algumas delas. E isso é um pouco insincero porque muitas vezes formamos as palavras em nossas mentes e as dizemos silenciosamente para nós mesmos, mas não as pronunciamos, especialmente quando estamos com raiva ou com luxúria – e isso é uma coisa boa no geral.

Os problemas enfrentados pelas Interfaces Cérebro-Computador são assustadores e não são mais fáceis devido à finalidade assimétrica e à demanda pelo produto. Por um lado, há um uso médico extremamente importante e profundo para o CBI para ajudar aqueles que sofrem de paralisia grave e doenças como a síndrome do encarceramento. Os enormes benefícios, que a tecnologia CBI avançada poderia trazer para os pacientes, são incalculáveis e certamente proporcionarão aos pacientes uma melhor qualidade de vida. Nestes casos, a opção de percorrer a via cirúrgica é quase sempre o método preferido, simplesmente devido à precisão com que os eletrodos podem ser implantados nos pontos específicos do cérebro do sujeito, que têm a maior probabilidade de detectar o cérebro de alta definição. sinais. Infelizmente, em muitos países, os custos da cirurgia podem ser proibitivos e, portanto, apenas disponíveis para os ricos.

Por outro lado, há a pesquisa empreendedora sobre o CBI, como a pesquisa do Facebook, que está se esforçando para desenvolver soluções com um propósito um pouco menos profundo, como controlar a realidade aumentada e virtual, e poder digitar 100 palavras por minuto. No entanto, ainda é uma pesquisa de importância vital, pois nem todos os pacientes que poderiam se beneficiar do CBI terão a oportunidade ou os recursos financeiros para serem submetidos a implantes cirúrgicos. Por isso, é vital que o Facebook e outros pesquisadores empreendedores se esforcem para encontrar tecnologias que possam trazer sensores e técnicas não intrusivas ao mercado de massa. Como este parece ser o único caminho, podemos esperar trazer tecnologias de mudança de vida para todas as pessoas que têm uma profunda necessidade de tecnologia.

Por outro lado, o objetivo da pesquisa da empresa NeuraLink de Elon Musk na Computer Brain Interface é concentrar-se admiravelmente em trazer a tecnologia inicialmente para o benefício dos severamente incapacitados e depois concentrar-se na disponibilidade do mercado de massa. Assim, o anúncio da NeuraLink em 2015 de que seu foco na BCI envolveria implantes cerebrais que, apesar de seu tamanho microscópico, ainda exigiriam um procedimento cirúrgico para instalá-los nas áreas-alvo precisas do cérebro. Isso, é claro, acabará por ser um problema ao tentar mudar a tecnologia para o mercado de consumo, já que é improvável que haja um grande mercado para uma tecnologia que requer cirurgia cerebral. Mas também não é sem seus benefícios como o desenvolvimento de uma solução de trabalho para os deficientes leva a fast-tracking de legislação e normas para a introdução no mercado de consumo.

A NeuraLink afirma estar trabalhando em uma linha do tempo de 3-4 anos para uso médico e até 10 anos para o mercado comercial, mas a maioria dos especialistas acredita que isso seja absurdo, tendo em vista que as visões de Musk para um BCI vão muito além mero controle de movimento de objetos. De fato, as visões de Musk para sua BCI são integrar o cérebro com sistemas e aplicações de IA, bem como para uma forma de telepatia muito parecida com a experiência da NASA onde as palavras não pronunciadas, mas silenciosamente faladas na mente são detectadas e transmitidas a outra em conversas telepáticas.

É claro que é maravilhoso que essas potências empreendedoras estejam entrando nos campos de pesquisa em neurociência em geral e no CBI especificamente, mas não devemos ter nossas expectativas distorcidas por sua riqueza fenomenal e os recursos que eles podem usar para resolver o problema. Afinal de contas, esta não é uma área que teve falta de financiamento na verdade, ao contrário, com até US $ 200 milhões gastos em próteses controladas pelo cérebro nos últimos 15 anos. Além disso, não é um campo curto de estrelas como atualmente, grupos de pesquisa da Universidade de Pittsburgh e Brown University estão trabalhando em implantes cerebrais para fins médicos. A Universidade de Stanford também está envolvida na pesquisa do CBI, assim como a DARPA, a ala de pesquisa do Pentágono. De fato, o programa financiado pelo governo da DARPA REPAIR – "A Reorganização e Plasticidade para Acelerar a Recuperação de Lesões" visa entender como os neurônios funcionam e reorganizam as conexões dentro do cérebro para melhorar nossa modelagem cerebral e nossa capacidade de interagir com ele.

O ponto que tem que ser feito é que só porque os empresários mostraram de repente um interesse, não é como se houvesse uma falta de mentes brilhantes e dinheiro para resolver os enigmas do CBI. De fato, as barreiras à quebra do quebra-cabeça cérebro-computador não devem ser menosprezadas, já que até agora negaram os melhores esforços de todas as equipes de pesquisa do planeta nesse campo especializado.

A barreira inicial à entrada é que simplesmente ignoramos surpreendentemente o funcionamento do cérebro. Os neurocientistas sabem muito sobre o cérebro, mas não nos detalhes que esse nível de pesquisa exige. Felizmente, não precisamos entender como o cérebro funciona para interagir com ele e, por enquanto, podemos adotar uma técnica de caixa-preta, pois lidamos apenas com entradas conhecidas e saídas observadas. Felizmente isso se torna mais fácil, já que nem nesta fase estamos interessados em inserir apenas as saídas elétricas do cérebro em resposta a um chamado à ação, como mover os dedos. Assim, os pesquisadores têm grandes esperanças de que modelos de aprendizado de máquina em evolução, como as redes de neurônios profundos, consigam captar esses sinais do cérebro e descobrir padrões inerentes de atividade. Isso já funciona na prática hoje, no entanto, mover um braço protético ou um cursor de computador é relativamente fácil de treinar um assunto para pensar em fazer. Por exemplo, pedir a um paciente com uma prótese ou um bypass neural para se concentrar no agarrar um objeto – fechando os dedos para segurar – é direto e pode ser realizado devido ao feedback visual imediato, eles podem ver o que funciona e o que não funciona . Pensar nas 6 palavras muito limitadas da NASA e no alfabeto de 2 coordenadas também está ao longo dos mesmos níveis de complexidade, mas pensar em uma linguagem natural está fora da escala da complexidade. Felizmente, os avanços com essas mesmas redes de neurônios profundos multicamadas estão produzindo alguns resultados surpreendentes no processamento de linguagem natural, o que acelerará o processo de aprendizado da BCI e facilitará sua utilidade da simples manipulação de objetos para conversações telepáticas de linguagem natural.

A segunda questão técnica que se apresenta como uma barreira formidável para a leitura dos sinais do cérebro é, na verdade, ter a capacidade de capturar atividades neuronais usando elétrons. Atualmente, a capacidade está ligada a um relacionamento de um eletrodo para cada neurônio. Para escalar para qualquer estado de nível das tecnologias protéticas de braço, implantar matrizes de eletrodos na escala de cem sondas individuais. No entanto, isso não chega nem perto dos números requeridos, pois, para o controle do pensamento, a atividade de pelo menos 100.000 a 1.000.000 de neurônios precisará ser detectada. E esse é um grande problema para os avanços no dimensionamento do eletrodo para os neurônios. O dilema tem sido dolorosamente lento com a "lei de Stevenson", que mede a taxa de progresso nesse campo apontando para a tendência de que o número dobra apenas a cada sete anos. De fato, a DARPA reconhece a magnitude desse obstáculo e iniciou um desafio para fazer os cientistas trabalharem no mesmo projeto de registrar um milhão de neurônios simultaneamente.

Por fim, há alguns obstáculos pungentes no caminho e isso é implantes cirúrgicos. As únicas pessoas passíveis de sofrer uma operação tão invasiva são aquelas que precisam desesperadamente ganhar essa forma simbólica de independência para poderem navegar novamente na web de sua escolha e assistir aos canais de TV que desejam assistir e até mesmo digitar a carta e os e-mails. por conta deles. Para a grande maioria, as recompensas serão mínimas em comparação com os riscos horrendos e a vasta despesa. E não nos esqueçamos de que esses procedimentos estão sendo feitos em um órgão – o cérebro – que cirurgiões, neurocientistas, biólogos e psicólogos lhe dirão francamente que sabem muito pouco a respeito.

Conseqüentemente, todos os pesquisadores empreendedores estão convencidos de que, eventualmente, ele deve ser um método não intrusivo para detectar os sinais cerebrais, mas que nos devolve quase um círculo completo, sem nenhuma maneira de fazer isso com alta definição ou qualquer precisão.

Substituição sensorial

Outro tópico interessante do departamento de pesquisa do Facebook que foi revelado ao mundo na conferência do Facebook 8 em abril de 2017 é uma técnica que permite que uma pessoa ouça acústica através da vibração em sua pele. Isso não é algo novo ou inicialmente quase tão ambicioso quanto o pensamento, já que já existem projetos em andamento para o que é chamado de substituição sensorial. De fato, em 2015, David Eagleman e Scott Novich, da Neosensory, apresentaram na conferência TED2015 um conceito exatamente para isso, um colete de substituição sensorial que foi projetado para permitir que os surdos aprendam a ouvir através de vibrações entregues através de atuadores em um colete ao pele em seu torso.

Em março de 2017, Timandra Harkness, do documentário “SuperSense Me”, da BBC Radio 4, usou o colete como teste por várias semanas enquanto trabalhava normalmente e explorou o potencial do dispositivo com alguns resultados e observações bastante encorajadores. De fato, mesmo depois de apenas algumas semanas, o cérebro de Tamandra parecia começar a reconhecer padrões familiares, particularmente aqueles que eram únicos em si mesmos, como os anúncios das estações de trem. Alguns, no entanto, questionam se isso é um novo sentido ou simplesmente o remapeamento do sentido da audição. A relevância é que o remapeamento não é algo excepcional ou revolucionário, pois o cérebro o faz naturalmente e tem sido replicado muitas vezes em experimentos com som e visão. De fato, a mais antiga ferramenta de substituição sensorial ainda hoje é o bastão branco do cego.

A coisa surpreendente sobre a substituição sensorial é que ela funciona por muitos anos, a percepção comum era que o cérebro adulto era fixo e não tinha mais a plasticidade da infância. No entanto, a pesquisa determinou que o cérebro, contrariando esses equívocos, mantém sua plasticidade ao longo de sua vida útil e está continuamente alterando e estabelecendo novas conexões neurais e reorganizando redes neurais o tempo todo. Portanto, não é de surpreender que ele deva realizar uma tarefa de manutenção de remapear os nervos sensoriais de uma área dedicada a um sensor com falha para as partes do cérebro que controlam um sensor ativo. Foi demonstrado que esse fenômeno ocorre em pessoas cegas, onde áreas do córtex visual são usadas pelos sentidos, como a audição, alimentando as redes de neurônios no córtex visual com informações vindas dos sentidos auditivos, tirando vantagem do fato de que a área primária para a percepção é o sistema nervoso, em vez de uma área específica ou grupo de neurônios.

Esta é a área de substituição sensorial (SS), onde o toque ou a audição, por exemplo, podem transportar informações que de outra forma não estão disponíveis, como de um sentido danificado, como a visão. Dispositivos de substituição sensorial (SSDs) estão disponíveis há muito tempo. A bengala branca para cegos traduz a estrutura ambiental em feedback tátil e a linguagem de sinais traduz estímulos visuais em uma linguagem. Em Braille, a informação “verbal” é transmitida através da estimulação háptica através do toque na ponta dos dedos. Muitos outros SSDs foram desenvolvidos e tornaram-se cada vez mais sofisticados com os avanços da tecnologia e da compreensão em neurociência.

Existem várias tecnologias que auxiliam os cegos usando um método para traduzir sinais ópticos em representações de áudio. Um desses dispositivos usa uma câmera acoplada a um par de óculos de sol para enviar fotos para um smartphone, que pode então traduzir o sinal visual em sons de áudio que ele envia para os fones do usuário. O princípio funciona na substituição sensorial e o usuário do dispositivo vOICe pode aprender com o tempo a associar os padrões de sons a uma imagem em sua mente. As imagens são convertidas em som, varrendo-as da esquerda para a direita, associando elevação com tom e brilho com intensidade. Em teoria, através de treinamento extensivo, isso poderia levar à visão sintética. O que acontece, porém, é que inicialmente os sons são passados e processados no córtex auditivo, mas após cerca de 15 horas de treinamento o córtex visual dos cérebros começa a acender a atividade de registro e por volta dessa época os usuários começam a se tornar mais aptos a entender as paisagens sonoras O vOICe está enviando para seus ouvidos e começa a reconhecer objetos.

Existem muitas outras tecnologias de SSD que ajudam pessoas que perderam um sentido a se adaptarem, transmitindo as informações usando os mecanismos de um senso de trabalho. No entanto, apesar dos grandes avanços, desde o white-stick até o vOice, todo o conceito de SSD parece não ter a captação ou demanda esperada que você poderia esperar dos 39 milhões de pessoas cegas em todo o mundo. As razões para isso parecem ser uma mistura de questões básicas. Em primeiro lugar, parece que o treinamento pode ser um grande problema, já que muitas alegações de que não é um curso de treinamento de 10 a 15 horas, é mais como ter que se tornar especialista em um idioma completamente novo. Em segundo lugar, há a questão de que os SSDs não restauram a visão, pois substituem a visão por feedback sonoro ou tátil. Isso pode parecer óbvio e um pouco estranho, mas se você pensar sobre isso da perspectiva da pessoa cega, a tecnologia SSD não o deixa saber o que o item está diante dele, seja um garfo ou uma colher. Agora, eventualmente, eles poderiam ser capazes de escutar atentamente as paisagens sonoras, mas praticamente ele poderia determinar o que era simplesmente tocando o objeto. Consequentemente, em vez de aprender a usar e confiar nos SSDs, o cego volta a confiar em mecanismos de enfrentamento bem estabelecidos e manter suas rotinas habituais pode ser muito mais eficaz na vida cotidiana. Além disso, a resolução restrita de SSDs de última geração também ajuda pouco na orientação e mobilidade (O & M). Em outras palavras, não ajuda pessoas cegas a irem. Em vez disso, métodos estabelecidos, como o bastão branco e o cão-guia, são muito mais eficazes para a O & M.

Uma tarefa altamente importante consistentemente relatada para ser prejudicada após a restauração da visão na idade adulta é a análise visual; isto é, a capacidade de segregar uma cena visual em objetos distintos e completos. Considere, por exemplo, uma típica mesa de escritório, com uma tela de computador, um teclado e alguns papéis de carta. Ao olhar para a cena, você não percebe uma coleção desordenada de áreas de diferentes matizes, níveis de luminosidade, texturas e contornos, mas vê objetos significativos separados. Embora essa tarefa de análise pareça trivial para o com visão normalmente desenvolvida, ela é muito complexa e exigente, às vezes quase impossível, para uma pessoa com experiência visual limitada, pois exige a interpretação da entrada visual baseada em conhecimento prévio e conceitos visuais que não possuem paralelismo intuitivo. em outras modalidades sensoriais (por exemplo, sombra, transparência). Vale notar que a análise visual é extremamente difícil mesmo para a maioria dos algoritmos de visão computacional, já que eles são baseados em recursos básicos de imagem, como continuidade de contornos de nível cinza e limites e falta de feedback de ordem mais alta, que tem um importante papel na percepção de objetos

Texto original em inglês.