4 de março de 2019

Computação neuromórfica e o cérebro que não morreria

Engenheiros químicos da Universidade da Califórnia em Los Angeles (UCLA) vêm demonstrando o que afirmam ser evidências científicas de que os cachos de nanofios de crescimento sintético exibem comportamentos semelhantes aos da memória em um cérebro vivo. Se você acredita que a reivindicação deles depende do que você acha que a memória realmente é.

Inspirada por uma teoria nos organismos da memória e da lembrança no cérebro, a rede neural é uma simulação digital de como as sinapses podem reter informações, depois de treinadas para reconhecer padrões. Por exemplo, as redes neurais permitem que um computador, ou talvez um serviço baseado em nuvem, reconheça os caracteres do texto impresso sem a necessidade de programação que especifique explicitamente o texto ou como ele pode identificar uma determinada face em uma multidão após ter visto várias fotografias do mesmo rosto.

Como um problema de rede neural se torna linearmente mais amplo - por exemplo, distinguindo uma forma de texto escrito de outra -, os dados necessários para treiná-la aumentam exponencialmente. Há um argumento válido de que algumas das tarefas previstas para as redes neurais, como detectar quando alguém está ficando deprimido ou agitado, podem ser impossíveis, mesmo com as tecnologias atuais de armazenamento e memória. Assim, as revelações dos pesquisadores de que estruturas químicas compostas de conjuntos completamente aleatórios de fios de escala nanométrica podem exibir as características elétricas da memória em um cérebro, talvez não devam continuar a ser descartadas por muito mais tempo.

"Eu quero criar um cérebro sintético", escreveu o Dr. James K. Gimzewski em outubro de 2012 [ PDF ]. "Eu quero criar uma máquina que pense, uma máquina que possua inteligência física ... Tal sistema não existe e promete causar uma revolução que poderíamos chamar de revolução pós-humana."

É o material de tanta ficção científica que, ultimamente, os autores de ficção científica se afastaram do tema, por medo de soar como uma recauchutagem - ou uma recauchutagem - de Isaac Asimov. O mecanismo previsto pelo Dr. Gimzewski e seus colegas do California NanoSystems Institute da UCLA é, curiosamente, não um processador digital e não, no contexto da eletrônica moderna, um semicondutor. Não é, pelo menos por enquanto, sobre programação.

A questão central da pesquisa de sua equipe é: se o processo que constitui a memória natural é, pelo menos em nível atômico, essencialmente mecânico, então, em vez de construir uma simulação digital desse mecanismo, por que não explorar a construção de uma máquina real? o mesmo nível atômico que executa as mesmas funções da mesma maneira? Dito de outra forma, se o cérebro é uma máquina atômica, então por que uma máquina atômica não pode ser um cérebro?
Anteriormente, no ZDNet, foi apresentado o conceito de computação neuromórfica e comparamos com o domínio da simulação da rede neural digital. Em simulações convencionais, a força relativa de uma "sinapse" em comparação com outras sinapses é representada por um valor na memória - ou, para ser mais preciso sobre isso, na RAM. Um padrão "aprendido" pode pesar a sinapse para que, quando uma imagem se aproximar de uma que o sistema tenha "visto" antes, a sinapse ponderada seja precedente, e "incendeie" em um evento análogo ao impulso elétrico de uma sinapse em o cérebro.

Qualquer arquitetura neuromórfica é um esforço para construir um sistema que realmente funciona dessa maneira, em vez de simulá-lo digitalmente. O que falta aos computadores convencionais baseados em semicondutores em relação à simulação de atividade neural é, por falta de uma palavra mais apropriada, escala. Um projeto de pesquisa de 2013 que combinava o Centro de Pesquisa Jülich da Alemanha e o laboratório RIKEN do Japão, envolvendo o supercomputador K da RIKEN - o mais rápido na época - simulou com sucesso a atividade neural  observada em aproximadamente 1% do cérebro humano, em uma sequência que durou cerca de 40 minutos. executar. Foram necessários mais cinco anos de reanalimentação algorítmica antes que a equipe anunciasse uma metodologia que reduzisse a atividade neural de outra forma acessória, acelerando a execução em cerca de cinco vezes.

Nesse ritmo, eles devem ser capazes de simular a atividade neural necessária para um tweet presidencial por volta de 2050.
A epifania do Dr. Gimzewski - inspirada por seu trabalho próximo ao longo de décadas, não só com a Intel, mas com colegas de física e química, incluindo um ganhador do Prêmio Nobel - é que as estruturas produzidas naturalmente através de reações químicas já possuem comportamentos semelhantes ao interruptores (digitais ou físicos) usados ​​na simulação da operação de sinapses, particularmente em como eles conduzem eletricidade. Eles resistem à aplicação da corrente, mas, com o tempo, resistem menos - um fenômeno associado à atividade cerebral quando se percebe que um indivíduo está aprendendo.

A pesquisa da equipe da UCLA está centrada em alavancar fenômenos químicos naturais no nível atômico como interruptores atômicos, e suas evidências revelam que se seus sistemas produzidos quimicamente são tratados como uma memória natural (como os componentes receptivos de um cérebro que retêm informações), então eles se comportarão como uma lembrança natural.

"Se você faz uma analogia de aprendizado de máquina, nós temos uma rede, e temos algumas entradas e algumas saídas. Em tais sistemas, você tem que treinar a rede", explicou Gimzewski em entrevista à ZDNet Scale . "Em um sistema convencional, você tem que treinar a rede em que cada conexão sináptica no sistema tem uma coisa chamada 'peso'. É apenas um número. Quanto maior o peso, mais forte o efeito ".

O ato de treinar a rede - por exemplo, dando-lhe mais amostras da mesma classe de dados, como as gravações da voz de uma pessoa ou imagens da face de uma pessoa - altera os valores das ponderações. Na medida em que esses valores se tornam relativamente altos, os desenvolvedores dizem que o sistema está "aprendendo". Quanto maior a variedade de possíveis entidades aprendíveis no conjunto de treinamento (por exemplo, o rosto de várias pessoas), mais pesos serão necessários para estabelecer a diferenciação. Mesmo hoje em dia, os supercomputadores digitais convencionais acham que a aprendizagem de padrões complexos da natureza é difícil e os resultados são menos que ótimos.

Em um sistema neuromórfico, esses pesos não são digitais. Eles são produtos de interruptores atômicos - dispositivos compostos de íons ou pares de íons cujos atributos quânticos binários podem ser manipulados para um estado ou outro. Eles são como dígitos binários ou bits, mas neste caso, eles não são eletrônicos. Uma troca atômica pode ser "fabricada", pelo menos em um sentido, através da coerção direta de um par de íons covalentes (unidos) para trocar posições um com o outro, usando um microscópio de força dinâmica cuja ponta, como a agulha de um toca-discos atômico. , é afiado para uma largura de um átomo.
Mas os interruptores atômicos de Gimzewski não são tão crescidos . Continuando o trabalho iniciado pelo Prof. Masakazu Aono no Centro Internacional de Materiais Nanoarquitetônicos (MANA) do Japão , sua equipe produz quimicamente redes cujos circuitos são formados por nanofios de sulfeto de prata. Para ser mais específico, eles tratam uma grade de postes de cobre posicionados um micron afastados um do outro, com nitrato de prata. Como resultado, os nanofios crescem a partir desses posts, em direções completamente aleatórias. Uma palavra para descrever a forma dessas estruturas é dendrítica , que - não por coincidência - é usada para descrever a estrutura das sinapses no cérebro.

Depois que esses dendritos se formaram, a sulfurização do produto permite que as junções formadas onde os nanofios tocam se tornem conexões. Gimzewski refere-se a essas conexões como sinapses. No nível atômico, essas sinapses se comportam como as sinapses simuladas em uma rede neural digital, embora sejam tecnicamente não eletrônicas.

Você se lembrará de que, em um circuito eletrônico convencional, as portas lógicas são essencialmente interruptores. Todos os programas de computador são, em seu nível mais baixo, sequências de lógica. Porções dessas sequências são parafraseadas, por assim dizer, para que possamos direcionar o tráfego usando linguagens de alto nível mais confortáveis, como Python, JavaScript e Clojure, sem ter que direcionar cada elétron com um pequeno microscópio de sondagem.

No entanto, se você já estudou um sistema ferroviário, sabe que interruptores simples determinam as rotas que os trens tomam. Se afirmarmos que, como a própria internet, um sistema é definido pelas rotas que forma, não é um grande salto de lógica concluir que um sistema como o cérebro é composto fisicamente por neurônios, axônios e sinapses. compreendem coletivamente suas funções. Esse é o atributo do cérebro que os neurologistas chamam de neuroplasticidade . Aplicado a um dispositivo artificial, como um processador, um atributo análogo seria a capacidade do dispositivo de se construir para cumprir uma nova função. A maneira mais simples de atingir esse atributo seria através de um rearranjo de switches.

Artifício humano

Fingir que físicos e químicos estão chegando agora ao ponto de alavancar processos naturais para fins computacionais ou matemáticos, é fazer uma injustiça para as pessoas que deram origem à computação em primeiro lugar. Entre as intenções de Charles Babbage por seu mecanismo de cálculo estava a de tornar óbvia a noção de que a matemática era meramente uma interpretação humana de um mecanismo divino maior. Como Babbage escreveu em 1838:

Fotografia de Charles Babbage, por volta de 1850 , no domínio público.

Para ilustrar a distinção entre um sistema ao qual a mão restauradora de sua invenção é aplicada, com freqüência ou em intervalos distantes, e que recebeu em sua primeira formação a impressão da vontade de seu autor, prevendo as leis variadas mas necessárias de sua ação durante toda a sua existência, devemos recorrer a alguma máquina, o produto da habilidade humana. Mas, como todas essas máquinas devem ser colocadas em um intervalo imensurável abaixo da mais simples das obras da natureza, ainda assim, da vastidão desses ciclos que até mesmo o artifício humano em alguns casos se desdobra em nossa visão, talvez possamos nos permitir desmaiar. estimativa da magnitude desse menor degrau na cadeia de raciocínio, que nos leva ao Deus da Natureza.

O trabalho da equipe de James Gimzewski demonstrou que um mecanismo que se monta a partir do capricho aleatório de um processo químico pode exibir um fenômeno comumente associado a uma simulação digital, cuja própria intenção é se comportar como a coisa na natureza que esse mecanismo chama, se vagamente a mente: o neocórtex do cérebro. A natureza pode imitar o imitador e, talvez, ao fazê-lo, rir por último.

Mas é aqui que o professor nos faria dar o maior salto da fé e da lógica: um alcance mental das proporções de Babbag. Ao avançar com sua pesquisa, ele procurou modelar o que os neurologistas chamam de neurópilo - a mais densa coleção de sinapses no cérebro, reunindo inúmeras fibras nervosas. Em determinado momento, ele estimou uma densidade de interconexão sintética de um bilhão por centímetro quadrado, que é mais densa que as matrizes de transistores nos semicondutores modernos.

Esse "tecido" neuronal, para emprestar um termo da rede de computadores, é cultivado quimicamente no que Gimzewski chama de processo "de baixo para cima". É então interfaceado com uma grade de eletrodos, que é um dispositivo comum compreendido de 64, ou na ocasião 128, saídas de cobre, fabricadas convencionalmente de cima para baixo. Essa interface permite uma leitura de múltiplos eletrodos, similar a como os neurologistas examinam a atividade cerebral.

"No tipo de circuito que produzimos, o comportamento de um elemento individual - na troca atômica, uma junção individual - não é tão importante para nós. É a atividade de todo o sistema de todo o dispositivo, e como ele é espacialmente e organizada temporariamente, com a qual estamos preocupados ".
Uma fotografia real de microscópio eletrônico de um neuropil formado por um circuito de memória dendrítica.
UCLA CNSI

A rede dendrítica formada por esses switches atômicos automontáveis, afirma Gimzewski, adotou um estilo de aprendizado - um modelo que corresponde de muitas maneiras ao que engenheiros de redes neuronais (usando neurônios simulados) chamam de computação de reservatório (RC).

Não existe necessariamente qualquer correlação linear entre a sequência dos sinais de entrada e os sinais gravados das saídas. Assim, por exemplo, uma onda senoidal perfeita empregada para a entrada não produziria uma onda senoidal em nenhuma das saídas individualmente.

O que acontece, no entanto, afirma o professor, por razões que ainda não são totalmente explicáveis, é que os caminhos dendríticos parecem resolver as coisas por si mesmos. "Quando todos estão combinados, eles começam a conversar um com o outro", disse ele. "De certo modo, todo o circuito ganha vida, em certo sentido, em que cada parte está interagindo com todas as outras partes. E existem caminhos nos quais podemos estabelecer conexões neuromórficas mais fortes."

Em uma rede RC, os pesos são associados na camada de saída, onde os resultados são registrados. "Então, por uma coisa chamada regressão linear, que é a computação convencional, nós reconstruímos a forma de onda."

Ou seja, todas as saídas juntas formam uma matriz na qual a regressão linear pode ser aplicada, para extrair um padrão reconstruído a partir das entradas. Então, se as ondas senoidais fossem introduzidas, o resultado do cálculo seria uma onda senoidal; se a voz de uma pessoa fosse usada como entrada, uma extrapolação audível daquela voz apareceria nas saídas.

Assim, uma rede de fenômenos naturais que são cultivados, não programados, pode ser tratada como uma rede neural e, portanto, em resposta, comporta-se como uma - não uma rede neural comum, note-se você, mas a classe mais sofisticada em uso corrente.
Sua extrapolação não pára por aí. Gimzewski continua a correlacionar o comportamento de sua rede de neuropil com uma psicologia real - uma teoria real da cognição humana. O chamado Modelo Multistore é uma estrutura teórica para a memória humana, proposta pela primeira vez em 1968 pelo Dr. Richard C. Atkinson, Chanceler Emérito da UCSD, e pelo professor de ciências cognitivas da Universidade de Indiana, Dr. Richard M. Shiffrin. Ele divide a memória em três componentes estruturais: retenção sensorial de curto prazo, "memória de trabalho" de relativamente curto prazo e memória permanente de longo prazo. As informações coletadas dos sentidos viajam através das fases de curto prazo em direção ao estado permanente, ou então é permitido que elas se decompiem e sejam esquecidas.

Não foi a forma como a rede dendrítica se lembra de informações que levaram Gimzewski a traçar essa correlação com Atkinson-Shiffrin, mas sim como era humano quando o sistema esquecia.

"É perigoso correlacionar diretamente coisas como: 'Isso é um cérebro!'", Reconheceu o professor em um momento. "Ele está exibindo características elétricas que são muito semelhantes a uma ressonância magnética funcional do cérebro, semelhante às características elétricas das culturas neuronais, e também padrões EEG. Nós chamamos de criticalidade auto-organizada , que é toda uma área da ciência que é aceita, mais ou Algumas pessoas podem discordar, mas é geralmente aceito agora que o cérebro exibe uma característica elétrica similar ao que temos em nosso circuito, o que é bastante singular em termos de sua função. Estamos deixando o sistema auto-montar, e então observando o que ele faz e tentando aprender com ele. "
Na minha família, há uma frase que surge em uma conversa que remonta a cerca de 1973, quando o historiador Jacob Bronowski apareceu no programa Today da NBC para discutir seu livro, The Ascent of Man . Ele estava explicando ao então apresentador Frank McGee por que ele acreditava que civilizações antigas, como os astecas, tinham uma compreensão mais profunda e precisa do espaço e do tempo do que no Renascimento, com base em seus exames de seus calendários. A frase, pronunciada primeiro por McGee e ridicularizada descaradamente por minha mãe durante três décadas, é a seguinte: "O que isso tem a ver com o preço do chá na China?"

Assim, você pode cultivar uma memória em um frasco, conectá-lo a um kit de grade de eletrodos Radio Shack e fazê-lo repetir as coisas depois de você. Isso acabaria com a guerra no Vietnã?

É justo dizer que não estamos falando de um sistema que, uma vez implantado em um smartphone Galaxy S29, alavancaria a neuroplasticidade para se transformar em um Galaxy S30. De um ponto de vista puramente prático, a pesquisa da equipe de Gimzewski aponta o caminho para a substituição de supercomputadores convencionais e digitais em tarefas que exigiriam raciocínio indutivo, com uma forma inteiramente nova de máquina. Seria um sistema de compartilhamento de tempo, provisionado por meio de um serviço em nuvem ou semelhante a uma nuvem, e, pelo menos teoricamente, pode ser muito mais econômico executar e gerenciar.

Mas hoje, e no futuro previsível, é como o estado do meu quarto em 1973: uma experiência científica.

"Se você viu o dispositivo em si, ele é conectado por um monte de fios a máquinas que são basicamente conectadas ao computador, o que faz toda a análise", disse o professor, reprimindo algumas risadinhas. "Não é como se pudéssemos operar essa coisa sem quaisquer transistores ou circuitos integrados - não podemos ... É apenas parte de todo o sistema. Não há apenas o cérebro e nada mais."

No entanto, se o cérebro é como aquele laboratório da UCLA - um monte de fios jogados ao acaso, que através de algum processo imperceptível inventa os processos com os quais dirigimos carros, conversamos, escrevemos artigos longos e criamos novos dispositivos neuromórficos - então Prof. Gimzewski está trazendo todos nós para a mesma porta de realização que Charles Babbage e Jacob Bronowski nos levaram (exceto, é claro, Frank McGee). Se conseguirmos reproduzir, até o último átomo, tudo que compreende o sistema físico humano, e no entanto acabamos com apenas mais um serviço de computação em nuvem, então deve haver algum elemento significativo que estamos perdendo em nossa lista de verificação.

"A memória é o que somos", escreveram Atkinson e Shiffrin perto do 50º aniversário de seu modelo modal de memória "e o que nos define como indivíduos". Se isso é verdade, então podemos querer revisitar o assunto do que realmente somos, uma vez que tenhamos automatizado com sucesso o processo de cultivo em um frasco de vidro.



O "mapa de memória" apresentado nesta edição da Escala ZDNet foi inspirado nos desenhos de Santiago Ramón y Cajal, que descobriu os princípios orientadores para o funcionamento dos neurônios no cérebro. Ele publicou suas descobertas pela primeira vez, acompanhado de desenhos originais de tinta, aproveitando suas habilidades como artista - usando, diria hoje muitos, ambos os lados de seu cérebro. Para isso, Cajal recebeu o Prêmio Nobel em 1906.  O exemplo ao lado está na coleção do Instituto Cajal em Madri, e esta foto 







Nenhum comentário:

Postar um comentário

Videos