Later Terminator: We're Nowhere Near Artificial Brains
Marc Changizi
http://blogs.discovermagazine.com/crux/2011/11/16/later-terminator-we%E2%80%99re-nowhere-near-artificial-brains/
Logo no título deste seu artigo, Changizi dá sua opinião: não estamos nem perto de cérebros artificiais. Em seguida, somos apresentados a um gráfico (essa linda ilustração aí em cima) de conectividade do projeto SyNAPSE (Systems of Neuromorphic Adaptive Plastic Scalable Electronics), da parceria IBM/DARPA, uma provável base ontológica para uma nova geração de chips experimentais de computador projetados para emular as habilidades cerebrais referentes a percepção, ação e cognição. A formação desse gráfico desde sua base original pode ser vista no vídeo 120 Cognitive Computing: Neuroscience, Supercomputing, Nanotechnology (a partir dos 10' 37''), que traz uma palestra muito interessante de ~56 minutos de D. S. Modha (da IBM) na 48th Design Automation Conference, em 9 de junho de 2011. Aqui: http://www2.dac.com/events/videoarchive.aspx?confid=122&filter=keynote
E para ler um pouco do material referente a isso tudo, veja:
Cognitive Computing
Unite neuroscience, supercomputing, and nanotechnology to discover, demonstrate, and deliver the brain's core algorithms
Dharmendra S. Modha, Rajagopal Ananthanarayanan, Steven K. Esser, Anthony Ndirango, Anthony J. Sherbondy, Raghavendra Singh (todos, now & then, da IBM)
Communications of the ACM Vol. 54 No. 8, Pages 62-71
http://cacm.acm.org/magazines/2011/8/114944-cognitive-computing/fulltext
Bão, Changizi não está clamando no deserto. O grande Henry Markram já criticava o projeto da IBM (e Modha, em particular) em 2009. Veja sua entrevista a Greg Fish em IBM Cat Brain Computer Debunked, aqui:
http://news.discovery.com/tech/cat-brain-computer-hype.html
Greg Fish: O quanto a IBM exagerou com relação à afirmativa de ter simulado uma estrutura que excede a escala de um córtex felino, e por que?
Henry Markram: Eles afirmam ter simulado a interação de mais de um bilhão de neurônios. O que eles chamam de "neurônios" são os pontos mais diminutos que v. puder imaginar, um ponto microscópico. Mais de 98% do volume de um neurônio são ramificações (como uma árvore). Eles apenas cortam todos os ramos e raízes e tomam um ponto do meio do tronco para representar um neurônio inteiro. Na vida real, cada segmento dos ramos de um neurônio contém dúzias de canais de íons que controlam forçosamente o processamento de informações de um neurônio. Eles não mostram nada disso.
Os neurônios contêm dezenas de milhares de proteínas que formam uma rede com dezenas de milhões de interações. Estas interações são incrivelmente complexas, e exigem a resolução de milhões de equações diferenciais. Eles não mostram nada disso.
Os neurônios contêm em torno de 20.000 genes que criam produtos chamados mRNA, que constróem as proteínas. A maneira como os neurônios elaboram as proteínas e as transportam para todos os diferentes locais onde elas são necessárias é um processo ainda mais complicado que também controla o que um neurônio é, suas memórias e como processará informações. Eles não mostram nada disso.
Eles utilizam uma função alfa (rápido para cima, lento para baixo) para simular um evento sináptico. É uma representação completamente imprecisa de uma sinapse. Há pelo menos seis tipos de sinapses que são altamente não-lineares quanto ao tipo de sua transmissão (isto é, que transforma inputs, e não apenas transmite inputs). De fato, v. precisaria de dezenas de milhares de equações diferenciais para simular uma sinapse. As sinapses são máquinas moleculares extremamente complexas que, elas próprias, exigiriam milhares de equações diferenciais para simular apenas uma delas. Eles não fizeram nenhuma simulação dessas.
Existem equações diferenciais complexas que devem ser resolvidas para se simular o fluxo iônico das ramificações, para simular a biofísica dos canais de íons, as interações proteína-proteína, assim como o completo maquinário bioquímico e genético e também a transmissão sináptica entre os neurônios. Centenas de milhares de outras equações diferenciais. Eles não mostram nada disso.
Também temos as células de glia - dez vezes mais delas do que temos neurônios - e o suprimento de sangue, e muitas outras coisas. Estes "pontos" que eles simularam e as sinapses que eles usaram para comunicação são literalmente milhões de vezes mais simples do que um cérebro real de um gato. Daí, eles não fizeram nem mesmo a simulação de um milionésimo da complexidade do cérebro de um gato. Não está nem perto do cérebro de uma formiga.
Aqui no CLM v. já leu sobre Markram em 24 de maio de 2009 (Simulação do Cérebro: o projeto Blue Brain), 20 de dezembro de 2009 (Vídeos de Neurociência), e 27 de outubro de 2010 (Construindo um Neocórtex). Entre Modha e Markram, fico com este, mas nunca devemos menosprezar o drive empresarial da IBM - o próprio Markram, nesse artigo citado, de 24 de maio de 2009, deixa entrever que em questões de descobertas científicas, tudo é uma questão do dinheiro empregado no esforço. Além disso, existe uma importante mudança de tom no discurso de Modha entre o "imerecido" prêmio de 2008 a que se refere Markram na entrevista acima e suas recentes aparições públicas falando sobre o assunto, a saber: a palestra (9 de junho de 2011) e o artigo (agosto de 2011) referidos acima. Veja, por exemplo, esse trecho do artigo:
Historicamente, muitos campos díspares adotaram abordagens radicalmente diferentes na exploração da computação assemelhada à mente, sobre algumas das quais nós tratamos aqui. Por um lado, a inteligência geral artificial forte, ou AI, um ramo da ciência cognitiva, adota uma abordagem em nível de sistema na sintetização de computadores que emulam a mente. Como a mente emerge do maquinário biológico (wetware) do cérebro, a neurociência adota uma abordagem em nível de componentes para entender como ele faz surgir a mente. Prosseguindo de modo top-down à maneira reducionista, a neurociência cognitiva procura integrar a ciência cognitiva teórica com a psicologia experimental e a neurociência em nível de organismo. Em contraste, ao prosseguir de modo bottom-up de maneira construtiva, a neurociência de sistemas procura combinar dados experimentais de múltiplas escalas espaciais e temporais. A diversidade de pensamento implícita nesta pluralidade de abordagens é essencial, dada a profunda importância tecnológica e dificuldade científica do problema mente-cérebro. A ciência progride através de múltiplos grupos que adotam perspectivas paralelas diferentes e complementares enquanto trabalham em níveis diversos de abstrações.
Contra esse pano de fundo, nossa nova e promissora abordagem é operacionalizar vastas coleções de dados neurocientíficos através do desenvolvimento de simulações computadorizadas de grande escala. Hoje, uma ponderada seleção dos recursos da neurofisiologia e da neuroanatomia podem ser combinados para produzir simulações quase em tempo real na escala de pequenos cérebros de mamíferos. Ainda que tenhamos apenas humildes conquistas a registrar, nossas aspirações são elevadas. Procuramos nada menos do que descobrir, demonstrar e apresentar os algoritmos essenciais (core) do cérebro e adquirir uma profunda compreensão científica de como a mente percebe, pensa e age. Isto levará a novos sistemas cognitivos, arquiteturas computacionais, paradigmas de programação, aplicações práticas e máquinas empresariais inteligentes.
No último parágrafo do item "Rationale" (fundamentação, fundamentos lógicos) do artigo, Modha admite o valor intrínseco do trabalho de todos os que procuram estudar cérebro e cognição hoje em dia (inclusive Markram, que está nas referências, devendo-se acrescentar que este é o parágrafo mais "referenciado" de todo o artigo, com 23 itens - de um total de 39 referências), e escreve conciliadoramente:
Um juízo crítico deve ser feito quanto ao nível apropriado de abstração para a simulação. Este enigma deve ser enfrentado ao se modelar qualquer sistema físico. Se escolhermos um nível muito alto de abstração, as caixas pretas do interior do modelo ficarão irremediavelmente complicadas e provavelmente terão uma aplicação deficiente sobre a realidade à medida que crescer nossa compreensão. Se nos abstrairmos muito pouco e trabalharmos com uma resolução muito alta, desperdiçaremos recursos computacionais e obscureceremos nossa compreensão com detalhes irrelevantes. Infelizmente, não existe um oráculo que nos instrua sobre o equilíbrio correto entre abstração e resolução logo no início. A única solução é experimentar e explorar enquanto comunidade. É meritoso que diferentes escolas de pensamento tenham surgido, cada uma delas com argumentação (defendendo) seu próprio nível escolhido de abstração na conceituação e modelagem do cérebro. As tradições mais estabelecidas estão em níveis relativamente altos de abstração e incluem esforços em AI, ciência cognitiva, provessamento de informação visual, conexionismo, teoria computacional da aprendizagem e redes bayesianas de crenças. Enquanto isso, outros esforços procuraram se ater ao lado oposto do espectro, procurando por níveis cada vez mais altos de detalhe biológico reducionista na simulação do tecido cerebral. Aqui, nós chegamos a um equilíbro entre esses extremos e advogamos um caminho do meio, uma via mais fiel à neurociência do que a um modelo conexionista abstrato, mas ainda assim menos detalhado do que uma simulação exaustiva e biofisicamente precisa. Dependendo do contexto, um telescópio, um microscópio e um par de binóculos, cada um deles tem seu lugar no repertório de um cientista.
Marc Changizi
http://blogs.discovermagazine.com/crux/2011/11/16/later-terminator-we%E2%80%99re-nowhere-near-artificial-brains/
Logo no título deste seu artigo, Changizi dá sua opinião: não estamos nem perto de cérebros artificiais. Em seguida, somos apresentados a um gráfico (essa linda ilustração aí em cima) de conectividade do projeto SyNAPSE (Systems of Neuromorphic Adaptive Plastic Scalable Electronics), da parceria IBM/DARPA, uma provável base ontológica para uma nova geração de chips experimentais de computador projetados para emular as habilidades cerebrais referentes a percepção, ação e cognição. A formação desse gráfico desde sua base original pode ser vista no vídeo 120 Cognitive Computing: Neuroscience, Supercomputing, Nanotechnology (a partir dos 10' 37''), que traz uma palestra muito interessante de ~56 minutos de D. S. Modha (da IBM) na 48th Design Automation Conference, em 9 de junho de 2011. Aqui: http://www2.dac.com/events/videoarchive.aspx?confid=122&filter=keynote
E para ler um pouco do material referente a isso tudo, veja:
Cognitive Computing
Unite neuroscience, supercomputing, and nanotechnology to discover, demonstrate, and deliver the brain's core algorithms
Dharmendra S. Modha, Rajagopal Ananthanarayanan, Steven K. Esser, Anthony Ndirango, Anthony J. Sherbondy, Raghavendra Singh (todos, now & then, da IBM)
Communications of the ACM Vol. 54 No. 8, Pages 62-71
http://cacm.acm.org/magazines/2011/8/114944-cognitive-computing/fulltext
Bão, Changizi não está clamando no deserto. O grande Henry Markram já criticava o projeto da IBM (e Modha, em particular) em 2009. Veja sua entrevista a Greg Fish em IBM Cat Brain Computer Debunked, aqui:
http://news.discovery.com/tech/cat-brain-computer-hype.html
Greg Fish: O quanto a IBM exagerou com relação à afirmativa de ter simulado uma estrutura que excede a escala de um córtex felino, e por que?
Henry Markram: Eles afirmam ter simulado a interação de mais de um bilhão de neurônios. O que eles chamam de "neurônios" são os pontos mais diminutos que v. puder imaginar, um ponto microscópico. Mais de 98% do volume de um neurônio são ramificações (como uma árvore). Eles apenas cortam todos os ramos e raízes e tomam um ponto do meio do tronco para representar um neurônio inteiro. Na vida real, cada segmento dos ramos de um neurônio contém dúzias de canais de íons que controlam forçosamente o processamento de informações de um neurônio. Eles não mostram nada disso.
Os neurônios contêm dezenas de milhares de proteínas que formam uma rede com dezenas de milhões de interações. Estas interações são incrivelmente complexas, e exigem a resolução de milhões de equações diferenciais. Eles não mostram nada disso.
Os neurônios contêm em torno de 20.000 genes que criam produtos chamados mRNA, que constróem as proteínas. A maneira como os neurônios elaboram as proteínas e as transportam para todos os diferentes locais onde elas são necessárias é um processo ainda mais complicado que também controla o que um neurônio é, suas memórias e como processará informações. Eles não mostram nada disso.
Eles utilizam uma função alfa (rápido para cima, lento para baixo) para simular um evento sináptico. É uma representação completamente imprecisa de uma sinapse. Há pelo menos seis tipos de sinapses que são altamente não-lineares quanto ao tipo de sua transmissão (isto é, que transforma inputs, e não apenas transmite inputs). De fato, v. precisaria de dezenas de milhares de equações diferenciais para simular uma sinapse. As sinapses são máquinas moleculares extremamente complexas que, elas próprias, exigiriam milhares de equações diferenciais para simular apenas uma delas. Eles não fizeram nenhuma simulação dessas.
Existem equações diferenciais complexas que devem ser resolvidas para se simular o fluxo iônico das ramificações, para simular a biofísica dos canais de íons, as interações proteína-proteína, assim como o completo maquinário bioquímico e genético e também a transmissão sináptica entre os neurônios. Centenas de milhares de outras equações diferenciais. Eles não mostram nada disso.
Também temos as células de glia - dez vezes mais delas do que temos neurônios - e o suprimento de sangue, e muitas outras coisas. Estes "pontos" que eles simularam e as sinapses que eles usaram para comunicação são literalmente milhões de vezes mais simples do que um cérebro real de um gato. Daí, eles não fizeram nem mesmo a simulação de um milionésimo da complexidade do cérebro de um gato. Não está nem perto do cérebro de uma formiga.
Aqui no CLM v. já leu sobre Markram em 24 de maio de 2009 (Simulação do Cérebro: o projeto Blue Brain), 20 de dezembro de 2009 (Vídeos de Neurociência), e 27 de outubro de 2010 (Construindo um Neocórtex). Entre Modha e Markram, fico com este, mas nunca devemos menosprezar o drive empresarial da IBM - o próprio Markram, nesse artigo citado, de 24 de maio de 2009, deixa entrever que em questões de descobertas científicas, tudo é uma questão do dinheiro empregado no esforço. Além disso, existe uma importante mudança de tom no discurso de Modha entre o "imerecido" prêmio de 2008 a que se refere Markram na entrevista acima e suas recentes aparições públicas falando sobre o assunto, a saber: a palestra (9 de junho de 2011) e o artigo (agosto de 2011) referidos acima. Veja, por exemplo, esse trecho do artigo:
Historicamente, muitos campos díspares adotaram abordagens radicalmente diferentes na exploração da computação assemelhada à mente, sobre algumas das quais nós tratamos aqui. Por um lado, a inteligência geral artificial forte, ou AI, um ramo da ciência cognitiva, adota uma abordagem em nível de sistema na sintetização de computadores que emulam a mente. Como a mente emerge do maquinário biológico (wetware) do cérebro, a neurociência adota uma abordagem em nível de componentes para entender como ele faz surgir a mente. Prosseguindo de modo top-down à maneira reducionista, a neurociência cognitiva procura integrar a ciência cognitiva teórica com a psicologia experimental e a neurociência em nível de organismo. Em contraste, ao prosseguir de modo bottom-up de maneira construtiva, a neurociência de sistemas procura combinar dados experimentais de múltiplas escalas espaciais e temporais. A diversidade de pensamento implícita nesta pluralidade de abordagens é essencial, dada a profunda importância tecnológica e dificuldade científica do problema mente-cérebro. A ciência progride através de múltiplos grupos que adotam perspectivas paralelas diferentes e complementares enquanto trabalham em níveis diversos de abstrações.
Contra esse pano de fundo, nossa nova e promissora abordagem é operacionalizar vastas coleções de dados neurocientíficos através do desenvolvimento de simulações computadorizadas de grande escala. Hoje, uma ponderada seleção dos recursos da neurofisiologia e da neuroanatomia podem ser combinados para produzir simulações quase em tempo real na escala de pequenos cérebros de mamíferos. Ainda que tenhamos apenas humildes conquistas a registrar, nossas aspirações são elevadas. Procuramos nada menos do que descobrir, demonstrar e apresentar os algoritmos essenciais (core) do cérebro e adquirir uma profunda compreensão científica de como a mente percebe, pensa e age. Isto levará a novos sistemas cognitivos, arquiteturas computacionais, paradigmas de programação, aplicações práticas e máquinas empresariais inteligentes.
No último parágrafo do item "Rationale" (fundamentação, fundamentos lógicos) do artigo, Modha admite o valor intrínseco do trabalho de todos os que procuram estudar cérebro e cognição hoje em dia (inclusive Markram, que está nas referências, devendo-se acrescentar que este é o parágrafo mais "referenciado" de todo o artigo, com 23 itens - de um total de 39 referências), e escreve conciliadoramente:
Um juízo crítico deve ser feito quanto ao nível apropriado de abstração para a simulação. Este enigma deve ser enfrentado ao se modelar qualquer sistema físico. Se escolhermos um nível muito alto de abstração, as caixas pretas do interior do modelo ficarão irremediavelmente complicadas e provavelmente terão uma aplicação deficiente sobre a realidade à medida que crescer nossa compreensão. Se nos abstrairmos muito pouco e trabalharmos com uma resolução muito alta, desperdiçaremos recursos computacionais e obscureceremos nossa compreensão com detalhes irrelevantes. Infelizmente, não existe um oráculo que nos instrua sobre o equilíbrio correto entre abstração e resolução logo no início. A única solução é experimentar e explorar enquanto comunidade. É meritoso que diferentes escolas de pensamento tenham surgido, cada uma delas com argumentação (defendendo) seu próprio nível escolhido de abstração na conceituação e modelagem do cérebro. As tradições mais estabelecidas estão em níveis relativamente altos de abstração e incluem esforços em AI, ciência cognitiva, provessamento de informação visual, conexionismo, teoria computacional da aprendizagem e redes bayesianas de crenças. Enquanto isso, outros esforços procuraram se ater ao lado oposto do espectro, procurando por níveis cada vez mais altos de detalhe biológico reducionista na simulação do tecido cerebral. Aqui, nós chegamos a um equilíbro entre esses extremos e advogamos um caminho do meio, uma via mais fiel à neurociência do que a um modelo conexionista abstrato, mas ainda assim menos detalhado do que uma simulação exaustiva e biofisicamente precisa. Dependendo do contexto, um telescópio, um microscópio e um par de binóculos, cada um deles tem seu lugar no repertório de um cientista.
Mas voltemos a Changizi, que disse em 21 de novembro de 2010 (Aqui: http://www.psychologytoday.com/blog/nature-brain-and-culture/201011/when-exactly-will-computers-go-ape-shi-and-take-over ):
A proclamação mais famosa de Kurzweil é que estamos nos aproximando rapidamente da "singularidade", o momento no qual a inteligência artificial (AI) ultrapassa a inteligência humana (ou logo depois disso). (...) O problema é: Que AI mais inteligente nós devemos construir?
Em evolução, quase sempre caímos na armadilha de imaginar uma escada linear de animais - das bactérias aos seres humanos - quando na verdade trata-se de uma árvore. E em AI podemos cair em uma armadilha similar. Mas não existe qualquer cadeia linear de AIs cada vez mais inteligentes. Ao invés, existe uma rede altamente complexa e ramificada de AIs possíveis. Para qualquer AI, há muitas e muitas outras que não são nem mais nem menos inteligentes, são apenas diferentemente inteligentes. Assim, à medida que a AI progride, ela pode avançar de muitas maneiras e as novas inteligências quase sempre serão estritamente incomparáveis umas com as outras... e estritamente incomparáveis com a inteligência humana. Nem mais inteligentes dos que os seres humanos, nem menos. Apenas de natureza diversa.
Mas para construirmos uma inteligência artificial semelhante à dos mamíferos nós precisamos entender os cérebros dos mamíferos, incluindo o nosso. Em particular, temos que executar uma engenharia reversa do cérebro - isto é, determinar o que ele faz, suas funções. Sem esta engenharia reversa inicial, os pesquisadores de AI ficam na posição de um engenheiro ao qual se pede para construir um dispositivo mas que não recebe qualquer informação sobre o que esse dispositivo deveria fazer.
De fato, a engenharia reversa faz parte do futuro próximo de Kurzweil: ele acredita que o cérebro passará por uma engenharia reversa em algumas décadas. Como sou, eu mesmo, engenheiro neurobiológico de reversão, fico encorajado quando vejo pesquisadores - seja em uma base lunar, seja nas entranhas da Terra - levando a sério o projeto adaptativo do cérebro, algo frequentemente ignorado ou ativamente desaprovado em neurociência. Também se pode ver esse reconhecimento frontal da engenharia reversa no projeto do cérebro de gatos da IBM e no projeto europeu do Blue Brain.
(Veja mais sobre Kurzweil, a Singularidade e muitas outras questões e seus divulgadores no momentoso número especial da Spectrum de junho de 2008, aqui:
http://spectrum.ieee.org/static/singularity )
Changizi era muito mais ecumênico no passado...
Anyways, não deixe de ler também:
MIT creates “brain chip”
By Sebastian Anthony on November 15, 2011
http://www.extremetech.com/extreme/105067-mit-creates-brain-chip