Nicolelis: Nem artificial nem inteligente, mas potencialmente a arma mais poderosa da imbecilização humana
Nem artificial nem inteligente, mas com potencial altamente imbecilizante
Miguel Nicolelis*, em coluna na CNN
Definitivamente, as últimas semanas não foram nada auspiciosas para os Oráculos da suposta modernidade digital, a quem eu apelidei de os “Overlords” das “BigTechs” do “Sillicon Valley” americano.
Aquele seleto grupo de luminares (sqn) que, acreditando ter recebido algum tipo de mandato divino (balela pura), e munidos de uma autoconfiança invejável (também conhecida como arrogância ilimitada), mesmo que totalmente dissociada da realidade, a não ser no que tange à obtenção do lucro infinito, se julgam no direito de impor a sua visão de futuro para mais de 8 bilhões de seres humanos e seus descendentes.
Tudo isso sem que estes bilhões de mentes orgânicas, já consideradas obsoletas pelos Overlords, participem de qualquer uma das inúmeras decisões essenciais que podem vir a afetar as suas vidas de forma definitiva e irreversível.
Em meio a esta sua missão obsessivo-compulsiva de proselitismo futurista, construída a partir de uma visão distópica, despótica, e completamente distorcida do presente, bem como de toda a herança histórica da civilização humana, a Igreja da Inteligência Artificial (IA) teve que absorver algumas notícias bem incômodas.
Parece que as previsões absurdas – ou hype – que beiram a delírios megalomaníacos e o marketing sem substância, finalmente desencadearam um processo de “blowback”, a palavra em inglês para o nosso mais coloquial contra-ataque, de várias fontes distintas.
Seja na forma de livros e trabalhos científicos da academia ou mesmo de setores da própria indústria de IA, ou mesmo em indiscrições públicas de executivos e analistas econômicos, o fato é que um contraponto às alucinações sem sentido de algum dos profetas da área, que não são poucos, começa a tomar corpo.
Em paralelo, o recente recrudescimento de uma guerra de autofagia no coração da própria indústria de IA – assunto para uma outra coluna – mostra que nem tudo vai bem no paraíso virtual da cuckko land da nem Inteligente, nem Artificial.
Mas vamos aos fatos.
Apoie o VIOMUNDO
Num artigo recente, um grupo de pesquisadores da Apple testou sistematicamente os limites de “raciocínio” dos chamados “Large Reasoning Models” (Grande Modelos de Raciocínio) ou LRMs, uma versão mais sofisticada dos já tradicionais “Large Language Models ou LLMs” (Grandes Modelos de Linguagem), comumente usados pela indústria de IA, como no caso do ChatGPT4 da empresa OpenAI.
Valendo-se do uso de uma série de quebra-cabeças de crescente complexidade, eles mediram a performance destes LRMs e LLMs e as compararam.
Para resumir uma longa estória, depois desta análise detalhada, os pesquisadores da Apple concluíram que os LRMs, bem como os seus antecessores LLMs, demonstraram um total colapso de performance e acurácia quando confrontados com quebra-cabeças de maior complexidade que seres humanos são capazes de resolver.
Neste processo, eles também observaram que estes modelos falharam totalmente na tarefa de usar estratégias explícitas, na forma de algoritmos, e não demonstram nenhuma consistência na tentativa de solucionar diferentes quebra-cabeças.
Resumindo todo esse jargão técnico, estes achados não só indicam que nenhum dos modelos atuais exibe qualquer grau de inteligência ou estratégia de raciocínio similar àquelas dos seres humanos, ou mesmo de qualquer outro organismo vivo.
Num segundo assalto à narrativa oficial da IA, eles também jogaram um balde de água fria, do tamanho de uma Itaipú, na tradicional alegação, até hoje sem nenhum tipo de fundamentação ou comprovação científica, de que ao se construir modelos cada vez maiores e mais complexos, por um passe de mágica digital, estes modelos darão a luz a agentes inteligentes e autônomos, capazes de evoluir até a chamada Inteligência Artificial Geral ou AGI (em inglês).
Até poucos meses atrás, atingir a tal dona AGI era considerado o Cálice Sagrado do Culto da IA.
Todavia, recentemente, um dos fundadores da empresa OpenAI, Ilya Sutskever, ao criar a sua nova startup, depois de se demitir da anterior por disputas internas com seu ex-sócio Sam Altman, um dos Cardeais dos Overlords, comunicou ao mundo que a tal AGI já era coisa do passado.
A nova meta agora é atingir a Superinteligência, seja lá o que isso for, porque nem Ilya consegue defini-la claramente. Isso não impediu, todavia, que ele usasse essa designação para batizar a sua nova startup, que de imediato levantou a bagatela de US$ 1 bilhão para perseguir sua nova alucinação.
Not too bad, diriam alguns psiquiatras amigos meus. De qualquer forma, a ideia de que basta escalar de forma explosiva a complexidade dos modelos de IA para colocar a nossa humilde inteligência orgânica, fruto de 3.5 bilhões de árduos anos de evolução natural, na prateleira da obsolescência parece ter sofrido o seu primeiro significativo baque.
Curiosamente, este nem foi o resultado mais chocante para os evangelistas e para quem está interessado no potencial impacto das ferramentas de IA no funcionamento do cérebro humano.
Num outro estudo, pesquisadores do Massachusettes Institute o Technology, ou MIT, uma das universidades americanas de maior prestígio mundial, exploraram o impacto comportamental e neurofisiológico do uso dos tais LLMs na confecção de textos por voluntários divididos em 3 grupos: no primeiro, os voluntários se valeram do auxílio de um LLM para escrever um texto, no segundo apenas buscas tradicionais na internet foram permitidas para realizar a mesma tarefa, enquanto no terceiro grupo, os voluntários só usaram o conhecimento acumulado nas suas próprias memórias neurais para escrever o seu documento.
Depois de concluída esta fase, os pesquisadores compararam a capacidade dos voluntários dos três grupos em citar passagens dos textos que eles haviam produzido. Do grupo que usou a ferramenta de IA (LLM a lá CHatGPT) para ajudar a compor seus textos, 83% demonstraram um alto grau de dificuldade de citar passagens dos seus próprios escritos, sendo que 100% deles produziram citações incorretas ou totalmente erradas. Ou seja, estes voluntários não conseguiram expressar, de forma alguma, a assimilação ou mesmo a autoria dos seus próprios textos.
Nos outros dois grupos este fenômeno não ocorreu. Ou seja, tanto voluntários que se valeram de buscas da internet, ou apenas do seu conhecimento próprio conseguiram produzir citações corretas derivadas dos seus textos.
Em seu relato, os pesquisadores enfatizam que a falta da capacidade de citar o seu próprio texto persistiu, de forma atenuada (reduzida para 30%), em sessões subsequentes de teste do grupo que usou os LLMs. Mostrando que o efeito pode ser de longa duração.
O achado mais chocante do estudo, todavia, foi obtido quando os pesquisadores usaram a tradicional técnica de eletroencefalografia, ou EEG, para analisar a atividade elétrica dos cérebros dos voluntários dos três diferentes grupos. Esta análise demonstrou profundas diferenças de padrão de atividade cerebral. T
rocando em miúdos, os achados revelaram que, quanto mais ajuda externa os voluntários usaram pior foi o grau de conectividade funcional exibido pelas principais áreas corticais dos seus cérebros.
Assim, quando comparado ao grupo que usou apenas os seus próprios cérebros para compor seus textos, o grupo que se valeu do auxílio dos LLMs apresentou uma redução média de 55% da conectividade neural de regiões corticais, especialmente quando medidas para frequências baixas de atividade elétrica do cérebro (1Hz-12 Hz).
No grupo que usou buscas da internet, a conectividade cortical foi reduzida entre 34-48%, dependendo da frequência de atividade cerebral medida.
Enquanto isso, o grupo que usou apenas o próprio cérebro apresentou os valores mais altos e mais espacialmente distribuídos de conectividade cortical.
Desta forma, enquanto este último grupo – vamos chamá-lo de “Meu Cérebro, Minha Vida” – apresentou a ativação mais intensa do córtex parietal esquerdo, de áreas do lobo temporal direito e áreas do lobo frontal, regiões tipicamente envolvidas com a integração semântica, idealização criativa, e auto monitoração executiva, o grupo que se valeu da internet – ou os “adeptos do Deus Google” – exibiu aumento de atividade de baixa frequência principalmente de áreas visuais do lobo occipital – devido ao uso intenso de telas de computador.
Por outro lado, o grupo que se valeu do LLMs não apresentou nem mesmo aumento da atividade nestas áreas visuais, apesar de usarem telas também. Ao contrário, estes voluntários apresentaram um desvio do seu esforço cognitivo na direção de circuitos fronto-parietais relacionados a integração de processos e coordenação motora.
Em outras palavras, os cérebros dos voluntários que terceirizaram as suas mentes para o LLM ingressaram num modo de operação cognitiva motora muito mais automático do que o exibido pelos seus pares nos outros 2 grupos.
Baseado nestes achados, os pesquisadores do MIT concluíram que o uso de ferramentas de auxílio na produção de textos não só altera a performance comportamental das tarefas, mas pode também levar à toda uma reorganização profunda da arquitetura e mecanismos cognitivos usados na execução destas tarefas.
Assim, enquanto os membros do “Meu Cérebro, Minha Vida” se valeram de redes neurais altamente interconectadas e espacialmente distribuídas pelo seu córtex para geral seus próprios conteúdos, e o grupo que se valeu de buscas na internet se valeu principalmente de estratégias de processamento de informação visual, aqueles que terceirizaram seus cérebros para um LLM basicamente se comportaram como verdadeiros “zumbis digitais”, pois suas mentes passaram a priorizar apenas a integração das sugestões de texto fornecidas pelo modelo de AI.
Evidentemente este é apenas um estudo – existem muitos outros – , que aliás ainda precisa passar pela revisão de pares, como também é o caso do trabalho do grupo da Apple.
Mas, mais do que nunca, o que estes resultados preliminares parecem indicar é que ao tentar aumentar a nossa conveniência e produtividade, reduzindo o tempo gasto em tarefa mundanas, através do uso de ferramentas de IA, nós podemos estar desencadeando um processo irreversível de extermínio da agência, criatividade e inteligência humana. A mesma que nos trouxe como espécie até aqui, depois de milhões de anos de evolução, e permitiu criar toda a épica história da humanidade.
Posto em outros termos, no afã doentio de tentar superar os Deuses do Olimpo e dar à luz a uma elusiva Superinteligência por meios não naturais, nós podemos estar trazendo à tona a arma mais poderosa de imbecilização humana jamais criada neste canto da Via Láctea.
Sendo assim, talvez valha a pena refletir um pouco mais antes de cedermos o controle total do futuro, tanto dos recursos naturais finitos do nosso planeta, bem como das maravilhosas capacidades neurais das nossas mentes, à voracidade insaciável e delirante dos Overlords.
*Miguel Nicolelis é neurocientista e escritor. Professor Emérito de Neurobiologia da Duke University, nos EUA. Fundador Instituto Nicolelis de Estudos Avançados do Cérebro da ASSDAP
Publicação de: Viomundo