O quão perto estamos de uma IA que sonha com ovelhas elétricas?

*O artigo foi escrito pelo professor Luis Antonio Fonseca Chacharo, que também é pesquisador na área de Microeletrônica, Instituto de Microeletrônica de Barcelona (IMB-CNM-CSIC), e publicado na plataforma The Conversation Brasil.

Sonhar com ovelhas elétricas denota, até hoje, ter um cérebro humano. Daí o título imortal do romance cyberpunk de Philip K. Dick Do Androids Dream of Electric Sheep? (“Androides Sonham com Ovelhas Elétricas?”). Será que uma inteligência artificial genérica, semelhante à humana, está mais próxima de ser produzida? Este é o caminho.

Hoje, ano 2025

Apesar dos enormes avanços, os transistores reunidos nos chips, que são a base da inteligência artificial, hoje não são, nem agem, como os neurônios, e um computador não computa como um cérebro humano pensa. A inteligência artificial genérica semelhante à humana não acontecerá amanhã. Mas… estamos neste caminho?

Existem abordagens, como a computação neuromórfica (o nome não poderia ser mais explícito), que visam imitar a forma como nossos cérebros funcionam. Elas usam elementos inspirados nos neurônios e em suas conexões sinápticas, que são de natureza elétrica, e buscam a mesma eficiência energética de um cérebro humano.

Será que estamos mais próximos de viver com inteligências que imitam a nossa? Para responder a essa pergunta, precisamos esclarecer o que significa imitar nossa inteligência.

Imitando um cérebro humano

A palavra “imitar” nos remete rapidamente ao “jogo de imitação” de Alan Turing e seu famoso teste.

Ao comparar a inteligência artificial com a natural, a abordagem pode ser “filosófica” ou “funcional”. A de Turing seria mais parecida com a última: como alguém disse, a questão de saber se uma máquina pode pensar não é mais interessante do que saber se um submarino pode nadar.

Para Turing, se uma máquina pudesse enganar um ser humano, fazendo-o pensar que estava falando com outro ser humano, ela demonstraria um comportamento inteligente. Muitos discordariam do bom e velho Alan.

Passar no teste de Turing pode ser uma condição necessária, mas não suficiente, para dar a uma máquina um cum laude em inteligência. Para essas pessoas, recorrer a truques algorítmicos inteligentes é, de certa forma, rebaixar a questão central em jogo, que hoje não tem uma resposta clara: o que é pensamento? O que isso tem a ver com autoconsciência?

Pensando com metáforas

Nós, seres humanos, obtemos novas informações pelos dados que recebemos dos sentidos que descrevem a realidade ao nosso redor. A partir deles, podemos gerar conhecimento associativo que nos ajuda a agir, reagir ou até mesmo antecipar o curso dos eventos.

Esse conhecimento associativo pode transcender a própria realidade, às vezes apenas por puro capricho ou prazer. Essa associação conceitual abstrata pode levar, por exemplo, a metáforas ou poesia.

Mas, aparentemente, tudo se resume a uma elaborada estratégia de sobrevivência que serviu muito bem à nossa autopreservação. É por isso que temos sapiens em nosso sobrenome. Einstein disse: “o melhor resultado da inteligência não é o conhecimento, mas a imaginação”. A IA, até o momento, não raciocina nem imagina.

O teorema do macaco infinito

Os mecanismos de IA parecem operar principalmente como máquinas de otimização de metas que exploram um vasto banco de dados de conhecimento pré-existente.

O ChatGPT materializa em tempo recorde o teorema do macaco infinito, que afirma que macacos infinitos pressionando aleatoriamente as teclas de máquinas de escrever por um período infinito de tempo acabarão escrevendo as obras completas de William Shakespeare em algum momento.

Entretanto, será que uma IA recém-nascida, sem acesso a bancos de dados, seria capaz de operar apenas com base em informações novas e oportunas de sensores? Uma IA sonharia com ovelhas elétricas?

Isso nos leva de volta à questão da consciência artificial e à possibilidade de que surja de forma espontânea.

A singularidade profetizada

O cientista da computação Ray Kurzweil cunhou o termo “singularidade” para esse evento. O advento dessa superinteligência pode ser visto como potencialmente benigno ou tão infeliz ou maligno que nós, humanos, necessariamente nos daremos mal, seja sem querer (como em 2001, Uma Odisséia no Espaço) ou voluntariamente (como na série de filmes Terminator).

A singularidade voltou a ganhar destaque na esteira das ferramentas similares ao ChapGPT, como a disruptiva DeepSeek, sua rápida evolução e aparente criatividade. Surgiram várias vozes, como a de Noam Chomsky, que duvidam de sua verdadeira natureza inteligente.

Nesse debate, entra o livro veterano de Roger Penrose The Emperor’s New Mind (“A Mente Nova do Imperador”), que argumenta que nosso cérebro não é algorítmico e não pode ser reproduzido por uma mera computação, embora poderosa. Ele também afirmou que o funcionamento de nosso cérebro se baseia, até certo ponto, na mecânica quântica.

O nascimento de Hal

HAL nasceu na ficção em 2001, um filme de 1968. O surgimento da Skynet, o nome da inteligência artificial que lidera o exército de máquinas na saga O Exterminador do Futuro, ocorreu em 1997, como imaginado por um filme lançado em 1984.

Essas datas estão muito desatualizadas. A IA parecia ser mais uma das promessas futurísticas afetadas pelo paradoxo de Zenão, como os carros voadores ou a fusão nuclear.

Entretanto, o mundo da computação está passando por momentos e perspectivas interessantes, e a IA de que precisamos para navegar pelo avanço exponencial da tecnologia está provocando um debate acalorado sobre as implicações sociais da inteligência não humana.

O já mencionado Ray Kurzweil, executivo do Google e “profeta” da tecnologia, previu em 2005 que haveria uma máquina inteligente sobre-humana em 2045, com um estágio intermediário de inteligência semelhante à humana em 2029. Isso está quase na ponta de nossos dedos temporais.

Se a singularidade ocorrer, o nascimento dessa IA genérica intermediária, vamos chamá-la de infantil e rezar para que tenha uma adolescência curta. Mas representará um dilema ético interessante. Que espaço abriremos para ela?

Se a singularidade acontecer

Se a singularidade ocorrer, podemos pensar em leis como as dos Grandes Símios, que em algumas jurisdições conferem a condição de pessoas a estes animais, considerando-os seres e não coisas. Essas leis se baseiam em certas habilidades linguísticas, autocontrole, autoconsciência e capacidade de se projetar no futuro.

Também podemos nos inspirar no capítulo sobre os Direitos da Criança, que afirma que devem ser fornecidos os meios para seu desenvolvimento material e espiritual; fornecidas as condições que lhes permitam ganhar a vida, protegendo-as da exploração; e educadas na ideia de que seus talentos devem ser dedicados ao serviço de seus semelhantes.

Alcançar esse estado de coexistência com inteligências artificiais e fazê-lo com sucesso seria um pequeno passo para a Humanidade, mas um salto gigantesco para toda a vida inteligente, seja ela baseada em carbono ou silício.The Conversation

Siga a editoria de Saúde e Ciência no Instagram e fique por dentro de tudo sobre o assunto!

Adicionar aos favoritos o Link permanente.