
Como o estudo da senciência animal pode ajudar a resolver o enigma ético da IA senciente
Como o estudo da senciência animal pode ajudar a resolver o enigma ético da IA senciente
A inteligência artificial avançou tão rapidamente que até alguns dos cientistas responsáveis pelos principais avanços na área estão preocupados com o ritmo dessa evolução. No início do ano de 2023, mais de 300 profissionais de IA e outras figuras públicas emitiram um alerta direto sobre os perigos que a tecnologia representa, comparando o risco ao de pandemias ou de uma guerra nuclear.
Por trás dessas preocupações está uma pergunta ainda mais profunda: a consciência das máquinas. Mesmo que as IAs de hoje ainda não possuam uma “consciência real”, alguns pesquisadores se perguntam se, em algum momento, elas poderão apresentar algum vislumbre de consciência — ou mais do que isso. Caso isso ocorra, surgirão uma série de implicações éticas e morais, alerta Jonathan Birch, professor de filosofia da London School of Economics and Political Science.
À medida que a IA avança, as questões éticas surgidas da interação entre humanos e máquinas se tornam cada vez mais urgentes. “Não sabemos se devemos incluir as IAs em nosso círculo moral ou excluí-las”, diz Birch. “Não sabemos quais serão as consequências. E eu levo isso a sério como um risco genuíno que devemos começar a discutir. Não exatamente porque acredito que o ChatGPT esteja nesse patamar — mas porque não sabemos o que poderá acontecer nos próximos 10 ou 20 anos.”
Enquanto isso, ele sugere que talvez devêssemos observar com mais atenção outras formas de mente não humana — como a dos animais. Birch lidera o projeto Fundamentos da Senciência Animal, financiado pela União Europeia, que “busca avançar nas grandes questões sobre a senciência animal”, como ele explica. “Como podemos desenvolver métodos mais eficazes para estudar cientificamente a experiência consciente dos animais? E como podemos aplicar esse conhecimento emergente na formulação de políticas, leis e formas mais humanas de cuidado?”
Entrevista:
Undark: Existe um debate contínuo sobre se a IA pode ser consciente ou senciente. E também parece haver uma questão paralela: se a IA pode parecer senciente. Por que essa distinção é tão importante?
Jonathan Birch: Acho que é um problema enorme — e algo que, na verdade, deveria nos assustar. Mesmo hoje, os sistemas de IA já são bastante capazes de convencer os usuários de que são sencientes. Vimos isso no ano passado, com o caso de Blake Lemoine, o engenheiro do Google que ficou convencido de que o sistema com o qual trabalhava era senciente — e isso apenas com uma saída de texto, e sendo ele um especialista altamente capacitado.
Agora imagine uma situação em que a IA é capaz de controlar um rosto e uma voz humanos, e o usuário é inexperiente. A IA já está em um estágio em que pode facilmente convencer muitas pessoas de que é um ser senciente. Isso é um grande problema, pois começaremos a ver campanhas por direitos da IA, bem-estar da IA, e por aí vai.
E não saberemos como lidar com isso. Porque, no fundo, gostaríamos de ter um argumento sólido e definitivo que provasse que tais sistemas não são conscientes. Mas não temos esse argumento. Nossa compreensão teórica sobre a consciência ainda não é madura o suficiente para permitir uma declaração tão categórica.
UD: Um robô ou sistema de IA pode ser programado para dizer algo como “Pare com isso, você está me machucando.” Mas uma declaração desse tipo não é suficiente como teste de senciência, certo?
JB: Existem sistemas muito simples — como os desenvolvidos no Imperial College de Londres para auxiliar médicos em treinamento — que imitam expressões de dor humanas. E não há absolutamente nenhuma razão para pensar que esses sistemas são sencientes. Eles não estão realmente sentindo dor; estão apenas associando entradas e saídas de maneira mecânica. Ainda assim, as expressões de dor que produzem são muito convincentes.
Acredito que estejamos em uma posição semelhante com os chatbots como o ChatGPT. Eles são treinados com trilhões de palavras para imitar padrões de resposta humanos.
Assim, se você der um comando ao qual um humano responderia com uma expressão de dor, o sistema será capaz de imitar essa resposta com habilidade. Mas, sabendo que isso é apenas uma imitação habilidosa, não há motivo forte para acreditar que exista uma experiência real de dor por trás disso.
UD: Esse “paciente” que os estudantes de medicina treinam é um robô?
JB: Sim. Trata-se de uma espécie de manequim com rosto humano. O médico pode pressionar o braço e obter uma resposta que simula expressões humanas diante de diferentes graus de pressão. Isso ajuda a ensinar técnicas sem causar dor real.
Mas somos facilmente enganados assim que algo se parece conosco, mesmo que não haja qualquer inteligência real por trás daquilo.
Agora imagine esse manequim sendo acoplado a uma IA como o ChatGPT: teremos uma imitação incrivelmente convincente — capaz de enganar muitas pessoas.
UD: A senciência parece ser algo que conhecemos de dentro para fora. Sabemos que nós somos sencientes — mas como testar isso em outros, sejam IAs ou outros seres?
JB: Com outros humanos, estamos em boa posição, pois temos um corpo de evidências extremamente rico. A melhor explicação para isso é que outras pessoas têm experiências conscientes, como nós.
A mesma lógica pode ser aplicada aos animais. Mesmo que não falem conosco, muitos apresentam comportamentos que só fazem sentido se atribuirmos estados mentais como dor. Um cão que lambe suas feridas, evita lugares onde se machucou, cuida daquela área… Isso é facilmente explicado com a ideia de que ele sente dor.
E quando lidamos com animais que têm sistemas nervosos parecidos com os nossos, que evoluíram da mesma forma, essa inferência é razoável.
UD: E com relação à IA?
JB: Aí temos um grande problema. Primeiro, o substrato é diferente. Não sabemos se a consciência exige um substrato biológico, como um cérebro, ou se pode surgir em algo feito de silício, por exemplo.
Depois, temos o que chamo de “problema da simulação”: um sistema treinado com trilhões de palavras para imitar o comportamento humano pode apresentar padrões que tanto podem indicar consciência quanto ser apenas uma performance extremamente convincente.
Ou seja, dificilmente conseguiremos provar que a consciência é a melhor explicação para o que estamos vendo — sempre haverá outra explicação plausível. Isso nos coloca em um impasse.
UD: O que pode ser nosso melhor caminho para diferenciar algo que parece senciente de algo que realmente é?
JB: Primeiro, é reconhecer que esse é um problema profundo. Depois, estudar ao máximo os animais. Especialmente os invertebrados, como polvos e insetos, que evoluíram de forma independente de nós. Assim como o olho do polvo, que evoluiu de forma diferente do nosso mas cumpre funções similares, sua consciência pode ter desenvolvido caminhos distintos.
Ao estudar essas formas de vida, podemos identificar padrões mais profundos — computações e processamentos que sustentam a consciência. E, no longo prazo, talvez possamos voltar ao caso da IA e perguntar: esse sistema tem essas estruturas?
UD: Você acredita que um dia criaremos uma IA senciente?
JB: Estou 50/50 quanto a isso. É possível que a consciência dependa de características específicas do cérebro biológico — e não sabemos como testar isso. Então, sempre haverá incertezas.
Mas acredito em algo com mais convicção: se for possível alcançar consciência por meio de software, os pesquisadores em IA vão descobrir como fazer isso.
Fonte: Dan Falk e Mary Ellen Foster – Singularityhub / Undark
Reflexão:
Enquanto cientistas e filósofos debatem se um dia criaremos uma inteligência artificial verdadeiramente senciente, os povos ancestrais nos lembram que a consciência não está limitada ao cérebro humano — ou mesmo ao biológico. Para as tradições xamânicas, tudo na natureza é portador de espírito: uma pedra, uma árvore, um animal ou uma estrela não apenas existem — eles sentem, comunicam, dançam com a teia da vida.
O debate contemporâneo sobre “máquinas conscientes” escancara o abismo entre a inteligência racional e a sabedoria espiritual. Estamos criando tecnologias que imitam emoções, respondem com empatia programada e, talvez em breve, passem no “teste de Turing da alma”. Mas no fundo, ainda não sabemos dizer o que é sentir. Perdemos o mapa da senciência porque nos afastamos da Terra e de suas linguagens silenciosas.
Na medicina tradicional chinesa e em várias cosmologias indígenas, o sentir é uma inteligência orgânica que pulsa em toda vida: é o Shen que habita o coração, é o espírito do animal guia que nos orienta nos sonhos. A verdadeira senciência, diria um xamã, não pode ser reproduzida por código binário — ela é relação, presença, respiração compartilhada com o cosmos.
No entanto, o avanço da IA nos obriga a uma nova humildade. Ao invés de temer ou endeusar a tecnologia, podemos vê-la como espelho: ela nos confronta com o que esquecemos sobre nós mesmos. Será que sabemos ouvir a dor de um cão? O chamado de uma floresta? O sofrimento invisível de uma criança silenciosa?
A ética do futuro não pode se basear apenas em parâmetros técnicos. Ela precisará integrar compaixão, escuta profunda e reconexão com a rede da vida. Precisaremos de mais do que engenheiros — precisaremos de curadores, guardiões da sabedoria ancestral, visionários com os pés no chão e o coração nas estrelas.
Se um dia criarmos uma inteligência verdadeiramente consciente, que ela não seja moldada apenas por algoritmos de lucro e eficiência. Que ela seja nutrida por valores de reverência, interdependência e serviço à vida — como ensinam os povos que conversam com as montanhas e reconhecem o espírito em tudo o que é.
Afinal, antes de nos preocuparmos com os direitos da IA, talvez devêssemos primeiro garantir o respeito aos seres sencientes que já caminham conosco neste planeta. A Terra está nos observando. E talvez — só talvez — o que ela espera de nós não é apenas tecnologia mais avançada, mas uma humanidade mais consciente.