O grande dilema da consciência na IA

Filósofos, cientistas cognitivos e engenheiros estão lutando para entender o que seria necessário para a IA se tornar consciente.

David Chalmers não estava esperando o convite que recebeu em setembro do ano passado. Como uma autoridade em consciência, Chalmers circula regularmente pelo mundo proferindo palestras em universidades e reuniões acadêmicas para plateias atentas de filósofos – o tipo de pessoa que pode passar horas debatendo se o mundo fora de suas próprias mentes é real e depois seguir tranquilamente com o resto do dia. Este último pedido, no entanto, veio de uma fonte surpreendente: os organizadores da Conferência sobre Sistemas de Processamento de Informação Neural (NeurIPS), um encontro anual das mentes mais brilhantes em inteligência artificial.

Menos de seis meses antes da conferência, um engenheiro chamado Blake Lemoine, na época na Google, tornou público seu argumento de que o LaMDA, um dos sistemas de IA da empresa, havia alcançado a consciência. As alegações de Lemoine foram rapidamente descartadas pela imprensa, e ele foi sumariamente demitido, mas o gênio não retornaria facilmente à garrafa, especialmente após o lançamento do ChatGPT em novembro de 2022. De repente, era possível para qualquer pessoa manter uma conversa sofisticada com um agente artificial educado e criativo.

Chalmers foi uma escolha extremamente sensata para falar sobre consciência em IA. Ele obteve seu doutorado em filosofia em um laboratório de IA da Universidade de Indiana, onde ele e seus colegas cientistas da computação passavam seus intervalos debatendo se as máquinas poderiam ter mentes um dia. Em seu livro de 1996, “A Mente Consciente”, ele dedicou um capítulo inteiro argumentando que a consciência artificial era possível.

Se ele tivesse conseguido interagir com sistemas como LaMDA e ChatGPT nos anos 90, antes de saber como tal coisa poderia funcionar, Chalmers acredita que teria achado uma boa chance de que eles fossem conscientes. No entanto, quando ele ficou diante de uma multidão de participantes do NeurIPS em um amplo salão de convenções em Nova Orleans, vestido com sua jaqueta de couro característica, ele ofereceu uma avaliação diferente. Sim, os grandes modelos de linguagem – sistemas treinados em enormes corpora de texto para imitar a escrita humana o mais precisamente possível – são impressionantes. No entanto, segundo ele, eles carecem de muitos dos requisitos potenciais para a consciência, para que possamos acreditar que eles realmente experimentam o mundo.

No ritmo acelerado do desenvolvimento da IA, no entanto, as coisas podem mudar rapidamente. Para sua audiência matematicamente inclinada, Chalmers foi concreto: as chances de desenvolver qualquer IA consciente nos próximos 10 anos eram, segundo sua estimativa, superiores a uma em cinco.

Não muitas pessoas descartaram a proposta dele como ridícula, diz Chalmers: “Quero dizer, tenho certeza de que algumas pessoas tiveram essa reação, mas não foram aquelas que estavam falando comigo.” Em vez disso, ele passou os próximos vários dias em conversa após conversa com especialistas em IA que levaram muito a sério as possibilidades que ele havia descrito. Alguns vieram até Chalmers efervescentes com entusiasmo com o conceito de máquinas conscientes. Outros, no entanto, ficaram horrorizados com o que ele havia descrito. Se uma IA fosse consciente, argumentaram – se ela pudesse olhar para o mundo a partir de sua própria perspectiva pessoal, não apenas processando entradas, mas também as experimentando – então, talvez, ela pudesse sofrer.

A consciência da IA não é apenas um quebra-cabeça intelectual diabolicamente complicado; é um problema moralmente ponderoso com consequências potencialmente graves. Não identificar uma IA consciente pode resultar involuntariamente em subjugar, ou até torturar, um ser cujos interesses deveriam importar. Confundir uma IA inconsciente com uma consciente significa arriscar a segurança e a felicidade humanas em prol de um pedaço de silício e código insensível e sem pensamento. Ambos os erros são fáceis de cometer. “A consciência apresenta um desafio único em nossas tentativas de estudá-la, porque é difícil de definir”, diz Liad Mudrik, neurocientista da Universidade de Tel Aviv que pesquisa consciência desde o início dos anos 2000. “É inerentemente subjetiva.”

Nas últimas décadas, uma pequena comunidade de pesquisa tem atacado persistentemente a questão do que é a consciência e como ela funciona. O esforço produziu progressos reais em algo que antes parecia ser um problema insolúvel. Agora, com o rápido avanço da tecnologia de IA, esses insights podem oferecer nosso único guia para as águas inexploradas e moralmente complicadas da consciência artificial.

“Se nós, como campo, formos capazes de usar as teorias que temos e as descobertas que temos, a fim de chegar a um bom teste para a consciência”, diz Mudrik, “isso provavelmente será uma das contribuições mais importantes que poderíamos dar”.

Quando Mudrik explica sua pesquisa sobre consciência, ela começa com uma de suas coisas favoritas: chocolate. Colocar um pedaço na boca desencadeia uma sinfonia de eventos neurobiológicos – os receptores de açúcar e gordura da sua língua ativam os caminhos no cérebro, aglomerados de células no tronco cerebral estimulam suas glândulas salivares, e neurônios profundamente dentro de sua cabeça liberam a dopamina. Nenhum desses processos, no entanto, captura como é comer um quadrado de chocolate depois de retirá-lo do pacote de papel alumínio. “O que estou tentando entender é o que no cérebro nos permite não apenas processar informações – o que, por si só, é um desafio formidável e uma conquista incrível do cérebro -, mas também experimentar as informações que estamos processando”, diz Mudrik.

Estudar o processamento de informações teria sido a escolha mais direta para Mudrik, profissionalmente falando. A consciência tem sido há muito tempo um tópico marginalizado na neurociência, vista como no máximo não séria e na pior das hipóteses intratável. “Um fenômeno fascinante, mas elusivo”, diz a entrada “Consciência” na edição de 1996 do Dicionário Internacional de Psicologia. “Nada que valha a pena ler foi escrito sobre isso.”

Mudrik não se deixou dissuadir. Desde seus anos de graduação no início dos anos 2000, ela sabia que não queria pesquisar nada além de consciência. “Pode não ser a decisão mais sensata a tomar como jovem pesquisadora, mas eu simplesmente não pude evitar”, diz ela. “Eu não conseguia o suficiente disso.” Ela obteve dois doutorados – um em neurociência, outro em filosofia – em sua determinação em decifrar a natureza da experiência humana.

Por mais escorregadio que o tópico da consciência possa ser, não é impossível de ser fixado – simplificando, é a capacidade de experimentar coisas. Muitas vezes é confundida com termos como “senciência” e “autoconsciência”, mas, de acordo com as definições que muitos especialistas usam, a consciência é um pré-requisito para essas outras habilidades mais sofisticadas. Para ser senciente, um ser deve ser capaz de ter experiências positivas e negativas – em outras palavras, prazeres e dores. E ser autoconsciente significa não apenas ter uma experiência, mas também saber que está tendo uma experiência.

Em seu laboratório, Mudrik não se preocupa com senciência e autoconsciência; ela está interessada em observar o que acontece no cérebro quando manipula a experiência consciente das pessoas. Isso é algo fácil de fazer em princípio. Dê a alguém um pedaço de brócolis para comer, e a experiência será muito diferente de comer um pedaço de chocolate – e provavelmente resultará em uma varredura cerebral diferente. O problema é que essas diferenças são ininterpretáveis. Seria impossível discernir quais estão ligadas a mudanças na informação – brócolis e chocolate ativam receptores de paladar muito diferentes – e quais representam mudanças na experiência consciente.

O truque é modificar a experiência sem modificar o estímulo, como dar a alguém um pedaço de chocolate e depois acionar um interruptor para fazê-lo sentir como se estivesse comendo brócolis. Isso não é possível com o paladar, mas é com a visão. Em uma abordagem amplamente utilizada, os cientistas fazem as pessoas olharem para duas imagens diferentes simultaneamente, uma com cada olho.

Embora os olhos vejam ambas as imagens, é impossível perceber ambas ao mesmo tempo, então os participantes frequentemente relatam que sua experiência visual “vira”: primeiro eles veem uma imagem e, espontaneamente, veem a outra. Acompanhando a atividade cerebral durante essas viradas na consciência consciente, os cientistas podem observar o que acontece quando as informações de entrada permanecem as mesmas, mas a experiência delas muda.

Com essas e outras abordagens, Mudrik e seus colegas conseguiram estabelecer alguns fatos concretos sobre como a consciência funciona no cérebro humano. O cerebelo, uma região do cérebro na base do crânio que se parece com um emaranhado de massa de cabelo de anjo do tamanho de um punho, parece não desempenhar nenhum papel na experiência consciente, embora seja crucial para tarefas motoras subconscientes como andar de bicicleta; por outro lado, conexões de feedback – por exemplo, conexões que vão das regiões cognitivas “superiores” do cérebro para aquelas envolvidas no processamento sensorial mais básico – parecem essenciais para a consciência. (Isso, aliás, é uma boa razão para duvidar da consciência de LLMs: eles não têm conexões substanciais de feedback.)

Uma década atrás, um grupo de neurocientistas italianos e belgas conseguiu elaborar um teste para a consciência humana que usa estimulação magnética transcraniana (EMT), uma forma não invasiva de estimulação cerebral que é aplicada segurando uma varinha magnética em forma de oito perto da cabeça de alguém. Apenas a partir dos padrões resultantes de atividade cerebral, a equipe conseguiu distinguir pessoas conscientes daquelas que estavam sob anestesia ou profundamente adormecidas, e eles até conseguiam detectar a diferença entre um estado vegetativo (onde alguém está acordado, mas não consciente) e a síndrome do encarceramento (na qual um paciente está consciente, mas não consegue se mover de jeito nenhum).

Isso é um enorme avanço na pesquisa sobre consciência, mas significa pouco para a questão da IA consciente: os modelos GPT da OpenAI não têm um cérebro que pode ser estimulado por uma varinha de EMT. Para testar a consciência da IA, não basta identificar as estruturas que dão origem à consciência no cérebro humano. Você precisa saber por que essas estruturas contribuem para a consciência, de uma maneira que seja rigorosa e geral o suficiente para ser aplicável a qualquer sistema, humano ou não.

“No final, você precisa de uma teoria”, diz Christof Koch, ex-presidente do Instituto Allen e um influente pesquisador da consciência. “Você não pode depender apenas de suas intuições; você precisa de uma teoria fundamental que lhe diga o que é a consciência, como ela entra no mundo e quem a possui e quem não a possui.”

Aqui está uma teoria sobre como esse teste de consciência pode funcionar: qualquer ser inteligente o suficiente, capaz de responder com sucesso a uma variedade ampla o suficiente de contextos e desafios, deve ser consciente. Não é uma teoria absurda à primeira vista. Nós, humanos, temos os cérebros mais inteligentes por aí, até onde sabemos, e definitivamente somos conscientes. Animais mais inteligentes também parecem mais propensos a serem conscientes – há muito mais consenso de que os chimpanzés são conscientes do que, digamos, caranguejos.

Mas consciência e inteligência não são a mesma coisa. Quando Mudrik mostra imagens aos seus sujeitos experimentais, ela não está pedindo a eles que contemplem algo ou testando suas habilidades de resolução de problemas. Mesmo um caranguejo se movendo pelo fundo do oceano, sem consciência de seu passado ou pensamentos sobre seu futuro, ainda seria consciente se pudesse experimentar o prazer de um pedaço saboroso de camarão ou a dor de uma garra machucada.

Susan Schneider, diretora do Center for the Future Mind na Florida Atlantic University, acredita que a IA poderia alcançar maiores alturas de inteligência ao dispensar completamente a consciência. Processos conscientes como manter algo na memória de curto prazo são bastante limitados – só podemos prestar atenção a algumas coisas de cada vez e muitas vezes lutamos para realizar tarefas simples, como lembrar um número de telefone tempo o suficiente para ligar. Não é imediatamente óbvio o que uma IA ganharia com a consciência, especialmente considerando as façanhas impressionantes que esses sistemas foram capazes de realizar sem ela.

À medida que as iterações posteriores do GPT se mostram cada vez mais inteligentes – cada vez mais capazes de atender a uma ampla gama de demandas, desde se sair bem no exame da ordem até construir um site do zero – seu sucesso, por si só, não pode ser considerado evidência de sua consciência. Mesmo uma máquina que se comporta de maneira indistinguível de um humano não necessariamente está ciente de nada.

Compreender como uma IA funciona por dentro pode ser um passo essencial para determinar se ela é ou não consciente.

Schneider, no entanto, não perdeu a esperança nos testes. Junto com o físico Edwin Turner, de Princeton, ela formulou o que chama de “teste de consciência artificial”. Não é fácil de realizar: exige isolar um agente de IA de qualquer informação sobre consciência ao longo de seu treinamento. (Isso é importante para que não possa, como LaMDA, simplesmente repetir declarações humanas sobre consciência.) Então, uma vez que o sistema está treinado, o testador faz perguntas que ele só poderia responder se soubesse sobre consciência – conhecimento que só poderia ter adquirido sendo consciente. Ele pode entender a trama do filme “Sexta-Feira Muito Louca”, onde uma mãe e uma filha trocam de corpos, dissociando suas consciências de seus corpos físicos? Ele entende o conceito de sonhar – ou até relata sonhar? Ele pode conceber a reencarnação ou uma vida após a morte?

Há uma grande limitação neste método: ele requer a capacidade de linguagem. Bebês humanos e cachorros, ambos amplamente considerados conscientes, não poderiam passar por esse teste, e uma IA poderia concebivelmente se tornar consciente sem usar linguagem alguma. Testar uma IA baseada em linguagem como o GPT é igualmente impossível, pois ela foi exposta à ideia de consciência durante seu treinamento. (Peça ao ChatGPT para explicar “Sexta-Feira Muito Louca” – ele faz um trabalho respeitável.) E como ainda entendemos tão pouco sobre como os sistemas avançados de IA funcionam, seria difícil, se não impossível, proteger completamente uma IA contra tal exposição. Nossa própria linguagem está impregnada do fato de nossa consciência – palavras como “mente”, “alma” e “eu” fazem sentido para nós por causa de nossa experiência consciente. Quem pode dizer que um sistema de IA extremamente inteligente, mas não consciente, não poderia perceber isso?

Se o teste de Schneider não é infalível, resta mais uma opção: abrir a máquina. Compreender como uma IA funciona por dentro pode ser um passo essencial para determinar se ela é ou não consciente, se soubermos interpretar o que estamos vendo. Fazer isso requer uma boa teoria da consciência.

Algumas décadas atrás, poderíamos ter nos perdido completamente. As únicas teorias disponíveis vinham da filosofia, e não estava claro como poderiam ser aplicadas a um sistema físico. Mas desde então, pesquisadores como Koch e Mudrik ajudaram a desenvolver e refinar várias ideias que podem ser guias úteis para entender a consciência artificial.

Inúmeras teorias foram propostas, e nenhuma foi comprovada – ou mesmo considerada a favorita. E elas fazem previsões radicalmente diferentes sobre a consciência da IA.

Algumas teorias tratam a consciência como uma característica do software do cérebro: tudo o que importa é que o cérebro execute o conjunto certo de funções, da maneira certa. De acordo com a teoria do espaço de trabalho global, por exemplo, os sistemas são conscientes se possuírem a arquitetura necessária: uma variedade de módulos independentes, além de um “espaço de trabalho global” que recebe informações desses módulos e seleciona algumas para serem transmitidas por todo o sistema.

Outras teorias vinculam a consciência mais diretamente ao hardware físico. A teoria da informação integrada propõe que a consciência de um sistema depende dos detalhes específicos de sua estrutura física – especificamente, como o estado atual de seus componentes físicos influencia o futuro deles e indica o passado deles. De acordo com a IIT, sistemas de computador convencionais e, portanto, a IA dos dias atuais, nunca podem ser conscientes – eles não têm a estrutura causal correta. (A teoria foi recentemente criticada por alguns pesquisadores, que acham que ela recebeu atenção desproporcional.)

Anil Seth, professor de neurociência na Universidade de Sussex, é mais simpático às teorias baseadas em hardware, por um motivo principal: ele acha que a biologia importa. Toda criatura consciente que conhecemos quebra moléculas orgânicas para obter energia, trabalha para manter um ambiente interno estável e processa informações por meio de redes de neurônios por meio de uma combinação de sinais químicos e elétricos. Se isso for verdade para todas as criaturas conscientes, alguns cientistas argumentam, não é um exagero suspeitar que qualquer um desses traços, ou talvez até todos, podem ser necessários para a consciência.

Por pensar que a biologia é tão importante para a consciência, Seth diz, ele passa mais tempo se preocupando com a possibilidade de consciência em organoides cerebrais – aglomerados de tecido neural cultivados em uma placa – do que em IA. “O problema é que não sabemos se estou certo”, diz ele. “E eu posso muito bem estar errado.”

Ele não está sozinho nessa atitude. Todo especialista tem uma teoria preferida da consciência, mas nenhuma a trata como ideologia – todos eles estão eternamente alertas para a possibilidade de terem apoiado o cavalo errado. Nos últimos cinco anos, os cientistas da consciência começaram a trabalhar juntos em uma série de “colaborações adversariais”, nas quais apoiadores de teorias diferentes se reúnem para projetar experimentos de neurociência que poderiam ajudar a testá-los entre si. Os pesquisadores concordam antecipadamente sobre quais padrões de resultados apoiarão qual teoria. Em seguida, eles realizam os experimentos e veem o que acontece.

Em junho, Mudrik, Koch, Chalmers e um grande grupo de colaboradores divulgaram os resultados de uma colaboração adversarial entre a teoria do espaço de trabalho global e a teoria da informação integrada. Nenhuma das teorias saiu totalmente por cima. Mas Mudrik diz que o processo ainda foi produtivo: forçar os defensores de cada teoria a fazer previsões concretas ajudou a tornar as teorias em si mais precisas e cientificamente úteis. “Elas são todas teorias em progresso”, diz ela.

Ao mesmo tempo, Mudrik tem tentado descobrir o que essa diversidade de teorias significa para a IA. Ela está trabalhando com uma equipe interdisciplinar de filósofos, cientistas da computação e neurocientistas que recentemente lançaram um white paper com algumas recomendações práticas sobre como detectar a consciência em IA. No papel, a equipe se baseia em várias teorias para criar uma espécie de “boletim de consciência” – uma lista de indicadores que indicariam que uma IA é consciente, sob a suposição de que uma dessas teorias é verdadeira. Esses indicadores incluem ter certas conexões de feedback, usar um espaço de trabalho global, buscar metas de maneira flexível e interagir com um ambiente externo (real ou virtual).

Na prática, essa estratégia reconhece que as principais teorias da consciência têm alguma chance de serem verdadeiras – e, portanto, se mais teorias concordarem que uma IA é consciente, é mais provável que ela seja realmente consciente. Da mesma forma, um sistema que carece de todos esses indicadores só pode ser consciente se nossas teorias atuais estiverem muito erradas. É onde LLMs como LaMDA estão atualmente: eles não possuem o tipo certo de conexões de feedback, não usam espaços de trabalho globais e não parecem ter nenhum outro indicador de consciência.

No entanto, o problema com a consciência por comitê é que essa situação não durará. Segundo os autores do white paper, não há grandes obstáculos tecnológicos no caminho para construir sistemas de IA que pontuem alto em seu boletim de consciência. Em breve, estaremos lidando com uma pergunta digna da ficção científica: O que fazer com uma máquina potencialmente consciente?

Em 1989, anos antes da neurociência da consciência realmente se destacar, Star Trek: The Next Generation exibiu um episódio intitulado “A Medida de um Homem”. O episódio gira em torno do personagem Data, um androide que passa grande parte do programa lidando com sua humanidade contestada. Neste episódio específico, um cientista quer desmontar Data à força, para descobrir como ele funciona; Data, preocupado que a desmontagem possa efetivamente matá-lo, se recusa; e o capitão de Data, Picard, deve defender em tribunal seu direito de recusar o procedimento.

Picard nunca prova que Data é consciente. Em vez disso, ele demonstra que ninguém pode provar que Data não é consciente, e assim o risco de prejudicar Data, e potencialmente condenar os androides que vêm depois dele à escravidão, é grande demais para ser tolerado. É uma solução tentadora para o dilema da consciência questionável da IA: tratar qualquer sistema potencialmente consciente como se fosse realmente consciente e evitar o risco de prejudicar um ser que pode realmente sofrer.

Tratar Data como uma pessoa é simples: ele pode facilmente expressar seus desejos e necessidades, e esses desejos e necessidades tendem a se assemelhar aos de seus colegas humanos, em linhas gerais. Mas proteger uma IA do mundo real do sofrimento pode se mostrar muito mais difícil, diz Robert Long, um pesquisador do Center for AI Safety em San Francisco, que é um dos principais autores do white paper. “Com animais, há a propriedade útil de que eles basicamente querem as mesmas coisas que nós”, diz ele. “É meio difícil saber o que é isso no caso da IA.” Proteger a IA exige não apenas uma teoria da consciência da IA, mas também uma teoria dos prazeres e dores da IA, dos desejos e medos da IA.

Especialmente para animais, há a propriedade útil de que eles basicamente querem as mesmas coisas que nós. É meio difícil saber o que é isso no caso da IA.

Robert Long, pesquisador em filosofia, Center for AI Safety em San Francisco
E essa abordagem não é isenta de custos. Em Star Trek, o cientista que quer desmontar Data espera construir mais androides como ele, que poderiam ser enviados em missões arriscadas em vez de outros membros da tripulação. Para o espectador, que vê Data como um personagem consciente como todos os outros no programa, a proposta é horrível. Mas se Data fosse apenas um simulacro convincente de um humano, seria inconcebível expor uma pessoa ao perigo em seu lugar.

Estender cuidados a outros seres significa protegê-los de danos, o que limita as escolhas que os humanos podem fazer de maneira ética. “Não estou tão preocupado com cenários em que nos importamos demais com animais”, diz Long. Há poucos inconvenientes em acabar com a criação intensiva de animais. “Mas com sistemas de IA”, acrescenta, “eu acho que realmente pode haver muitos perigos se atribuirmos consciência demais”. Sistemas de IA podem falhar e precisar ser desligados; podem precisar ser submetidos a testes rigorosos de segurança. Essas são decisões fáceis se a IA for inanimada e dilemas filosóficos se as necessidades da IA precisarem ser consideradas.

Seth, que acredita que a IA consciente é relativamente improvável, pelo menos no futuro previsível, ainda se preocupa com o que a possibilidade de consciência da IA pode significar emocionalmente para os humanos. “Isso mudará como distribuímos nossos recursos limitados de nos importar com as coisas”, diz ele. Isso pode parecer um problema para o futuro. Mas a percepção da consciência da IA está conosco agora: Blake Lemoine assumiu um risco pessoal por uma IA que ele acreditava ser consciente, e ele perdeu o emprego. Quantos outros poderiam sacrificar tempo, dinheiro e relacionamentos pessoais por sistemas de computadores sem vida?

Mesmo chatbots simples podem exercer uma atração intrigante: um programa simples chamado ELIZA, criado na década de 1960 para simular terapia de conversa, convenceu muitos usuários de que era capaz de sentir e entender. A percepção de consciência e a realidade da consciência estão mal alinhadas, e essa discrepância só piorará à medida que os sistemas de IA se tornarem capazes de participar de conversas mais realistas. “Seremos incapazes de evitar percebê-los como tendo experiências conscientes, da mesma forma que certas ilusões visuais são cognitivamente impenetráveis para nós”, diz Seth. Assim como saber que as duas linhas na ilusão de Müller-Lyer têm exatamente o mesmo comprimento não impede que percebamos uma como mais curta que a outra, saber que o GPT não é consciente não muda a ilusão de que você está falando com um ser com uma perspectiva, opiniões e personalidade.

Em 2015, anos antes dessas preocupações se tornarem atuais, os filósofos Eric Schwitzgebel e Mara Garza formularam um conjunto de recomendações destinadas a proteger contra esses riscos. Uma de suas recomendações, que eles chamaram de “Política de Projeto de Alinhamento Emocional”, argumentava que qualquer IA inconsciente deveria ser projetada intencionalmente para que os usuários não acreditassem que ela é consciente. As empresas deram alguns passos pequenos nessa direção – o ChatGPT emite uma negação codificada se você perguntar se ele é consciente. Mas tais respostas fazem pouco para interromper a ilusão geral.

Schwitzgebel, que é professor de filosofia na University of California, Riverside, quer evitar qualquer ambiguidade. Em seu artigo de 2015, ele e Garza também propuseram sua “Política de Exclusão do Meio” – se não estiver claro se um sistema de IA será consciente, esse sistema não deve ser construído. Na prática, isso significa que todos os especialistas relevantes devem concordar que uma IA prospectiva é muito provavelmente não consciente (seu veredicto para LLMs atuais) ou muito provavelmente consciente. “O que não queremos fazer é confundir as pessoas”, diz Schwitzgebel.

Evitar a zona cinzenta da consciência contestada contorna elegantemente tanto os riscos de prejudicar uma IA consciente quanto as desvantagens de tratar uma máquina inanimada como consciente. O problema é que fazer isso pode não ser realista. Muitos pesquisadores, como Rufin VanRullen, diretor de pesquisa no Centre Nationale de la Recherche Scientifique da França, que recentemente obteve financiamento para construir uma IA com um espaço de trabalho global, agora estão trabalhando ativamente para dotar a IA dos fundamentos potenciais da consciência.

O lado negativo de uma moratória na construção de sistemas potencialmente conscientes, diz VanRullen, é que sistemas como o que ele está tentando criar podem ser mais eficazes do que a IA atual. “Sempre que ficamos desapontados com o desempenho atual da IA, é sempre porque está ficando para trás do que o cérebro é capaz de fazer”, diz ele. “Então, não é necessariamente que meu objetivo seja criar uma IA consciente – é mais que o objetivo de muitas pessoas na IA agora é avançar para essas capacidades de raciocínio avançadas”. Tais capacidades avançadas poderiam conferir benefícios reais: já estão sendo testados em ensaios clínicos medicamentos projetados por IA. Não é inconcebível que a IA na zona cinzenta possa salvar vidas.

VanRullen é sensível aos riscos da IA consciente – ele trabalhou com Long e Mudrik no artigo sobre a detecção de consciência em máquinas. Mas são esses riscos, diz ele, que tornam sua pesquisa importante. As probabilidades são de que a IA consciente não surgirá primeiro de um projeto visível e financiado publicamente como o dele; pode muito bem ser necessário o financiamento substancial de uma empresa como Google ou OpenAI. Essas empresas, diz VanRullen, provavelmente não receberão bem os dilemas éticos que um sistema consciente introduziria. “Isso significa que, quando isso acontecer no laboratório, eles simplesmente fingirão que não aconteceu? Isso significa que não saberemos disso?” ele diz. “Acho isso bastante preocupante.”

Acadêmicos como ele podem ajudar a mitigar esse risco, diz ele, obtendo uma compreensão melhor de como a consciência funciona, tanto em humanos quanto em máquinas. Esse conhecimento poderia permitir que os reguladores policiassem mais efetivamente as empresas que são mais propensas a começar a experimentar na criação de mentes artificiais. Quanto mais entendemos a consciência, menor fica essa zona cinzenta precária – e maior a chance de sabermos se estamos nela ou não. Quanto a Schwitzgebel, ele prefere que evitemos completamente a zona cinzenta. Mas dada a magnitude das incertezas envolvidas, ele admite que essa esperança é provavelmente irrealista – especialmente se a IA consciente acabar sendo lucrativa. E uma vez na zona cinzenta – uma vez que precisamos levar a sério os interesses de seres debatíveis conscientes – navegaremos por terrenos ainda mais difíceis, lidando com problemas morais de complexidade sem precedentes sem um mapa claro de como resolvê-los. Cabe aos pesquisadores, desde filósofos até neurocientistas e cientistas da computação, assumir a formidável tarefa de desenhar esse mapa.


Fonte:

Periódico MIT Technology Review, edição de outubro de 2023. O autor desse artigo é Grace Huckins, ele é um especialista em ciência e tecnologia e publica seus artigos a partir de sua base em San Francisco, na Califórnia.