O futuro (e o iminente declínio) da inteligência artificial tem sido fonte de debate por décadas.
“Se uma máquina deve interagir de forma inteligente com as pessoas, ela precisa ser dotada de uma compreensão da vida humana.”
Dreyfus e Dreyfus
Previsões ousadas sobre tecnologia pavimentam o caminho para a humildade. Até mesmo gigantes como Albert Einstein têm um outdoor ou dois ao longo dessa estrada de lições de modéstia. Um exemplo clássico vem de John von Neumann, pioneiro da arquitetura moderna de computadores, que escreveu em 1949: “Parece que alcançamos os limites do que é possível realizar com a tecnologia de computadores.” Entre as inúmeras manifestações de avanços computacionais que desafiaram a previsão de von Neumann está o modelo de 1958 do psicólogo social Frank Rosenblatt sobre a rede neural do cérebro humano. Ele chamou seu dispositivo, baseado no computador IBM 704, de “Perceptron” e o treinou para reconhecer padrões simples. Perceptrons eventualmente levaram ao aprendizado profundo e à inteligência artificial moderna.
Em uma previsão igualmente ousada, mas falha, os irmãos Hubert e Stuart Dreyfus, professores da Universidade da Califórnia em Berkeley com especialidades muito diferentes (Hubert em filosofia e Stuart em engenharia), escreveram em uma matéria de janeiro de 1986 na revista Technology Review que “há quase nenhuma probabilidade de que cientistas consigam desenvolver máquinas capazes de tomar decisões inteligentes.” O artigo baseava-se no livro dos Dreyfus, que seria publicado em breve, *Mind Over Machine* (Macmillan, fevereiro de 1986), onde eles descrevem seu modelo de cinco estágios para a aquisição de habilidades humanas. Hubert (que faleceu em 2017) foi um crítico da inteligência artificial por muito tempo, publicando artigos e livros céticos desde a década de 1960.
Stuart Dreyfus, que ainda é professor em Berkeley, está impressionado com o progresso da inteligência artificial. “Acho que não me surpreendo com o aprendizado por reforço”, diz ele, embora continue cético e preocupado com certas aplicações de IA, especialmente os grandes modelos de linguagem, como o ChatGPT. “As máquinas não têm corpos”, ele observa. E acredita que essa falta de corporeidade é limitante e cria riscos: “Parece-me que, em qualquer área que envolva possibilidades de vida ou morte, a IA é perigosa, porque ela não sabe o que a morte significa.”
De acordo com o modelo de aquisição de habilidades dos Dreyfus, ocorre uma mudança intrínseca à medida que o conhecimento humano avança por cinco estágios de desenvolvimento: novato, iniciante avançado, competente, proficiente e especialista. “Uma diferença crucial entre iniciantes e performers mais competentes é o nível de envolvimento”, explicaram os pesquisadores. “Novatos e iniciantes sentem pouca responsabilidade pelo que fazem, porque estão apenas aplicando as regras aprendidas.” Se falham, culpam as regras. Performers especialistas, no entanto, sentem responsabilidade por suas decisões porque, à medida que seu conhecimento se torna profundamente integrado em seus cérebros, sistemas nervosos e músculos — uma habilidade incorporada —, eles aprendem a manipular as regras para atingir seus objetivos. Eles assumem o resultado.
Essa relação inextricável entre a tomada de decisões inteligentes e a responsabilidade é um ingrediente essencial para uma sociedade civilizada e funcional, e alguns dizem que está ausente nos sistemas especializados de hoje. Também ausente está a capacidade de se importar, de compartilhar preocupações, de fazer compromissos, de ter e interpretar emoções — todos os aspectos da inteligência humana que vêm de ter um corpo e se mover pelo mundo.
À medida que a inteligência artificial continua a se infiltrar em tantos aspectos de nossas vidas, podemos ensinar as futuras gerações de sistemas especializados a se sentirem responsáveis por suas decisões? A responsabilidade — ou cuidado, compromisso ou emoção — é algo que pode ser derivado de inferências estatísticas ou extraído dos dados problemáticos usados para treinar a IA? Talvez, mas mesmo assim, a inteligência das máquinas não seria equivalente à inteligência humana — seria algo diferente, como os irmãos Dreyfus previram há quase quatro décadas.
Fonte:
Periódico MIT Technology Review, edição de setembro/outubro de 2024
Sobre o autor:
Bill Gourgey é um escritor de ciência e tecnologia baseado em Washington, D.C., que contribui regularmente para a publicação periódica MIT Technology Review e outras publicações como Popular Science e Wired. Ele possui formação acadêmica em Engenharia Elétrica, Ciências dos Materiais e Escrita Científica, com diplomas pela Cornell University e Johns Hopkins University. Além disso, Gourgey é autor de livros de ficção científica e thrillers, incluindo a série Glide Trilogy. Ele também ensina ciências na Johns Hopkins University e colabora com startups tecnológicas.