Como Capitalizar na IA Generativa

Um guia para aproveitar seus benefícios enquanto limita seus riscos

O dilema:

Sistemas iniciais de IA generativa têm um enorme potencial, mas também são propensos a fabricar respostas, invadir a privacidade e violar direitos de propriedade intelectual. Dado os riscos, os líderes estão corretos ao adotar uma atitude de espera?

Por que mergulhar nessa tecnologia?

Essa nova tecnologia é semelhante à máquina a vapor, eletricidade e internet, mas com uma grande diferença: enquanto aquelas tecnologias de uso geral levaram décadas para ter um impacto significativo na concorrência e na economia, a IA generativa o fará em poucos anos.

Como proceder?

  • Faça um inventário dos seus trabalhos de conhecimento.
  • Identifique quais desses papéis se beneficiariam mais da assistência da tecnologia.
  • Priorize projetos cujo ratio de benefícios para custos seja o maior.
  • Aproveite as maneiras disponíveis de reduzir os riscos da IA generativa.
  • Use a abordagem ágil para desenvolver aplicações.

Líderes empresariais estão lutando para entender quão seriamente devem levar o mais recente fenômeno no mundo da inteligência artificial: a IA generativa. Por um lado, ela já demonstrou uma incrível capacidade de criar novos conteúdos como música, discurso, texto, imagens e vídeo, sendo atualmente usada, por exemplo, para escrever software, transcrever interações de médicos com seus pacientes e permitir que pessoas conversem com um sistema de gerenciamento de relacionamento com o cliente. Por outro lado, está longe de ser perfeita: às vezes produz resultados distorcidos ou completamente fabricados e pode ignorar preocupações com privacidade e direitos autorais.

  • A importância da IA generativa está sendo superestimada?
  • Seus riscos valem as potenciais recompensas?
  • Como as empresas podem descobrir onde aplicá-la melhor?
  • Quais devem ser seus primeiros passos?

Para fornecer orientação, este artigo se baseia em nossa pesquisa, que inclui estudos de projetos específicos de IA generativa e análises amplas de como a tecnologia afetará tarefas e empregos em toda a economia.

Uma grande empresa de software empresarial que um de nós (Erik) estudou junto com Lindsey Raymond e Danielle Li do MIT ilustra que há maneiras de colher os benefícios da IA generativa e conter seus riscos. Os agentes de atendimento ao cliente da empresa, que ajudam as pessoas via chats online, enfrentavam um desafio comum: novos contratados precisavam de vários meses para se familiarizarem com a resposta a perguntas técnicas e lidar com clientes confusos, mas muitos desistiam antes de se tornarem proficientes.

A empresa viu a IA generativa como uma solução. Engajou a Cresta (na qual Erik é consultor), uma startup de IA generativa, para implementar dois tipos de inteligência artificial.

A primeira era um grande modelo de linguagem (LLM), projetado para entender e responder aos humanos em suas próprias palavras, que “ouvia” os chats. Foi ajustado para reconhecer frases que levavam a bons resultados de atendimento ao cliente em várias situações. Mas, devido ao risco de confabulações, ou respostas plausíveis mas incorretas, o sistema também usava uma técnica de aprendizado de máquina chamada aprendizado em contexto, que extraía respostas de manuais de usuário e documentos relevantes.

O LLM monitorava os chats online em busca de frases específicas e, quando uma delas ocorria, baseava suas respostas nas informações do sistema de aprendizado em contexto. Como uma salvaguarda adicional, não respondia diretamente às consultas. Em vez disso, os agentes humanos podiam usar seu bom senso para decidir se usavam ou ignoravam as sugestões do LLM.

Após um piloto de sete semanas, o sistema foi implementado para mais de 1.500 agentes. Em dois meses, vários benefícios surgiram. Tanto o número médio de problemas resolvidos por hora quanto o número de chats que um agente podia lidar simultaneamente aumentaram em quase 15%; o tempo médio de chat diminuiu quase 10%; e uma análise dos registros dos chats mostrou que, imediatamente após a implementação do novo sistema, a satisfação do cliente melhorou. Expressões de frustração diminuíram, por exemplo, assim como a digitação em letras maiúsculas.

É especialmente interessante que os agentes menos qualificados, que também eram frequentemente os mais novos, se beneficiaram mais. Por exemplo, as resoluções por hora pelos agentes que estavam entre os 20% mais lentos antes da introdução do novo sistema aumentaram em 35%. (A taxa de resolução dos 20% mais rápidos não mudou.) O sistema de IA generativa era uma tecnologia de aprimoramento rápido de habilidades. Disponibilizou para todos os agentes conhecimentos que anteriormente vinham apenas com experiência ou treinamento. Além disso, a rotatividade de agentes caiu, especialmente entre aqueles com menos de seis meses de experiência — talvez porque as pessoas tendem a permanecer quando têm ferramentas poderosas para ajudá-las a fazer melhor seu trabalho.

Dado o potencial da IA generativa para melhorar a produtividade em muitas outras funções — de fato, qualquer que envolva tarefas cognitivas — chamá-la de revolucionária não é um exagero. Os líderes empresariais devem vê-la como uma tecnologia de propósito geral, semelhante à eletricidade, à máquina a vapor e à internet. Mas, embora o pleno potencial dessas outras tecnologias tenha demorado décadas para ser realizado, o impacto da IA generativa no desempenho e na competição em toda a economia será claro em apenas alguns anos.

Isso porque as tecnologias de propósito geral do passado exigiram uma grande quantidade de infraestrutura física complementar (linhas de energia, novos tipos de motores e eletrodomésticos, fábricas redesenhadas, etc.), junto com novas habilidades e processos empresariais.

Esse não é o caso da IA generativa.

Grande parte da infraestrutura necessária já está em vigor: a nuvem, software como serviço, interfaces de programação de aplicativos, lojas de aplicativos e outros avanços continuam reduzindo o tempo, o esforço, a expertise e o custo necessários para adquirir e começar a usar novos sistemas de informação. Como resultado, está ficando cada vez mais fácil para as empresas implantar praticamente qualquer tecnologia digital. Essa é uma grande razão pela qual o ChatGPT foi de zero a 100 milhões de usuários em 60 dias. À medida que a Microsoft, o Google e outros provedores de tecnologia incorporam ferramentas de IA generativa em suas suítes de escritório, clientes de e-mail e outras aplicações, bilhões de usuários ganharão acesso rapidamente como parte de sua rotina diária.

A IA generativa também será implantada rapidamente porque as pessoas interagem com esses sistemas conversando com eles como fariam com outra pessoa. Isso reduz as barreiras de entrada para alguns tipos de trabalho (imagine escrever software explicando para um LLM em linguagem cotidiana o que você quer realizar). Além disso, esses sistemas não exigirão necessariamente que as empresas mudem processos empresariais inteiros; a princípio, serão usados apenas para tarefas discretas, o que tornará sua adoção muito mais fácil. Usar tecnologia para reestruturar todos os aspectos de como uma empresa interage com seus clientes, por exemplo, é uma grande empreitada; usá-la para sugerir melhores respostas em chats para agentes de atendimento ao cliente não é. Com o tempo, no entanto, a IA generativa trará grandes e profundas mudanças na forma como as empresas realizam seu trabalho mais importante.

Consequentemente, os líderes empresariais não devem ficar à margem esperando para ver como o uso da IA generativa se desenvolve. Eles não podem se dar ao luxo de deixar que os concorrentes os ultrapassem.

Como a IA Generativa afetará os empregos da sua empresa?

Previsões sobre os tipos e números de empregos que serão substituídos pela IA generativa são abundantes. Mas é mais útil pensar nas tarefas cognitivas que a tecnologia poderia realizar ou ajudar a realizar. Pesquisas conduzidas por um de nós (Daniel), Sam Manning da OpenResearch, e Tyna Eloundou e Pamela Mishkin da OpenAI adotaram essa abordagem. O ponto de partida foi o banco de dados O*NET, mantido e atualizado pelo governo dos EUA desde 1998.

O O*NET inclui quase 1.000 ocupações e desmembra cada uma em suas tarefas constituintes — tipicamente de 20 a 30. Por exemplo, segundo o O*NET, radiologistas têm 30 tarefas distintas, incluindo “realizar ou interpretar os resultados de procedimentos de imagem diagnóstica” e “desenvolver planos de tratamento para pacientes de radiologia.”

Os pesquisadores, com a assistência de pessoas escolhidas pela OpenAI, responderam a duas perguntas: Quais tarefas de cada trabalho do O*NET poderiam ser realizadas pelo menos duas vezes mais rápido com a ajuda da IA generativa, sem queda significativa na qualidade? E, dessas tarefas “expostas”, quais precisariam de pelo menos um sistema adicional além da IA generativa para colher os ganhos de produtividade? A equipe de pesquisa também perguntou ao GPT-4 da OpenAI as mesmas duas perguntas e comparou suas respostas com as das pessoas. As respostas foram semelhantes.

Este esforço revelou que 80% dos trabalhadores dos EUA têm pelo menos 10% de suas tarefas expostas à IA generativa, e 19% dos trabalhadores têm mais da metade de suas tarefas expostas. Mas “expostas” não significa que essas tarefas serão ou deveriam ser automatizadas. Em muitos casos, o melhor uso da IA generativa será tornar os trabalhadores humanos mais produtivos ou criativos, não substituí-los.

Programadores são um exemplo.

Eles já usam muito LLMs como o GitHub Copilot para escrever o primeiro rascunho de seu código, mas ainda precisam corrigir erros; consultar pessoal gerencial, de engenharia e técnico para esclarecer a intenção do programa; treinar subordinados; e realizar muitas outras tarefas que não são adequadas para a IA generativa. À medida que os LLMs melhoram na escrita de código, os programadores terão mais tempo e energia para dedicar a outras tarefas. (Para mais sobre como a IA generativa pode ajudar mas não substituir os trabalhadores, veja “Como a IA Generativa Pode Aumentar a Criatividade Humana,” HBR, julho–agosto de 2023.)

Os líderes podem adotar uma versão dessa abordagem de pesquisa para ter uma ideia de onde a IA generativa pode ser mais produtivamente aplicada em suas organizações. Todo conselho de administração deve esperar que seu CEO desenvolva um plano de ação. Fazer isso é um processo de três partes.

Primeiro, faça um inventário aproximado dos empregos de trabalho do conhecimento:

  • Quantas pessoas em sua empresa escrevem como atividade principal?
  • Quantos analistas de dados, gerentes, programadores, agentes de atendimento ao cliente, e assim por diante, você tem?

Em seguida, faça duas perguntas sobre cada função. A primeira é:

Quanto um funcionário nessa função se beneficiaria de ter um assistente competente, mas ingênuo — alguém que se destaca em programação, redação, preparação de dados ou resumo de informações, mas não sabe nada sobre nossa empresa?

Os LLMs disponíveis publicamente hoje são como esse assistente. Eles podem escrever código, por exemplo, mas não sabem quais são suas necessidades de desenvolvimento de software ou integração de sistemas. Eles podem criar um plano de projeto ou criticar um existente, mas não sabem em quais projetos você está trabalhando.

A segunda pergunta é:

Quanto um funcionário nessa função se beneficiaria de ter um assistente experiente — alguém que está na empresa há tempo suficiente para absorver seu conhecimento especializado?

A empresa de software descrita no início deste artigo não precisava de agentes de atendimento ao cliente ingênuos; precisava de agentes que soubessem quais tipos de problemas ocorriam com seus produtos e pudessem trabalhar de maneira eficaz com os clientes para resolvê-los. É por isso que combinou um LLM voltado para o cliente com aprendizado em contexto. Como este exemplo indica, quando uma empresa precisa acessar seu conhecimento interno específico, ela geralmente deve combinar IA generativa “de prateleira” com outro sistema.

Finalmente, uma vez que as funções de trabalho do conhecimento da sua empresa tenham sido inventariadas e essas duas perguntas respondidas, priorize os esforços mais promissores de IA generativa.

Esta tarefa é simples: escolha aqueles com a maior relação benefício-custo.

Para estimar os benefícios, veja o valor total que a empresa está gastando em compensação para cada função. O propósito não é identificar posições para eliminação; em vez disso, é identificar oportunidades para grandes melhorias de produtividade — onde novos assistentes digitais serão mais valiosos.

Como é o caso com outros esforços de transformação digital, o custo de um projeto de IA generativa é uma combinação de dinheiro, tempo e oportunidades perdidas — os projetos que você não está perseguindo porque a IA generativa é uma prioridade maior. Esforços com LLM de prateleira são relativamente baratos e rápidos, enquanto projetos que requerem a integração da IA generativa com outro sistema levam mais tempo e são mais caros (embora não em comparação com muitos outros esforços de TI).

Atualmente, a maioria dos projetos de IA generativa está focada em melhorar tarefas específicas. Isso é apropriado, porque existem muitas oportunidades para usar a tecnologia dessa maneira. Mas à medida que amadurece e as empresas ganham experiência com ela, os esforços de IA generativa englobarão processos empresariais inteiros em vez de tarefas individuais.

Por exemplo, serão usados para transformar todos os aspectos da interação de uma empresa com os clientes, não apenas para melhorar os chats de solução de problemas online. A IA generativa ainda é uma tecnologia nascente, e não podemos prever exatamente como será utilizada nos próximos anos. Mas podemos prever com confiança que terá um grande papel nas estratégias digitais de empresas bem-sucedidas.

Remediando o Problema da “Confabulação”

Dado o grande impacto que a IA generativa promete ter em uma ampla variedade de negócios no futuro próximo, a resposta a uma de suas maiores falhas — a capacidade de fabricar informações — não deve ser evitar a tecnologia. Em vez disso, deve-se adotar medidas para proteger contra esse perigo. Aqui estão algumas maneiras de fazer isso.

Construir LLMs em vários níveis ou combiná-los com outro sistema. Empresas que constroem LLMs estão bem cientes de que esses sistemas confabulam e estão trabalhando em maneiras de minimizar o problema. Uma técnica é reconhecer quando uma solicitação do usuário não é adequada para a abordagem padrão de um LLM, que é formular uma resposta com base em associações entre todas as palavras e frases em que foi treinado. Para essas solicitações, o sistema adota uma abordagem diferente.

logo novo google

Por exemplo, em resposta a uma consulta que tem uma única resposta correta, o Bard do Google agora escreve um algoritmo para produzir essa resposta, que ele relata ao usuário (junto com o código). Por exemplo, quando perguntado para inverter a palavra “Lollipop,” ele escreveu algumas linhas de código para realizar a tarefa e retornou “popilloL.” E, como mencionado, o projeto para melhorar o atendimento ao cliente empregou um LLM para monitorar chats online e entender as perguntas dos clientes, mas o sistema de aprendizado em contexto moldou suas respostas.

Suplementar o LLM com um humano.

Os usuários devem considerar a saída de um LLM com cautela. Por exemplo, profissionais de marketing que usam um LLM para gerar textos para um site ou uma campanha de mídia social podem olhar para o que o sistema cria e avaliar rapidamente se está adequado. Engenheiros de software podem verificar se o código produzido pela IA generativa funciona e realiza a tarefa desejada. Mesmo que não funcione, segundo os engenheiros, a abordagem utilizada pode ajudá-los a resolver a tarefa em questão. E médicos que usam LLMs para transcrever e resumir visitas com pacientes consentidos estão relatando grandes reduções no tempo necessário para documentar essas visitas.

Um médico disse a Steve Lohr, do New York Times, que um LLM reduziu o tempo que ele gastava por dia nessa tarefa de até duas horas para cerca de 20 minutos. Os médicos ainda precisam revisar os resumos gerados pela IA, mas não precisam mais interagir simultaneamente com seus pacientes e tentar fazer anotações sobre a interação. Como resultado, outro médico disse a Lohr, “A IA me permitiu, como médico, estar 100% presente para meus pacientes.” Da mesma forma, no exemplo de atendimento ao cliente, os agentes usaram seu próprio julgamento para verificar a razoabilidade das respostas da IA.

Quando não usar um LLM.

Algumas tarefas são arriscadas demais para que a IA generativa esteja envolvida. Por exemplo, um sistema que prescreve os medicamentos corretos 90% das vezes, mas confabula em um caso a cada 10, é inaceitavelmente inseguro para ser usado sozinho. Também não economizaria tempo dos médicos, pois eles teriam que verificar cuidadosamente todas as recomendações antes de passá-las aos pacientes. Mesmo para tarefas em que a segurança não é um problema, a tendência dos LLMs de confabular pode descartá-los.

Quando um de nós (Andy) estava montando as notas finais para seu livro mais recente, ficou empolgado ao saber que o ChatGPT poderia pegar uma lista de livros, artigos e sites e gerar um conjunto de referências devidamente formatadas para eles. Mas, ao verificar sua saída, ficou desapontado ao descobrir que algumas das referências estavam erradas. Quando ele forneceu a URL de um artigo, às vezes gerava uma referência com um título plausível, mas inventado, dava uma data de publicação incorreta ou atribuía o artigo ao autor errado. Ele achou mais rápido criar todas as referências manualmente do que verificar todos os aspectos das geradas pelo LLM.

Mitigando Invasão de Privacidade, Problemas de Propriedade Intelectual e Viés

Se você usar um relatório confidencial para ajudar a treinar um sistema de IA generativa, partes do conteúdo desse relatório podem aparecer posteriormente na resposta a um comando de alguém que não deveria ter acesso a essa informação. Portanto, é importante estar claro sobre as políticas de privacidade de qualquer IA generativa que você esteja usando. A boa notícia é que LLMs e privacidade estrita não são incompatíveis.

A Mayo Clinic, por exemplo, anunciou um esforço para implantar um LLM interno que ajudará seus provedores de saúde a buscar informações em várias fontes, incluindo páginas da web, documentos internos e prontuários de pacientes. Se um médico solicitar: “Mostre-me os resultados dos testes de hoje para todos os meus pacientes”, o LLM gerará consultas ao sistema de prontuários eletrônicos e apresentará os resultados. Para tornar o sistema compatível com os requisitos da Lei de Portabilidade e Responsabilidade de Seguro de Saúde (HIPAA) em relação à privacidade e confidencialidade das informações dos pacientes, a Mayo designará quais de seus funcionários estão autorizados a acessar informações de saúde protegidas.

Além das confabulações e preocupações com a privacidade, um risco com alguns LLMs é a violação de direitos de propriedade intelectual (PI). O ChatGPT foi treinado com enormes quantidades de texto, algumas das quais ainda estão cobertas por direitos autorais ou outros direitos de PI. O mesmo é verdade para novos sistemas de geração de imagens por IA, como o Stable Diffusion e o Midjourney, ambos processados por violação de direitos autorais. As empresas podem estar expostas a responsabilidade legal se as imagens produzidas pela IA generativa que usam forem encontradas em violação das leis de PI.

Como resultado, muitas organizações estão esperando para ver como os casos judiciais são decididos antes de mergulhar na IA generativa. Mas, para incentivar a adoção imediata, alguns criadores desses sistemas estão protegendo os clientes do risco de PI. A Adobe, por exemplo, anunciou que indenizará os usuários do Firefly, sua IA geradora de imagens (que não foi treinada em imagens protegidas por direitos autorais), contra reivindicações legais.

Uma preocupação final com a IA generativa, assim como com a maioria dos outros tipos de inteligência artificial, é o viés. “Lixo entra, lixo sai” é um dos ditados mais antigos da era do computador, e é mais verdadeiro agora do que nunca. Se um sistema de aprendizado de máquina for treinado com dados tendenciosos, os resultados que ele gera refletirão esse viés. Se, por exemplo, uma empresa só contratou graduados universitários como programadores e usa seu histórico de contratações para treinar um sistema que ajuda a tomar decisões de contratação, esse sistema provavelmente rejeitará programadores altamente qualificados que não foram ou não terminaram a faculdade. Portanto, seja vigilante ao colocar a IA generativa para trabalhar. Pergunte a si mesmo: “Estamos esperando que este sistema forneça resultados menos tendenciosos do que os dados nos quais foi treinado?” Se a resposta for sim, repense o projeto.

Esteja Pronto para Experimentar

Nas últimas décadas, as organizações líderes têm empregado o método ágil para desenvolver e adotar novos sistemas de informação com sucesso (ver “Embracing Agile,” HBR, maio de 2016). Elas gerenciam seus esforços com testes repetidos em vez de um planejamento extenso. Elas dividem projetos em ciclos curtos que podem ser concluídos em uma ou duas semanas, às vezes até menos. Os membros da equipe do projeto acompanham o progresso e refletem sobre o que aprenderam antes de iniciar o próximo ciclo.

Muitas vezes, na verdade, todo o ciclo é um experimento: o objetivo não é tanto construir algo, mas testar uma hipótese e ganhar entendimento. A IA generativa é ideal para essa abordagem iterativa. Suas forças e fraquezas são diferentes das de qualquer sistema anterior. É preciso descobrir como formular seus comandos para obter as respostas mais úteis.

Também é frequentemente necessário dizer ao sistema para tentar novamente e dar-lhe notas sobre como melhorar. Pedir para assumir uma persona ou direcionar para mudar seu tom ou estilo é muitas vezes eficaz. Interagir com um LLM dessa maneira é chamado de “engenharia de prompt” — uma disciplina jovem que ainda é mais arte do que ciência. O mesmo vale para descobrir como prevenir confabulações.

A melhor maneira de começar a aprender essas artes é encontrar um projeto com uma relação atraente entre custo e benefício e riscos baixos e começar a experimentar. A mesma abordagem deve ser usada com esforços mais ambiciosos para trabalhar com IA generativa, como combinar um LLM com outras tecnologias. A iteração rápida é a melhor maneira de aprender e fazer progressos. Quanto mais rápido uma organização puder passar por ciclos repetidos de OODA (observar a situação, orientar-se para a ação, decidir o que fazer e então agir), mais ela aprenderá, e mais rápido aparecerão ganhos de produtividade e outros benefícios.

A IA Generativa promete ter um grande impacto em como as empresas operam — e em poucos anos, não décadas a partir de agora. Sua tendência a confabular e seus riscos de privacidade, propriedade intelectual e viés são todas preocupações legítimas, mas que podem ser contidas. Os líderes não podem se dar ao luxo de adotar uma atitude de esperar para ver. Eles devem começar a explorar o potencial da tecnologia agora.

Fonte:

Periódico Harvard Business Review, novembro – dezembro de 2023

Sobre os autores:

ANDREW MCAFEE é pesquisador principal no MIT e autor do próximo livro The Geek Way.

DANIEL ROCK é professor assistente de operações, informações e decisões na Wharton School da Universidade da Pensilvânia.

ERIK BRYNJOLFSSON é diretor do Stanford Digital Economy Lab, professor no Stanford Institute for Human-Centered AI e pesquisador associado no National Bureau of Economic Research.

Eles são cofundadores da Workhelix, que cria estratégias e planos de implementação de IA generativa para empresas.


Nota do Editor

O artigo acima foi apresentado ao ChatGPT com a seguinte pergunta realizada após a apresentação do artigo:

ChatGPT, voce concorda com essas opiniões desses 3 pesquisadores?

A resposta do ChatGPT foi:

Como uma inteligência artificial, eu não tenho opiniões ou crenças próprias. No entanto, posso fornecer uma análise sobre os pontos de vista apresentados pelos três pesquisadores e destacar algumas considerações para ajudar a avaliar suas posições.

Os pesquisadores Andrew McAfee, Daniel Rock e Erik Brynjolfsson argumentam que a IA generativa terá um impacto significativo nas operações empresariais em um futuro próximo e que as empresas devem começar a explorar essa tecnologia agora, apesar dos desafios e riscos associados, como confabulações, problemas de privacidade, direitos de propriedade intelectual e vieses.

Pontos a favor dessa perspectiva:

1. Potencial Transformador:

A IA generativa pode automatizar tarefas cognitivas, melhorar a produtividade e possibilitar novas formas de criatividade e inovação, similar a outras tecnologias disruptivas do passado.

2. Rápida Adoção:

A infraestrutura tecnológica atual (como a nuvem e APIs) facilita a rápida implementação da IA generativa, tornando-a acessível a um grande número de usuários e empresas em um curto período.

3. Benefícios Competitivos:

As empresas que adotarem cedo a IA generativa podem ganhar uma vantagem competitiva significativa, melhorando a eficiência e a qualidade de seus serviços.

Pontos de cautela:

1. Confabulações:

A tendência das LLMs (Large Language Models) de gerar informações incorretas ou fabricadas pode levar a erros significativos, especialmente em áreas sensíveis como saúde e finanças.

2. Privacidade e Segurança:

O uso de dados confidenciais para treinar modelos de IA pode levar a violações de privacidade se não forem implementadas salvaguardas adequadas.

3. Violações de Propriedade Intelectual:

O treinamento de IA em grandes volumes de dados da internet pode resultar na utilização de materiais protegidos por direitos autorais, expondo as empresas a riscos legais.

4. Viés Algorítmico:

Os modelos de IA podem perpetuar ou amplificar vieses existentes nos dados de treinamento, levando a decisões injustas ou discriminatórias.

Conclusão

A perspectiva dos pesquisadores é fundamentada na observação do rápido avanço e potencial transformador da IA generativa. No entanto, é crucial que as empresas implementem essas tecnologias com cuidado, considerando os riscos e estabelecendo medidas para mitigá-los. A abordagem recomendada de experimentar de forma ágil e iterativa pode ajudar as empresas a aprender e ajustar suas estratégias à medida que avançam.

Portanto, enquanto os argumentos apresentados pelos pesquisadores são sólidos e promissores, as empresas devem equilibrar o entusiasmo com uma avaliação cuidadosa dos desafios e preparar-se para mitigá-los adequadamente.


Nota do Editor:

A resposta fornecida pelo ChatGPT versão 4 foi bem apresentável e bem estruturada, com introdução, apresentação dos nomes dos pesquisadores e uma síntese bem escrita, com uma conclusão bem fundamentada. Porém podemos facilmente entender que é apenas um modelo de linguagem, e não uma entidade consciente que é capaz de adicionar uma opinião pessoal que fuja do contexto original do estudo. Essa característica existe para evitar a confabulação, que foi estudada no artigo original.

Em nenhum momento o ChatGPT tentou contrariar a tese dos três pesquisadores. Pelo menos, até maio de 2024, ainda não existia algum modelo de linguagem que viesse a surpreender e exibir novas sínteses inéditas a partir de um texto apresentado.

Não por enquanto…