Por que CEOs devem pensar duas vezes antes de usar IA para redigir mensagens

O que aconteceria se os CEOs começassem a escrever comunicações internas usando inteligência artificial generativa? Alguém perceberia? Provavelmente não, segundo um novo estudo. Mas isso não significa que os CEOs devem usá-la para redigir tudo. Veja o que eles podem fazer para escrever com IA de forma eficaz e transparente.

Dado o quão eficaz a IA é em imitar a escrita humana, não é surpresa que os CEOs estejam experimentando usá-la para redigir mensagens pessoais. Uma pesquisa da Harvard Business School de 2018 calculou que 24% do tempo médio de um executivo é dedicado à comunicação eletrônica. Mas o que aconteceria se os CEOs começassem a redigir comunicações para funcionários usando IA generativa?

Um grupo de pesquisadores investigou essa questão no ano passado na Zapier, uma empresa de software norte-americana com mais de 700 funcionários. O professor Prithwiraj Choudhury, da Harvard Business School, junto com Bart Vanneste (University College London), Xi Kang (Vanderbilt) e Amirhossein Zohrehvand (Universidade de Leiden), quis descobrir se os funcionários conseguiam distinguir mensagens escritas por IA daquelas escritas pelo CEO da Zapier, Wade Foster. Usando um modelo de linguagem desenvolvido pelos próprios funcionários da empresa, Choudhury e seus colegas treinaram um chatbot com mensagens de Slack e e-mails de Foster, declarações públicas e outras comunicações. O “Wade Bot”, como os pesquisadores o apelidaram, foi projetado especificamente para escrever como Foster.

“A IA e a automação estão tendo um grande impacto em como e onde trabalhamos”, diz Choudhury. “Mas quando pensamos na próxima fronteira da IA generativa, uma das possibilidades é que bots pessoais se comuniquem, participem de reuniões, escutem e falem em nosso nome. Queríamos determinar até que ponto isso já é possível hoje.”

Os pesquisadores coletaram perguntas para Foster responder de 105 funcionários. O CEO e o Wade Bot produziram respostas, e os funcionários tentaram identificar qual delas havia sido escrita pela IA. Eles acertaram 59% das vezes.

Houve outro achado surpreendente. Quando os funcionários foram convidados a avaliar se as respostas eram úteis, aquelas que acreditavam ter sido geradas por IA foram classificadas como menos úteis — mesmo quando haviam sido escritas por Foster.

Os pesquisadores então realizaram um segundo estudo para verificar se os resultados seriam diferentes caso os avaliadores não conhecessem o autor. Eles recrutaram 218 pessoas nos Estados Unidos e pediram que lessem respostas que os participantes acreditavam ter sido dadas por CEOs durante teleconferências de resultados. Algumas respostas eram reais, outras foram geradas por uma ferramenta de IA que imitava o estilo dos CEOs. O estudo mostrou que, quando as pessoas achavam que uma resposta tinha sido criada por IA, elas a consideravam menos útil — mesmo que tivesse sido escrita por um humano. Por outro lado, quando acreditavam que a resposta era de um CEO, achavam-na mais útil — mesmo que tivesse sido gerada por IA.

Em termos simples, as pessoas confiam mais e dão mais valor a declarações que acreditam ter vindo de um ser humano, e não da tecnologia. Isso sugere que, embora a IA possa produzir informações úteis, a percepção das pessoas desempenha um papel importante na forma como essas informações são recebidas.

Ainda assim, a maioria dos líderes utilizará a IA generativa de alguma forma. Cinquenta por cento dos CEOs dos EUA dizem que suas empresas já automatizaram a criação de conteúdo com ela, segundo uma pesquisa da Deloitte de 2024. Setenta e cinco por cento dizem que já usaram ou estão usando a tecnologia pessoalmente. Se você decidir fazer o mesmo, Choudhury recomenda seguir três diretrizes:

1. Seja transparente.

Se seus funcionários descobrirem que você terceirizou suas comunicações sem avisá-los, podem começar a acreditar que toda mensagem enviada por você foi escrita por um robô. A transparência é essencial para construir confiança e reduzir a aversão das pessoas à IA generativa. Comunique claramente qual é o papel da ferramenta e seus benefícios. Diga aos funcionários o que você considera um uso aceitável da IA, quais são as orientações para extrair textos e dados das respostas da ferramenta e quais dados você utiliza ou evita ao formular comandos e treinar bots.

Sua empresa deve ter regras sobre até que ponto os funcionários podem — e até devem — usar IA. Siga essas regras, obviamente, mas também informe como você está utilizando a tecnologia dentro desses parâmetros. Isso ajudará a incentivar um uso construtivo e a esclarecer dúvidas relacionadas.

2. Use IA para mensagens impessoais.

Segundo a pesquisa de Choudhury, a tecnologia é mais eficaz em comunicações formais, como cartas para acionistas ou memorandos estratégicos. Evite usá-la para mensagens pessoais, especialmente com pessoas que o conhecem bem.

No experimento da Zapier, os funcionários com mais tempo de empresa foram mais propensos a identificar respostas geradas por IA. Aqueles que estavam na empresa há três anos ou mais, por exemplo, tiveram uma taxa de acerto maior (62%) do que os funcionários mais novos (58%). Choudhury acredita que a familiaridade com o estilo de comunicação de Foster dificultou o sucesso do bot em imitá-lo. No entanto, o estilo pessoal de um CEO é muito menos perceptível em textos formais do que em um e-mail para um subordinado ou uma postagem no LinkedIn.

“O uso ideal da IA hoje deve ser para se comunicar com desconhecidos ou automatizar as partes maçantes da escrita”, diz Choudhury. “Você pode usá-la para responder perguntas sobre sua estratégia de preços ou o que espera que aconteça com as taxas de juros no próximo ano. Mas eu não usaria para escrever um e-mail para um membro do conselho sobre suas últimas férias.”

3. Revise seu trabalho três vezes.

Não confie na IA generativa para produzir respostas de forma totalmente autônoma. A tecnologia comete erros com frequência e tende a depender excessivamente de jargões e palavras da moda. Esses desafios representam grandes riscos para CEOs, cujas mensagens podem ter um impacto significativo sobre funcionários, acionistas e clientes. Em vez de simplesmente copiar e colar as respostas da IA em um documento, revise e verifique cada palavra — especialmente em mensagens importantes e sensíveis. Você também deve pedir que um editor revise as comunicações geradas por tecnologia (ou qualquer comunicação, na verdade) para garantir que o conteúdo, o tom e a personalidade estejam alinhados com sua intenção.

“Nunca aperte o botão de enviar sem ler e verificar a mensagem”, diz Choudhury. “A IA generativa é uma ótima ferramenta que pode economizar muito tempo dos CEOs, mas não acho que ela deva funcionar totalmente sozinha. Mesmo que erre apenas uma resposta, isso pode gerar enormes consequências indesejadas.”


HBR Entrevista:

Quando uso IA generativa, devo me responsabilizar por tudo na mensagem

Wade Foster é cofundador e CEO da Zapier, uma empresa global de software totalmente remota. Recentemente, ele conversou com a HBR sobre o experimento do professor Choudhury e como um chatbot treinado com base em seus textos mudou seu processo criativo. A seguir, trechos editados da conversa.

Entrevista publicada na edição maio / junho da HBR – tradução pelo ChatGPT

Como você usa IA generativa para escrever?

Eu a utilizo para redigir e-mails longos e mensagens no Slack. Ela também é boa para compor respostas a perguntas frequentes e lidar com documentos padronizados, como comunicados de imprensa. Muitas pessoas me enviam e-mails pedindo conselhos, e algumas dessas perguntas eu já respondi inúmeras vezes. Há algum tempo, carreguei um documento com um banco de respostas na nossa ferramenta de IA generativa. Quando uma pergunta repetida chega, posso usar a ferramenta para produzir uma resposta que é genuinamente minha. Não preciso reescrever tudo ou procurar os dados que sustentam a resposta. Eles já estão ali para mim.

Quão transparente você é com os funcionários sobre o uso de IA?

Todo mundo na Zapier sabe que eu uso IA generativa para me ajudar a escrever, mas não divulgo isso toda vez que envio uma mensagem. Existem áreas em que temos diretrizes e políticas rigorosas sobre IA. O uso de dados de clientes, por exemplo, é extremamente restrito. Fazemos a aplicação ativa dessas diretrizes, então qualquer trabalho com dados de clientes deve ser feito com 100% de transparência e extremo cuidado. Mas fora desses casos, esperamos que as pessoas usem bom senso. Eu não preciso saber que a IA ajudou você a escrever uma apresentação em PowerPoint, mas preciso saber que você leu e conferiu cada palavra naquele arquivo. O mesmo vale para mim: quando uso IA generativa, eu decido se vou utilizar o que ela produziu, e preciso me responsabilizar por tudo que estiver na mensagem.

Como a IA generativa mudou seu processo de escrita?

Meus primeiros rascunhos estão muito mais refinados do que costumavam ser. Nunca tive redatores ou pessoas de relações públicas escrevendo por mim; eu diria que 90% da minha comunicação sempre veio de mim mesmo. As pessoas que revisavam meu trabalho ou davam feedback ainda fazem isso, só que agora sabem que precisam estar atentas a certos elementos que todos nós devemos observar ao lidar com textos assistidos por IA, como alucinações e linguagem truncada ou robótica. Elas também identificam aspectos que a IA não perceberia, porque conhecem o contexto específico da Zapier — nossa cultura, estratégia e base de clientes. Modelos genéricos de linguagem não têm esse contexto, então não conseguem me oferecer conselhos ou feedback que exigem esse nível de especificidade.

A imitação do seu estilo de escrita pelo bot te impressionou?

Foi meio a meio. Houve momentos em que li uma resposta e pensei: “Isso está melhor do que eu conseguiria escrever!” Nunca li uma resposta e pensei: “Isso não parece comigo!” Mas houve momentos em que pensei: “Não concordo totalmente.” Quanto mais eu refletia sobre aquelas respostas, mais conseguia traçar uma ligação com algo que já tinha escrito no passado. Mas o bot não captava o contexto e as nuances dessas respostas anteriores. Outras pessoas talvez não percebessem que havia algo errado, mas como ele estava imitando a mim, eu percebia.

Quais outros usos de IA generativa você gostaria de testar?

Estamos discutindo se uma versão chatbot de mim, como a usada no experimento do professor Choudhury, pode servir como uma espécie de representante meu. Então, se um funcionário estiver enfrentando uma situação específica e quiser saber como eu reagiria, ele pode conversar com o Wade Bot para ver qual conselho receberia. Existem formas pelas quais uma versão em bot de mim pode ser um apoio melhor para os funcionários do que eu mesmo. O bot é mais paciente, nunca está irritado por causa de uma reunião anterior, não julga você nem sua pergunta. Eu tento não fazer essas coisas, mas sou humano. Teríamos que incluir avisos e ressalvas para que as pessoas não tratem as respostas do Wade Bot como ordens diretas minhas, mas acho que seria mais uma forma útil de apoio.