4 perguntas para avaliar a confiabilidade do GenAI da sua empresa
Shalene Gupta – Portal Harvard Business Review
Janeiro 18, 2024
Para as empresas, o advento da IA generativa promete uma mudança de paradigma com altos riscos e altas recompensas. Por um lado, promete enormes ganhos de produtividade. Por outro lado, os riscos de percorrer terrenos não testados com IA generativa são igualmente enormes. Como a tecnologia está evoluindo tão rapidamente, os problemas se revelam durante a implantação, enquanto as normas culturais sobre o que significa usar a inteligência artificial de forma ética ainda estão sendo debatidas.
No entanto, isso não significa que o público esteja perdoando se algo der errado. As notícias estão cheias de manchetes sobre a IA generativa que deu errado, desde a National Eating Disorder Helpline, que oferece conselhos sobre dieta para funcionários universitários da Universidade Vanderbilt usando o ChatGPT para escrever e-mails de condolências após o tiroteio de um estudante.
Enquanto isso, o ritmo da inovação está acelerando a uma velocidade vertiginosa. O ChatGPT atingiu 100 milhões de usuários em dois meses — um feito que levou 10 anos para a Netflix e seis anos e meio para o Google Translate. Como as empresas podem experimentar os benefícios da IA generativa e, ao mesmo tempo, manter a confiança dos clientes, funcionários e do público, para que todos possamos colher os benefícios como sociedade? Conversei com especialistas em confiança e segurança de várias empresas, bem como com especialistas em ética em IA, para entender como eles estão enfrentando esse desafio.
As quatro dimensões da confiança
Confiança é como nossa disposição de ser vulnerável às intenções e ações dos outros. Resumindo, é uma licença para operar. Os clientes comprarão e os funcionários trabalharão para empresas que usam a geração AI de uma forma em que confiam.
Passei seis anos na Harvard Business School pesquisando confiança com a professora Sandra Sucher. Desenvolvemos um estrutura para entender como as pessoas constroem confiança. A confiança tem quatro dimensões diferentes: competência, motivos, meios e impactos. Nem toda empresa consegue criar confiança em todas as dimensões. Por exemplo, muitas vezes ainda podemos pedir pacotes da Amazon porque confiamos na competência deles (receberemos nosso pacote), apesar de nos sentirmos desconfortáveis com suas práticas comerciais. As empresas mais confiáveis são capazes de criar confiança em todas as quatro dimensões e, por sua vez, têm mais liberdade para experimentar.
Para avaliar a confiabilidade dos esforços generativos de IA da sua empresa nessas quatro dimensões, recomendo fazer as seguintes perguntas:
Competência: a IA é a ferramenta certa para o trabalho em questão?
Competência — a capacidade de realizar uma tarefa — é o elemento fundamental para criar confiança. As empresas que podem fornecer uma solução que resolva os problemas de um cliente são empresas que as pessoas usarão. Sem competência, uma empresa não vai durar.
Com a IA generativa, o maior desafio da competência é usar a tecnologia para ajudar a criar produtos e serviços melhores e, ao mesmo tempo, garantir que clientes, funcionários e o público em geral não sejam prejudicados. Para fazer isso, a primeira pergunta a ser feita é: A IA generativa é a ferramenta certa para o trabalho em questão? Isso significa entender onde a IA generativa deve parar e a revisão humana deve intervir.
A IBM há muito tempo tem a política de que os humanos tomam decisões, não a IA. Por exemplo, a IBM tem uma ferramenta de IA que faz recomendações salariais aos gerentes com base no desempenho e nas habilidades dos funcionários. Inicialmente, os gerentes usavam a ferramenta cerca de 50% do tempo, de acordo com Nickle LaMoreaux, diretor de recursos humanos da IBM. Com base no feedback dos usuários, a IBM aprimorou a ferramenta a ponto de os gerentes usarem suas recomendações em cerca de 60% das vezes. Mas a ferramenta continuará sendo uma ferramenta — não o tomador de decisão final. “Não queremos que ela assuma o controle do processo”, disse LaMoreaux. “Há coisas que a IA não pode saber. O objetivo é ajudar os gerentes a coletar informações e fazer com que parem e pensem.” Embora esse caso de uso não envolva IA generativa, o princípio ainda é válido. A IA generativa pode ser um ótimo primeiro passo para gerar conteúdo bruto, mas como ela não consegue realmente entendê-lo, o produto final ainda precisará de revisão e avaliação humanas.
O uso da geração AI pode até ser um bom indicador de se um trabalho precisa ou não ser feito em primeiro lugar. Trey Causey, chefe de IA responsável da plataforma de busca de emprego Indeed, disse que a empresa usa a geração AI para fazer as partes redundantes de um trabalho. “No momento em que escrevo três marcadores para um e-mail, os conecto à geração AI e você faz a mesma coisa para responder, talvez devesse haver uma conversa sobre por que estamos escrevendo esses e-mails em primeiro lugar?” ele disse.
Motivos: O que significa ser uma boa entidade atuante?
Nossa compreensão de como usar a IA generativa e o que ela pode fazer ainda está evoluindo. Não há um conjunto único de padrões de conformidade que as empresas possam almejar, e a regulamentação ainda está sendo escrita. Isso deixa as empresas em uma posição poderosa: elas têm um amplo campo de atuação, mas seus erros provavelmente inspirarão a próxima geração de regulamentações. As empresas que terão sucesso no futuro estão se concentrando no que significa ser um bom ator agora.
Mike Towers foi ex-diretor de confiança da Takeda Pharmaceuticals. (Ele partiu em 2023 para criar sua própria prática de confiança digital.) Na Takeda, ele consultou empresas de software e pesquisadores de confiança para entender como a empresa poderia criar confiança. Ele e sua equipe criaram uma infraestrutura para ajudar os funcionários a usar a IA para inovar com responsabilidade. Isso incluiu padrões de conformidade de segurança, parcerias com fornecedores e um processo de análise de casos de uso. O último inclui um mapa de aquecimento de dados que mostra a sensibilidade dos diferentes tipos de dados em toda a organização e as regras sobre o que as pessoas podem fazer com eles, bem como a quantidade de supervisão necessária. Ter essa infraestrutura instalada ajuda a estimular a inovação e, ao mesmo tempo, proteger dados confidenciais.
Meios: Como podemos ser justos?
Nossa capacidade de julgar se uma empresa é uma boa entidade atuante se baseia na análise de suas ações — ou na avaliação de quão justa é uma empresa. Tendemos a pensar que justiça diz respeito a quem recebe o quê e quanto, mas os pesquisadores descobriram que, na verdade, existem quatro tipos diferentes de justiça:
- Distributivo: Como os pontos problemáticos e as recompensas são alocados?
- Processual: Os processos são bem projetados e consistentes?
- Informativo: As pessoas relevantes têm as informações certas?
- Interpessoal: Como as pessoas são tratadas?
Algumas das maiores questões abertas sobre IA generativa são sobre justiça distributiva: como os criadores de dados de treinamento devem ser compensados? Quem detém os direitos autorais se a IA generativa criou ou ajudou a criar uma saída? E, o mais importante de tudo: o que acontecerá com os empregos à medida que a IA generativa melhorar? As empresas que desejam criar confiança com seus funcionários se concentrarão em aprimorar a força de trabalho existente. Por exemplo, a PwC lançou recentemente uma iniciativa em toda a empresa para treinar funcionários em IA generativa. “É para lhes dar segurança no emprego no futuro”, disse Wes Bricker, vice-presidente da U.S. Trust Solutions.
No entanto, as questões de justiça em torno da IA generativa não se limitam à justiça distributiva. A justiça processual, interpessoal e informacional é tão importante, se não mais.
De fato, tentou lidar com tudo isso em seus princípios de IA , a primeira delas é que o candidato a emprego vem em primeiro lugar. Outro princípio é que as pessoas, e não os algoritmos, tomam decisões sobre contratações. No interesse da transparência, o Indeed tenta rotular o conteúdo criado com IA generativa. Por exemplo, o Indeed criou um recurso que ajuda os empregadores a escrever descrições de cargos com base em solicitações, mas os empregadores são informados de que as solicitações foram criadas usando a geração AI e, em seguida, devem verificá-las e editá-las adequadamente. Além disso, todo o material criado pela IA generativa no Indeed tem alguma forma de moderação, incluindo ferramentas automatizadas, como filtros para conteúdo problemático, bem como análise humana em resposta às denúncias dos usuários.
Impacto: como responderemos aos problemas?
No final das contas, o impacto criará ou destruirá a confiança em qualquer projeto de IA. Com toda a probabilidade, quando uma organização está lançando novas iniciativas ou descobrindo a melhor forma de usar a tecnologia, algo vai dar errado em algum momento. As empresas são melhor atendidas desenvolvendo proativamente uma estratégia para lidar com os problemas.
Primeiro, garanta que haja um sistema robusto para que os funcionários e o público em geral relatem problemas. Certifique-se de que os sistemas de denúncia não penalizem as pessoas que levantam questões.
Em segundo lugar, tenha um plano para o que você fará se algo der errado. A essência de uma boa reparação da confiança é um pedido de desculpas, responsabilidade e uma solução de longo prazo. Esteja preparado para fazer uma declaração — e rapidamente — ao mesmo tempo em que reconheça que fixar modelos de IA de geração com bilhões de parâmetros não é fácil nem rápido.
Em seguida, verifique se você tem um processo de backup para que, se precisar desligar o plugue, os usuários não fiquem presos.
Por fim, verifique se há uma solução de longo prazo para que o problema não aconteça novamente. No Indeed, quando um problema é sinalizado, ele é registrado e, em seguida, passa por um processo de revisão que é fornecido à equipe de desenvolvimento do produto, o que garante que uma solução de longo prazo seja implementada.
Grande parte da discussão sobre inteligência artificial e confiança se concentra no potencial de impactos negativos. No entanto, há um risco maior sobre o qual precisamos discutir — e esses são os benefícios que perdemos se o público perder a confiança na IA generativa.
Se as organizações puderem implementar ferramentas de IA de uma forma em que confiamos, as possibilidades são infinitas. Por exemplo, Vincent Henderson, chefe de produtos e serviços linguísticos da Lionbridge, destacou que a IA generativa está mudando a natureza do trabalho de tradução. Normalmente, os tradutores são chamados para revisar as traduções geradas pelo aprendizado de máquina e preencher as lacunas, como corrigir erros, usar o jargão corretamente e ajustar o estilo de redação de uma tradução. Como a IA generativa pode automatizar essas etapas, isso libera os tradutores para se concentrarem no desenvolvimento de mensagens que ressoem com públicos específicos — por exemplo, como um carro deve ser comercializado para um público alemão versus um português — em vez de apenas traduzir o mesmo anúncio em idiomas diferentes. A IA generativa oferece o potencial de repensar a tradução para que ela transcenda as barreiras culturais em vez das barreiras linguísticas.
A IA generativa tem o potencial de reinventar o trabalho, libertando-nos para liberar nossa criatividade nos problemas que realmente importam. Mas para que isso aconteça, as empresas precisam construir a confiança das pessoas na tecnologia — não apenas em sua competência, mas que bons atores que agem de forma justa a usem para criar um impacto positivo no mundo.
Leia também: Transformação digital: a tecnologia a serviço da produtividade, lucratividade e rentabilidade das empresas