Empresas em todo o mundo estão avaliando a melhor forma de usar o ChatGPT, um programa de chatbot que usa IA generativa para manter conversas com usuários e responder a inúmeras solicitações.
Por Redação, com Reuters - de Nova York
Muitos trabalhadores nos Estados Unidos estão recorrendo ao ChatGPT para ajudar em tarefas básicas, mostrou uma pesquisa Reuters/Ipsos, apesar dos temores que levaram empregadores como Microsoft e Google a restringir seu uso.
Empresas em todo o mundo estão avaliando a melhor forma de usar o ChatGPT, um programa de chatbot que usa IA generativa para manter conversas com usuários e responder a inúmeras solicitações. Empresas de segurança e outras companhias, porém, levantaram preocupações de que isso poderia resultar em vazamentos de propriedade intelectual e estratégia.
Cerca de 28% dos 2.625 entrevistados na pesquisa online sobre inteligência artificial (IA) entre 11 e 17 de julho disseram que usam regularmente o ChatGPT no trabalho, enquanto apenas 22% disseram que seus empregadores permitiam explicitamente tais ferramentas externas.
Cerca de 10% dos entrevistados disseram que seus chefes proibiram explicitamente ferramentas externas de inteligência artificial, enquanto cerca de 25% não sabiam se sua empresa permitia o uso da tecnologia.
– As pessoas não entendem como os dados são usados quando usam serviços de inteligência artificial generativos – disse Ben King, vice-presidente de confiança do cliente na empresa de segurança corporativa Okta .
– Para as empresas, isso é crucial, porque os usuários não têm contrato com muitos programas, porque são um serviço gratuito , portanto, as empresas não vão correr o risco por meio de seu processo de avaliação usual – disse King.
A OpenAI se recusou a comentar quando questionada sobre as implicações de funcionários individuais usando o ChatGPT, mas destacou uma publicação da empresa garantindo aos parceiros corporativos que seus dados não são usados para treinar o chatbot ainda mais, a menos que eles dessem permissão explícita.
Quando as pessoas usam o Bard, do Google, o programa coleta dados como texto, localização e outras informações de uso. A empresa permite que os usuários excluam atividades anteriores de suas contas e solicitem que o conteúdo inserido na tecnologia seja removido. De propriedade da Alphabet, o Google se recusou a comentar quando solicitado a fornecer mais detalhes.
“Tarefas inofensivas"
Um funcionário do Tinder disse que os empregados do aplicativo de relacionamento usaram o ChatGPT para "tarefas inofensivas", como escrever e-mails, embora a empresa não o permita oficialmente.
– São e-mails regulares. Muito sem consequências, como fazer convites engraçados para eventos da equipe, e-mails de despedida quando alguém está saindo... Também usamos para pesquisas gerais – disse o funcionário, que não quis ser identificado porque não era autorizado a falar com repórteres.
O funcionário disse que a empresa tem uma "regra sem ChatGPT", mas que os funcionários ainda o usam de uma "forma genérica que não revela nada sobre o Tinder".
O aplicativo disse que forneceu "orientação regular aos funcionários sobre as melhores práticas de segurança e dados".
Em maio, a Samsung proibiu os funcionários mundialmente de usarem o ChatGPT e ferramentas semelhantes depois de descobrir que um funcionário carregou um código confidencial na plataforma.
À agência inglesa de notícias Reuters informou em junho que a Alphabet alertou os funcionários sobre como eles usam chatbots, incluindo o Bard, ao mesmo tempo em que comercializa o programa globalmente.
O Google disse que, embora Bard possa fazer sugestões indesejadas de código, isso ajuda os programadores. A companhia também disse que pretende ser transparente sobre as limitações de sua tecnologia.
Cautela
Algumas empresas disseram à Reuters que estão adotando o ChatGPT e plataformas semelhantes, mas de olho na segurança.
– Começamos a testar e aprender sobre como a inteligência artificial pode aumentar a eficácia operacional – disse um porta-voz da Coca-Cola em Atlanta, acrescentando que os dados permanecem dentro de seu firewall.
– Internamente, lançamos recentemente nossa versão corporativa do Coca-Cola ChatGPT para produtividade – disse o porta-voz, acrescentando que a Coca-Cola planeja usar a IA para melhorar a eficácia e a produtividade de suas equipes.
Enquanto isso, a diretora financeira Dawn Allen, da Tate & Lyle, disse à Reuters que a fabricante global de ingredientes estava testando o ChatGPT, tendo "encontrado uma maneira de usá-lo de maneira segura".
– Temos equipes diferentes decidindo como querem usá-lo por meio de uma série de experimentos – disse.
Mesmo assim, em algumas empresas funcionários dizem que não conseguem acessar a plataforma nos computadores.
– Está completamente proibido na rede do escritório, como se não funcionasse – disse um empregado da Procter & Gamble, que preferiu manter o anonimato por não estar autorizado a falar com a imprensa.
A P&G se recusou a comentar. À Reuters não conseguiu confirmar de forma independente se os funcionários da companhia não conseguiam usar o chatbot.
Paul Lewis, diretor de segurança da informação da empresa de segurança cibernética Nominet, disse que as empresas estavam certas em serem cautelosas.
– Todo mundo obtém o benefício dessa capacidade aumentada, mas a informação não é completamente segura e pode ser projetada para fora – disse ele, citando "prompts maliciosos" que podem ser usados para fazer com que os chatbots divulguem informações.
– A proibição total ainda não é garantida, mas precisamos agir com cuidado – disse Lewis.