O OpenAI, grupo apoiado pelo fundador do LinkedIn, Reid Hoffman, foi criado para pesquisar como tornar as cada vez mais poderosas ferramentas de inteligência artificial mais seguras.
Por Redação, com Reuters - de São Francisco/Bruxelas
Um grupo de pesquisa apoiado por pesos pesados do Vale do Silício divulgou na quinta-feira um documento mostrando que a tecnologia capaz de gerar notícias realistas a partir de pouco mais do que uma sugestão de título está pronta para evoluir rapidamente nos próximos anos. O OpenAI, grupo apoiado pelo fundador do LinkedIn, Reid Hoffman, foi criado para pesquisar como tornar as cada vez mais poderosas ferramentas de inteligência artificial mais seguras. O grupo descobriu, entre outras coisas, que os computadores, já usados para escrever breves notícias automáticas baseadas em releases de imprensa, podem ser treinados para ler e escrever blocos de texto longos, de maneira mais fácil do que se pensava anteriormente. Uma das coisas que o grupo mostrou no artigo é que seu modelo é capaz de “escrever notícias sobre cientistas descobrindo unicórnios falantes”. Os pesquisadores querem que seus colegas cientistas comecem a discutir os possíveis efeitos negativos da tecnologia antes de publicarem abertamente todos os avanços, da mesma forma como físicos e geneticistas nucleares consideram de que forma seu trabalho poderia ser mal utilizado antes de torná-lo público. – Parece que há um cenário provável em que haveria progresso constante – disse Alec Radford, um dos co-autores do artigo. “Devemos estar tendo a discussão em torno de se isso continuar a melhorar, quais são as coisas que devemos considerar?” Os chamados modelos de linguagem que permitem que os computadores leiam e escrevam normalmente são “treinados” para tarefas específicas, como traduzir idiomas, responder a perguntas ou resumir textos. Esse treinamento geralmente vem com uma cara supervisão humana e conjuntos de dados especiais. O artigo do OpenAI descobriu que um modelo de linguagem geral, capaz de muitas dessas tarefas especializadas, pode ser treinado sem muita intervenção humana e alimentar-se com textos disponíveis na internet. Isso removeria duas grandes barreiras a seu desenvolvimento. O modelo permanece a alguns anos de trabalhar de forma confiável e requer uma computação em nuvem cara para ser construída. Mas esse custo pode cair rapidamente. – Estamos a alguns anos de isso ser algo que um entusiasta pode fazer em casa de maneira fácil – disse Sam Bowman, professor assistente da Universidade de Nova York, que não esteve envolvido na pesquisa, mas fez uma revisão. “Já é algo que um amador bem financiado com um diploma avançado poderia fazer, com muito trabalho.” Em um movimento que pode desencadear controvérsias, a OpenAI está descrevendo seu trabalho no artigo, mas não divulgou o modelo por preocupação de que poderia ser mal utilizado. – Ainda não estamos em um estágio em que estamos dizendo que isso é um perigo –disse Dario Amodei, diretor de pesquisa da OpenAI. “Estamos tentando conscientizar as pessoas sobre esses problemas e iniciar uma conversa.”