Segundo a Casa Branca, a reunião incluiu “um debate honesto e construtivo” sobre a necessidade de as empresas serem mais transparentes com os legisladores sobre seus sistemas de inteligência artificial.
Por Redação, com RTP - de Washington
A vice-presidente norte-americana Kamala Harris recebeu, na quinta-feira, na Casa Branca, os diretores executivos (CEOs) da Google, Microsoft, OpenAI e Anthropic e disse que eles têm "responsabilidade legal e moral" de garantir a segurança dos produtos de inteligência artificial (IA). Os Estados Unidos estão empenhados em avançar na legislação do setor e vão investir milhões de dólares para isso.
– Defendi hoje, junto aos CEOs de empresas na linha da frente da inovação na inteligência artificial americana, que o setor privado tem uma responsabilidade ética, moral e legal de garantir a segurança dos seus produtos – declarou a vice-presidente Kamala Harris em comunicado, após a reunião de duas horas.
Segundo a Casa Branca, a reunião incluiu “um debate honesto e construtivo” sobre a necessidade de as empresas serem mais transparentes com os legisladores sobre seus sistemas de inteligência artificial, a importância de avaliar a segurança e garantir a proteção desses produtos contra ataques maliciosos.
A vice de Joe Biden disse que tanto ela como o presidente estão abertos a promover e apoiar novas regulações e legislação no setor da IA.
Numa tentativa de impulsionar a tramitação desta legislação, a Casa Branca anunciou um investimento de US$ 140 milhões da Fundação Nacional de Ciência para lançar sete novos institutos para investigação da inteligência artificial.
O próprio presidente Joe Biden, que já utilizou e fez experiências com a plataforma de IA ChatGPT, disse aos responsáveis pelo setor que devem mitigar os atuais e potenciais riscos que representa para os indivíduos, para a sociedade e para a segurança nacional.
“Surpreendentemente de acordo”
O encontro com os líderes tecnológicos Sundar Pichai (Google), Satya Nadella (Microsoft), Sam Altman (OpenAI) e Dario Amodei (Anthropic) ocorre no momento em que os produtos que desenvolvem estão despertando interesse do público e levantam preocupações quanto aos riscos inerentes.
Milhões de usuários de plataformas como o ChatGPT ou Bard relatam ter obtido relatórios médicos, roteiros, poesia ou trabalhos escolares a partir de conversas com estas plataformas de IA.
Entre as principais preocupações que têm sido levantadas estão a possibilidade de a inteligência artificial substituir cargos e levar, assim, ao desemprego; além de fraudar informações ou aumentar a desinformação entre os usuários.
Sam Altman, da OpenAI, disse no final da reunião na Casa Branca que, em termos de regulação, os diretores executivos estavam “surpreendentemente de acordo quanto ao que precisa ocorrer”.
Legislação
Até ao momento, os Estados Unidos não têm demonstrado tanta eficácia quanto a União Europeia na abordagem em relação à IA nem na imposição de regras sobre desinformação e fake news.
As preocupações com os riscos da IA levaram Geoffrey Hinton, conhecido como “o padrinho da inteligência artificial”, a se demitir da Google, nesta semana, e admitir que se arrependia do seu trabalho neste setor, considerando as plataformas de chat “bastante assustadoras”.
Em março deste ano, uma carta assinada por cientistas e líderes do setor tecnológico, entre os quais Elon Musk, CEO da Tesla, e Steve Wozniak, cofundador da Apple, pedia uma pausa no desenvolvimento da IA por receio dos riscos para a humanidade.