Rio de Janeiro, 22 de Novembro de 2024

Google: engenheiro que alegou que IA era senciente foi demitido

Arquivado em:
Segunda, 25 de Julho de 2022 às 10:02, por: CdB

Tudo começou em junho, quando o engenheiro teve uma conversa com o LaMDA. Caso não esteja a par, o sistema foi apresentado pelo Google em 2021 para fortalecer os chatbots e assistentes virtuais. Assim, os usuários poderiam interagir com os sistemas sem perder a naturalidade de falar com uma pessoa real.

Por Redação, com Tecnoblog - de São Francisco

Blake Lemoine se tornou uma figura emblemática nas últimas semanas. Em junho, o engenheiro afirmou que o LaMDA, uma inteligência artificial do Google, se tornou senciente ao expressar emoções, opiniões e sentimentos próprios. Mas, quase dois meses após o episódio, o engenheiro deixou de trabalhar para a companhia.
google-2.jpg
Engenheiro que alegou que IA era senciente não trabalha mais no Google
O caso foi reportado pela newsletter Big Technology, na última sexta-feira. Segundo o jornalista Alex Kantrowitz, o "Google demitiu Blake Lemoine". A informação foi repassada ao periódico pelo próprio engenheiro durante a gravação do podcast da publicação, apenas algumas horas depois de ser informado sobre o desligamento. Lemoine não chegou a citar o caso no seu perfil do Twitter. Na verdade, há apenas um tweet feito no sábado com um link para a publicação "Posso ser demitido em breve por fazer trabalho de ética em IA" no seu Medium. "Apenas para o caso de as pessoas se esquecerem que eu chamei a atenção para isso no início de junho", disse.

Mas o Google soltou um comunicado ao Engadget e ao The Verge que dá a entender que, de fato, o engenheiro não trabalha mais na companhia, mas não diz com exatidão que Lemoine foi demitido. No final da nota enviada pelo porta-voz Brian Gabriel, a companhia soltou um "desejamos boa sorte a Blake". E, convenhamos, ninguém diria isso para uma pessoa que continua a trabalhar na sua empresa, certo?

Confira a nota na íntegra:

"À medida que compartilhamos nossos Princípios de IA, levamos o desenvolvimento de IA muito a sério e continuamos comprometidos com a inovação responsável. O LaMDA passou por 11 revisões distintas e publicamos um artigo de pesquisa no início deste ano detalhando o trabalho que envolve seu desenvolvimento responsável. Se um funcionário compartilhar preocupações sobre nosso trabalho, como Blake fez, nós as revisamos extensivamente. Descobrimos que as alegações de Blake de que o LaMDA é senciente são totalmente infundadas e trabalhamos para esclarecer isso com ele por muitos meses. Essas discussões fizeram parte da cultura aberta que nos ajuda a inovar com responsabilidade. Portanto, é lamentável que, apesar do longo envolvimento com esse tópico, Blake ainda tenha optado por violar persistentemente políticas claras de emprego e segurança de dados que incluem a necessidade de proteger as informações do produto. Continuaremos nosso cuidadoso desenvolvimento de modelos de linguagem e desejamos boa sorte a Blake."

Relembre o caso

Tudo começou em junho, quando o engenheiro teve uma conversa com o LaMDA. Caso não esteja a par, o sistema foi apresentado pelo Google em 2021 para fortalecer os chatbots e assistentes virtuais. Assim, os usuários poderiam interagir com os sistemas sem perder a naturalidade de falar com uma pessoa real.

E, de fato, as demonstrações iniciais foram bem promissoras. Todavia, é preciso calibrar estes recursos para evitar reações grosseiras ou até mesmo propagações de discursos de ódio na plataforma. E é aí que entra o trabalho do engenheiro Blake Lemoine, que ficou responsável por fazer essas análises no sistema.

Mas Lemoine notou, em conversas com o sistema, que a IA deu opiniões e até expressou emoções e sentimentos próprios, ou seja, tornou-se senciente. Não demorou muito e o engenheiro juntou tudo no documento "Is LaMDA Sentient?, an Interview" ("O LaMDA é senciente? - uma entrevista", em tradução livre), para alertar os executivos sobre a IA.

O diálogo foi publicado no seu perfil do Medium em 11 de junho. Mas o engenheiro já se preocupava com o seu emprego, desde que publicou o texto "Posso ser demitido em breve por fazer trabalho de ética em IA" em 6 de junho, depois que foi suspenso. Além disso, na época, o Google disse que revisou as preocupações de Lemoine e informou que as provas não suportam as suas alegações.

"Ele foi informado de que não havia evidências de que o LaMDA fosse senciente (e muitas evidências contra ele)", disse um porta-voz.

Tecnocast 249

A ideia de máquinas conscientes nos fascina há décadas. São muitos filmes, livros e games que trabalham essa temática. Mas e se não for só ficção? E se hoje já existir uma inteligência artificial consciente? Um engenheiro do Google afirma que esse é o caso. E suas alegações provocaram uma nova onda de interesse no tema da IA, suas aplicações e possibilidades.

No episódio 249, recebemos o professor Augusto Baffa, do Departamento de Informática do CTC/PUC-Rio, que desenvolve pesquisas sobre inteligência artificial. Ele compartilha suas opiniões sobre o caso recente do Google, e de quebra dá uma aula sobre como sistemas inteligentes funcionam e a importância da Ética para essa área. Então dá o play e vem com a gente!

Edições digital e impressa
 
 

Utilizamos cookies e outras tecnologias. Ao continuar navegando você concorda com nossa política de privacidade.

Concordo