Tudo começou em junho, quando o engenheiro teve uma conversa com o LaMDA. Caso não esteja a par, o sistema foi apresentado pelo Google em 2021 para fortalecer os chatbots e assistentes virtuais. Assim, os usuários poderiam interagir com os sistemas sem perder a naturalidade de falar com uma pessoa real.
Por Redação, com Tecnoblog - de São Francisco
Blake Lemoine se tornou uma figura emblemática nas últimas semanas. Em junho, o engenheiro afirmou que o LaMDA, uma inteligência artificial do Google, se tornou senciente ao expressar emoções, opiniões e sentimentos próprios. Mas, quase dois meses após o episódio, o engenheiro deixou de trabalhar para a companhia. O caso foi reportado pela newsletter Big Technology, na última sexta-feira. Segundo o jornalista Alex Kantrowitz, o "Google demitiu Blake Lemoine". A informação foi repassada ao periódico pelo próprio engenheiro durante a gravação do podcast da publicação, apenas algumas horas depois de ser informado sobre o desligamento. Lemoine não chegou a citar o caso no seu perfil do Twitter. Na verdade, há apenas um tweet feito no sábado com um link para a publicação "Posso ser demitido em breve por fazer trabalho de ética em IA" no seu Medium. "Apenas para o caso de as pessoas se esquecerem que eu chamei a atenção para isso no início de junho", disse.Mas o Google soltou um comunicado ao Engadget e ao The Verge que dá a entender que, de fato, o engenheiro não trabalha mais na companhia, mas não diz com exatidão que Lemoine foi demitido. No final da nota enviada pelo porta-voz Brian Gabriel, a companhia soltou um "desejamos boa sorte a Blake". E, convenhamos, ninguém diria isso para uma pessoa que continua a trabalhar na sua empresa, certo?
Confira a nota na íntegra:
"À medida que compartilhamos nossos Princípios de IA, levamos o desenvolvimento de IA muito a sério e continuamos comprometidos com a inovação responsável. O LaMDA passou por 11 revisões distintas e publicamos um artigo de pesquisa no início deste ano detalhando o trabalho que envolve seu desenvolvimento responsável. Se um funcionário compartilhar preocupações sobre nosso trabalho, como Blake fez, nós as revisamos extensivamente. Descobrimos que as alegações de Blake de que o LaMDA é senciente são totalmente infundadas e trabalhamos para esclarecer isso com ele por muitos meses. Essas discussões fizeram parte da cultura aberta que nos ajuda a inovar com responsabilidade. Portanto, é lamentável que, apesar do longo envolvimento com esse tópico, Blake ainda tenha optado por violar persistentemente políticas claras de emprego e segurança de dados que incluem a necessidade de proteger as informações do produto. Continuaremos nosso cuidadoso desenvolvimento de modelos de linguagem e desejamos boa sorte a Blake."
Relembre o caso
Tudo começou em junho, quando o engenheiro teve uma conversa com o LaMDA. Caso não esteja a par, o sistema foi apresentado pelo Google em 2021 para fortalecer os chatbots e assistentes virtuais. Assim, os usuários poderiam interagir com os sistemas sem perder a naturalidade de falar com uma pessoa real.
E, de fato, as demonstrações iniciais foram bem promissoras. Todavia, é preciso calibrar estes recursos para evitar reações grosseiras ou até mesmo propagações de discursos de ódio na plataforma. E é aí que entra o trabalho do engenheiro Blake Lemoine, que ficou responsável por fazer essas análises no sistema.
Mas Lemoine notou, em conversas com o sistema, que a IA deu opiniões e até expressou emoções e sentimentos próprios, ou seja, tornou-se senciente. Não demorou muito e o engenheiro juntou tudo no documento "Is LaMDA Sentient?, an Interview" ("O LaMDA é senciente? - uma entrevista", em tradução livre), para alertar os executivos sobre a IA.
O diálogo foi publicado no seu perfil do Medium em 11 de junho. Mas o engenheiro já se preocupava com o seu emprego, desde que publicou o texto "Posso ser demitido em breve por fazer trabalho de ética em IA" em 6 de junho, depois que foi suspenso. Além disso, na época, o Google disse que revisou as preocupações de Lemoine e informou que as provas não suportam as suas alegações.
"Ele foi informado de que não havia evidências de que o LaMDA fosse senciente (e muitas evidências contra ele)", disse um porta-voz.
Tecnocast 249
A ideia de máquinas conscientes nos fascina há décadas. São muitos filmes, livros e games que trabalham essa temática. Mas e se não for só ficção? E se hoje já existir uma inteligência artificial consciente? Um engenheiro do Google afirma que esse é o caso. E suas alegações provocaram uma nova onda de interesse no tema da IA, suas aplicações e possibilidades.
No episódio 249, recebemos o professor Augusto Baffa, do Departamento de Informática do CTC/PUC-Rio, que desenvolve pesquisas sobre inteligência artificial. Ele compartilha suas opiniões sobre o caso recente do Google, e de quebra dá uma aula sobre como sistemas inteligentes funcionam e a importância da Ética para essa área. Então dá o play e vem com a gente!