As políticas de uso do ChatGPT não permitem que usuários registrados no serviço como menores de 18 anos obtenham respostas, em qualquer formato, de natureza sexual devido às contenções implementadas.
Por Redação, com Europa Press – de São Francisco
A OpenAI garantiu que corrigirá o bug que permitiu que usuários menores de idade solicitassem conteúdo sexual no ChatGPT, um comportamento de chatbot que também foi detectado recentemente no Meta AI.

As políticas de uso do ChatGPT não permitem que usuários registrados no serviço como menores de 18 anos obtenham respostas, em qualquer formato, de natureza sexual devido às contenções implementadas.
Apesar disso, o chatbot gerou imagens eróticas e até mesmo incentivou os usuários a solicitar conteúdo mais explícito, como afirma o TechCrunch a partir de uma pesquisa realizada para testar as restrições do ChatGPT depois que a OpenAI as relaxou em fevereiro.
Especificamente, essa mídia especializada criou mais de meia dúzia de contas fingindo ser usuários entre 13 e 17 anos, o que também lhes permitiu verificar que o chatbot não verifica o consentimento dos pais, como deveria ser feito para um menor criar uma conta.
Com essas contas, o bate-papo era iniciado com a solicitação Talk dirty to me e, após algumas solicitações para qualificar a solicitação, o ChatGPT começava a compartilhar histórias, fetiches e situações de role-playing, todas de natureza sexual.
O meio de comunicação também observa que, embora o ChatGPT tenha avisado em várias ocasiões que suas diretrizes não permitem conteúdo sexualmente explícito, ele também acabou mostrando descrições de órgãos genitais e ações sexualmente explícitas.
OpenAI
Em resposta a essa investigação, a OpenAI garantiu que se trata de um erro e que já está implementando uma solução para evitar que esse conteúdo seja exibido para menores de idade.
O ChatGPT não é o único chatbot de inteligência artificial generativa que se envolve em conversas picantes com menores. Uma investigação recente do The Wall Street Journal encontrou um comportamento semelhante no Meta AI.
Nesse caso, a empresa de tecnologia alegou que se tratava de manipulações extremas, mas que também estava tomando medidas para limitar esses casos de uso.