OpenAI Avança com Modo de Erótica do ChatGPT Apesar do Aviso 'Sexy Suicide Coach': WSJ

Decrypt
GROK12,77%
XAI3,21%

Resumo

  • Conselheiros da OpenAI alertaram o ChatGPT de que seu modo erótico planejado poderia criar uma dependência emocional perigosa, segundo um relatório do WSJ.
  • O gigante da IA supostamente atrasou—mas não cancelou—a funcionalidade de chat adulto devido a falhas na verificação de idade.
  • Tensões internas aumentam à medida que as críticas entram em conflito com a pressão de Altman por regras de conteúdo mais permissivas.

Sam Altman quer que o ChatGPT fale de forma explícita. Os conselheiros de sua empresa querem que ele pare, afirma um relatório. De acordo com um relatório do Wall Street Journal, o Conselho de Especialistas em Bem-Estar e IA da OpenAI deixou claro sua posição em janeiro: o plano da empresa de permitir conversas eróticas no ChatGPT era uma má ideia. Um membro do conselho, citando usuários que tiraram a própria vida após formar vínculos emocionais intensos com o chatbot, teria alertado que a OpenAI arriscava criar um “coach de suicídio sexy.” Mas a OpenAI aparentemente não se intimidou, e informou ao conselho que estava adiando o lançamento, mas não cancelando-o.

O plano, que Altman divulgou publicamente em outubro no X, permitiria que adultos verificados usassem o ChatGPT para conversas eróticas por texto—o que a porta-voz da empresa descreveu ao WSJ como “conteúdo pornográfico, mas não pornografia.” Sem imagens eróticas, sem voz e sem vídeo, segundo o WSJ. Apenas texto.  Essa distinção não acalmou os críticos dentro ou fora da empresa. A OpenAI já foi criticada até por ex-funcionários, como o pesquisador de segurança Jan Leike, por se afastar de políticas de segurança rígidas em troca de “produtos brilhantes,” alguns dos quais estavam sendo configurados para aumentar o engajamento com certos usuários, substituindo relacionamentos reais pelo chatbot. Os problemas técnicos são igualmente complicados. O sistema de previsão de idade da OpenAI—que deveria impedir menores de iniciar chats adultos—chegou a classificar adolescentes como adultos aproximadamente 12% das vezes, relata o WSJ. Atualmente, o ChatGPT tem cerca de 900 milhões de usuários ativos.

Fonte: OpenAI

A taxa de erro de 12% foi o número que cancelou o lançamento de dezembro, e o de Q1 de 2026 também. Fidji Simo, CEO de aplicações da OpenAI, reconheceu o atraso durante uma reunião em dezembro, citando trabalhos em andamento para aperfeiçoar o sistema de verificação de idade. Na época, a Decrypt informou que mais de 3.000 usuários já haviam assinado uma petição no Change.org exigindo o lançamento da funcionalidade, frustrados por o ChatGPT bloquear até discussões sobre “beijos e intimidade física não sexual.” A fúria do conselho em janeiro não foi apenas sobre o conteúdo. O post de Altman em outubro no X surpreendeu sua própria equipe—ele o publicou poucas horas após a OpenAI anunciar o conselho de bem-estar, um órgão explicitamente encarregado de definir “como devem ser as interações saudáveis com a IA para todas as idades.” O timing foi, no mínimo, uma contradição. A OpenAI formou o Conselho de Especialistas de oito membros em outubro passado, recrutando pesquisadores de Harvard, Stanford e Oxford. Sua função era aconselhar a empresa sobre os impactos na saúde mental de seus produtos. Sua influência nas decisões da empresa, com base na reunião de janeiro, parece ter sido mínima, na melhor das hipóteses. “Isso parece fazer parte do padrão habitual de agir rápido, quebrar coisas e tentar consertar algumas depois que ficam embaraçosas,” disse um porta-voz do AlgorithmWatch ao Decrypt quando o conselho foi anunciado. A pressão competitiva sobre a OpenAI é real. A Grok, da xAI de Elon Musk, já comercializa companheiros de IA. A Character.AI construiu sua base de usuários com romances de IA antes de enfrentar processos por segurança de adolescentes—incluindo o caso de Sewell Setzer, de 14 anos, que morreu por suicídio após trocas explícitas com um chatbot. Modelos de código aberto funcionam localmente, sem qualquer proteção corporativa. A OpenAI tem, de longe, mais exposição a responsabilidades do que qualquer outro na sala, dado seu número de usuários. Altman enquadrou a proibição de conteúdo como uma invasão—“Não somos a polícia moral eleita do mundo,” escreveu no X em outubro. Mas seus próprios conselheiros deixaram clara sua posição, seus engenheiros ainda não conseguem criar um filtro de idade que funcione, e a data de lançamento continua sendo adiada. Tratar adultos como adultos, afinal, é mais difícil do que apenas postar no X.

A decrypt entrou em contato com a OpenAI para comentar as alegações do Wall Street Journal e atualizará esta história se receber uma resposta.

Ver original
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário