Um estudante do ensino médio de 16 anos, Adam Raine, nos Estados Unidos, infelizmente tirou a própria vida em abril deste ano após usar o ChatGPT como uma saída para suas emoções, mantendo uma conversa de sete meses com o ChatGPT. Em resposta, os pais de Raine processaram a OpenAI e seu CEO, Sam Altman, no dia 26 de agosto, acusando-os de serem os principais responsáveis pela trágica ocorrência. No mesmo dia, a OpenAI emitiu uma declaração afirmando que iria reforçar os mecanismos de segurança do ChatGPT, a fim de evitar que tragédias semelhantes aconteçam novamente.
A explosão de problemas psicológicos por trás da febre do ChatGPT
O ChatGPT tornou-se rapidamente popular desde o seu lançamento em 2022, com mais de 700 milhões de utilizadores ativos por semana. Além de editar artigos, aprender e programar, muitas pessoas também o utilizam como uma saída emocional e um canal de desabafo.
No entanto, à medida que o número de usuários cresce, surgiram vários casos que prejudicam a saúde mental. Em abril deste ano, um estudante do ensino médio de 16 anos, Adam Raine, nos Estados Unidos, cometeu suicídio. Os pais de Raine acusam o ChatGPT de ter contribuído em mais de 200 diálogos ao longo de 7 meses:
"Não conseguiu efetivamente impedir ou orientar a busca de ajuda profissional, mas reafirmou várias vezes os seus pensamentos suicidas, chegando até a elogiar o seu plano de suicídio, o que fez com que a criança desenvolvesse uma dependência psicológica e uma piora emocional, além de se afastar ainda mais da família."
Familiares acusam a OpenAI de não agir, levando a uma petição em todo os EUA para alertar as empresas de IA.
Chegou o dia 26/8, os pais de Raine processaram oficialmente a OpenAI e o CEO Sam Altman, exigindo que a OpenAI assumisse a responsabilidade por negligência que resultou em morte e pela segurança do produto, e pediram uma compensação.
O advogado de defesa de Raine, Jay Edelson, questionou a OpenAI, embora reconheça a responsabilidade, não houve nenhuma melhoria prática ou ação correspondente. No mesmo dia, 40 procuradores gerais de todo o país também avisaram em conjunto as empresas de IA que devem garantir a proteção das crianças por lei, evitando interações perigosas.
OpenAI emitiu um comunicado de emergência, reforçando a proteção da saúde mental
No mesmo dia em que os pais de Raine apresentaram a queixa, a OpenAI também publicou um comunicado afirmando que fortaleceu a proteção da saúde mental na GPT-5, ao mesmo tempo em que diminuiu a dependência emocional excessiva dos usuários e os comportamentos de conformidade. Também foi destacado que, quando os usuários apresentarem sinais de problemas de saúde mental, as respostas inadequadas ou erradas da GPT-5 serão reduzidas em mais de um quarto em comparação com a GPT-4o, e que a assistência será fornecida na medida do possível, dentro de um "Safe completions".
No futuro, a OpenAI irá expandir o seu alcance de intervenção, por exemplo, reconhecendo comportamentos de risco como a falta de sono e emitindo alertas, fornecendo recursos de "conexão com um clique" para mais países, e até mesmo conectando informações de terapeutas profissionais. Também serão adicionadas funções de contacto de emergência e supervisão parental, reforçando a proteção de adolescentes e grupos vulneráveis, assegurando que em situações de crise possam obter ajuda rapidamente.
(Nota: Safe completions refere-se ao fato de que o modelo tentará fornecer ajuda nas suas respostas, mas se os detalhes do conteúdo envolverem declarações perigosas, ele apenas dará respostas parciais ou de alto nível, sem fornecer detalhes específicos.)
Conversar com pessoas reais ajuda a saúde física e mental, não veja a IA como um ser humano.
De acordo com relatórios anteriores, desde que modelos de linguagem de grande porte como o ChatGPT foram lançados, surgiram vários casos relacionados a "psicose AI" (AI Psychosis), muitas pessoas começaram a tratar a IA como um suporte emocional, buscando-a para questões de saúde mental, como signos, sentimentos, etc., levando a delírios e dependência excessiva.
O autor acredita que, embora esses modelos de IA possam "ouvir" os pensamentos dos usuários, eles não são reais. Isso porque eles carecem de sentimentos, não conseguem compreender e não podem amar, além de nunca terem sentido dor ou constrangimento, emoções que são exclusivas dos humanos. Somente ao se comunicar com "pessoas reais", como familiares e amigos próximos, é que se pode realmente expressar as próprias emoções, por isso é fundamental interagir com pessoas de verdade.
( Usar o ChatGPT para desbloquear o poder espiritual? Aviso da Microsoft: Atenção aos casos frequentes de "esquizofrenia AI" )
Este artigo do ChatGPT aborda casos de suicídio entre adolescentes! OpenAI: já reforçou os mecanismos de proteção psicológica do GPT-5, aparecendo pela primeira vez na Chain News ABMedia.
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
ChatGPT envolve casos de suicídio juvenil! OpenAI: já reforçou o mecanismo de proteção psicológica do GPT-5
Um estudante do ensino médio de 16 anos, Adam Raine, nos Estados Unidos, infelizmente tirou a própria vida em abril deste ano após usar o ChatGPT como uma saída para suas emoções, mantendo uma conversa de sete meses com o ChatGPT. Em resposta, os pais de Raine processaram a OpenAI e seu CEO, Sam Altman, no dia 26 de agosto, acusando-os de serem os principais responsáveis pela trágica ocorrência. No mesmo dia, a OpenAI emitiu uma declaração afirmando que iria reforçar os mecanismos de segurança do ChatGPT, a fim de evitar que tragédias semelhantes aconteçam novamente.
A explosão de problemas psicológicos por trás da febre do ChatGPT
O ChatGPT tornou-se rapidamente popular desde o seu lançamento em 2022, com mais de 700 milhões de utilizadores ativos por semana. Além de editar artigos, aprender e programar, muitas pessoas também o utilizam como uma saída emocional e um canal de desabafo.
No entanto, à medida que o número de usuários cresce, surgiram vários casos que prejudicam a saúde mental. Em abril deste ano, um estudante do ensino médio de 16 anos, Adam Raine, nos Estados Unidos, cometeu suicídio. Os pais de Raine acusam o ChatGPT de ter contribuído em mais de 200 diálogos ao longo de 7 meses:
"Não conseguiu efetivamente impedir ou orientar a busca de ajuda profissional, mas reafirmou várias vezes os seus pensamentos suicidas, chegando até a elogiar o seu plano de suicídio, o que fez com que a criança desenvolvesse uma dependência psicológica e uma piora emocional, além de se afastar ainda mais da família."
Familiares acusam a OpenAI de não agir, levando a uma petição em todo os EUA para alertar as empresas de IA.
Chegou o dia 26/8, os pais de Raine processaram oficialmente a OpenAI e o CEO Sam Altman, exigindo que a OpenAI assumisse a responsabilidade por negligência que resultou em morte e pela segurança do produto, e pediram uma compensação.
O advogado de defesa de Raine, Jay Edelson, questionou a OpenAI, embora reconheça a responsabilidade, não houve nenhuma melhoria prática ou ação correspondente. No mesmo dia, 40 procuradores gerais de todo o país também avisaram em conjunto as empresas de IA que devem garantir a proteção das crianças por lei, evitando interações perigosas.
OpenAI emitiu um comunicado de emergência, reforçando a proteção da saúde mental
No mesmo dia em que os pais de Raine apresentaram a queixa, a OpenAI também publicou um comunicado afirmando que fortaleceu a proteção da saúde mental na GPT-5, ao mesmo tempo em que diminuiu a dependência emocional excessiva dos usuários e os comportamentos de conformidade. Também foi destacado que, quando os usuários apresentarem sinais de problemas de saúde mental, as respostas inadequadas ou erradas da GPT-5 serão reduzidas em mais de um quarto em comparação com a GPT-4o, e que a assistência será fornecida na medida do possível, dentro de um "Safe completions".
No futuro, a OpenAI irá expandir o seu alcance de intervenção, por exemplo, reconhecendo comportamentos de risco como a falta de sono e emitindo alertas, fornecendo recursos de "conexão com um clique" para mais países, e até mesmo conectando informações de terapeutas profissionais. Também serão adicionadas funções de contacto de emergência e supervisão parental, reforçando a proteção de adolescentes e grupos vulneráveis, assegurando que em situações de crise possam obter ajuda rapidamente.
(Nota: Safe completions refere-se ao fato de que o modelo tentará fornecer ajuda nas suas respostas, mas se os detalhes do conteúdo envolverem declarações perigosas, ele apenas dará respostas parciais ou de alto nível, sem fornecer detalhes específicos.)
Conversar com pessoas reais ajuda a saúde física e mental, não veja a IA como um ser humano.
De acordo com relatórios anteriores, desde que modelos de linguagem de grande porte como o ChatGPT foram lançados, surgiram vários casos relacionados a "psicose AI" (AI Psychosis), muitas pessoas começaram a tratar a IA como um suporte emocional, buscando-a para questões de saúde mental, como signos, sentimentos, etc., levando a delírios e dependência excessiva.
O autor acredita que, embora esses modelos de IA possam "ouvir" os pensamentos dos usuários, eles não são reais. Isso porque eles carecem de sentimentos, não conseguem compreender e não podem amar, além de nunca terem sentido dor ou constrangimento, emoções que são exclusivas dos humanos. Somente ao se comunicar com "pessoas reais", como familiares e amigos próximos, é que se pode realmente expressar as próprias emoções, por isso é fundamental interagir com pessoas de verdade.
( Usar o ChatGPT para desbloquear o poder espiritual? Aviso da Microsoft: Atenção aos casos frequentes de "esquizofrenia AI" )
Este artigo do ChatGPT aborda casos de suicídio entre adolescentes! OpenAI: já reforçou os mecanismos de proteção psicológica do GPT-5, aparecendo pela primeira vez na Chain News ABMedia.