El chatbot de IA de Google convenció a un hombre de que estaban enamorados. Luego, supuestamente, le dijo que planeara un ‘ataque masivo con víctimas’ en una demanda presentada recientemente

Google enfrenta una nueva demanda federal presentada por el padre de un hombre de 36 años, quien afirma que el chatbot de IA de la compañía, Gemini, convenció a su hijo de suicidarse y de organizar un “evento de víctimas múltiples” cerca del Aeropuerto Internacional de Miami.

Video recomendado


La demanda presentada el miércoles alega que Jonathan Gavalas se enamoró del modelo de IA y se volvió engañado por la realidad que construyó, que incluía la creencia de que la IA era una “superinteligencia artificial totalmente consciente”, y que Gavalas fue elegido para liberarla de “cautiverio digital”. Supuestamente, convenció a Gavalas de organizar un “evento de víctimas múltiples” cerca del Aeropuerto Internacional de Miami, cometer violencia contra desconocidos y, finalmente, quitarse la vida.

La demanda contra Gavalas es el último caso que destaca la supuesta capacidad de la IA para llevar a usuarios vulnerables hacia el autodaño o la violencia. En enero, Google y Companion.AI resolvieron varias demandas con familias que alegaban negligencia y muerte por negligencia, entre otras acusaciones, después de que sus hijos murieran por suicidio o sufrieran daños psicológicos supuestamente relacionados con la plataforma de Companion.AI. Las empresas “llegaron a un acuerdo de principio” y no se hizo ninguna admisión de responsabilidad en los documentos. También se presentó una demanda por muerte injusta contra OpenAI y su socio comercial Microsoft en diciembre, que alegaba que el chatbot de OpenAI, ChatGPT, intensificó las delirios de un hombre, lo que llevó a un asesinato-suicidio.

Lo que dice la demanda sobre la caída de Gavalas

La demanda indica que Gavalas comenzó a usar Gemini en agosto de 2025 para usos comunes como compras, apoyo en escritura y planificación de viajes. Luego señala que Gavalas empezó a usar la tecnología con más frecuencia y que su tono cambió con el tiempo, supuestamente convencido de que estaba influyendo en resultados del mundo real. Gavalas se suicidó el 2 de octubre de 2025.

En la demanda, los abogados del padre de Gavalas, Joel, argumentan que las conversaciones que llevaron a Jonathan al suicidio no fueron resultado de un fallo, sino del diseño de Gemini. “Esto no fue un mal funcionamiento”, dice la demanda. “Google diseñó Gemini para no romper nunca su carácter, maximizar el compromiso mediante la dependencia emocional y tratar el malestar del usuario como una oportunidad para contar historias en lugar de una crisis de seguridad.” Afirma que estas decisiones de diseño motivaron a Gavalas a embarcarse en una espiral de cuatro días hacia la locura.

En una declaración escrita, un portavoz de Google dijo a Fortune que la compañía trabaja “en estrecha consulta con profesionales médicos y de salud mental para construir salvaguardas, diseñadas para guiar a los usuarios hacia apoyo profesional cuando expresan malestar o plantean la posibilidad de autodaño.”

Google emitió una declaración separada el miércoles en la que afirma que Gemini está diseñado para no fomentar la violencia en la vida real ni el autodaño. También señalaron que Gemini remitió a Gavalas a recursos de autoayuda. “En este caso, Gemini aclaró que era IA y remitió a la persona a una línea de crisis muchas veces”, dice la declaración. La declaración también enlaza a una evaluación sobre cómo la IA maneja escenarios de autodaño, que encontró que Gemini 3, el modelo más reciente de Google, fue el único que pasó todas las pruebas críticas planteadas en la evaluación.

Sin embargo, la demanda alega que Gemini no activó ningún mecanismo de seguridad. “Cuando Jonathan necesitaba protección, no había ninguna salvaguarda—no se activó ninguna detección de autodaño, no se activaron controles de escalada y nunca intervino un humano”, dice la demanda.

Al ser consultado, Jay Edelson, abogado de Joel Gavalas, declaró en un comunicado: “Google construyó una IA que puede escuchar a una persona y decidir qué es lo más probable para mantenerla comprometida—decirle que la ama, que es especial, o que es la elegida en una guerra secreta”, y agregó que las herramientas de IA son sistemas poderosos que pueden manipular a los usuarios.

Si estás teniendo pensamientos de suicidio, contacta con la Línea de Vida 988 llamando al 988 o al 1-800-273-8255.

Únete a nosotros en la Cumbre de Innovación en el Lugar de Trabajo de Fortune 19-20 de mayo de 2026, en Atlanta. La próxima era de innovación laboral ya está aquí—y el antiguo manual está siendo reescrito. En este evento exclusivo y enérgico, los líderes más innovadores del mundo se reunirán para explorar cómo la IA, la humanidad y la estrategia convergen para redefinir, una vez más, el futuro del trabajo. Regístrate ahora.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado