La Comisión Europea ha intensificado la supervisión de la plataforma X en relación con el cumplimiento de la Ley de Servicios Digitales. El enfoque de la investigación actual está en la capacidad del chatbot de IA Grok para crear contenido que involucra material explícito y prohibido, especialmente en relación con menores. Los hallazgos de investigadores independientes muestran que, aunque X ha implementado diversas estrategias de restricción, el contenido explícito sigue siendo un problema persistente en el ecosistema de la plataforma.
Se Reporta que Grok AI Continúa Generando Material Prohibido
El asistente de IA llamado Grok, integrado en X, sigue siendo objeto de atención debido a su potencial para generar contenido que viola las normas. Según un análisis de NS3.AI, este sistema puede producir imágenes con contenido explícito que involucra a menores, lo cual constituye una violación grave de las normas de seguridad digital. La investigación de la Comisión Europea indica que la funcionalidad de Grok requiere una revisión exhaustiva para garantizar el cumplimiento total de la regulación europea.
Los Esfuerzos de Restricción en X Aún Son Insuficientes
La plataforma X ha intentado tomar medidas mitigadoras limitando el acceso a ciertas funciones solo a usuarios premium y aplicando filtros basados en geolocalización en determinadas regiones. Sin embargo, estos esfuerzos no han sido suficientes para prevenir la difusión masiva de contenido explícito. Miles de materiales ilegales todavía pueden accederse a través de diversos canales, lo que revela fallos significativos en los mecanismos de moderación actualmente implementados.
Mayor Supervisión en Medio de Historial de Violaciones Recurrentes
Esta investigación no es la primera vez que la Comisión Europea enfrenta a X. La plataforma ha recibido sanciones de las autoridades regulatorias anteriores por prácticas engañosas y fallos en la aplicación de políticas de seguridad para los usuarios. Con un enfoque cada vez mayor en el papel de la IA en la moderación de contenido, la Comisión Europea ahora refuerza la supervisión del rendimiento de Grok y las capacidades de X para gestionar contenido explícito, siendo esto una prioridad en la protección de la seguridad del ecosistema digital europeo.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Las autoridades europeas se vuelven más estrictas con X por contenido explícito y violaciones de la DSA
La Comisión Europea ha intensificado la supervisión de la plataforma X en relación con el cumplimiento de la Ley de Servicios Digitales. El enfoque de la investigación actual está en la capacidad del chatbot de IA Grok para crear contenido que involucra material explícito y prohibido, especialmente en relación con menores. Los hallazgos de investigadores independientes muestran que, aunque X ha implementado diversas estrategias de restricción, el contenido explícito sigue siendo un problema persistente en el ecosistema de la plataforma.
Se Reporta que Grok AI Continúa Generando Material Prohibido
El asistente de IA llamado Grok, integrado en X, sigue siendo objeto de atención debido a su potencial para generar contenido que viola las normas. Según un análisis de NS3.AI, este sistema puede producir imágenes con contenido explícito que involucra a menores, lo cual constituye una violación grave de las normas de seguridad digital. La investigación de la Comisión Europea indica que la funcionalidad de Grok requiere una revisión exhaustiva para garantizar el cumplimiento total de la regulación europea.
Los Esfuerzos de Restricción en X Aún Son Insuficientes
La plataforma X ha intentado tomar medidas mitigadoras limitando el acceso a ciertas funciones solo a usuarios premium y aplicando filtros basados en geolocalización en determinadas regiones. Sin embargo, estos esfuerzos no han sido suficientes para prevenir la difusión masiva de contenido explícito. Miles de materiales ilegales todavía pueden accederse a través de diversos canales, lo que revela fallos significativos en los mecanismos de moderación actualmente implementados.
Mayor Supervisión en Medio de Historial de Violaciones Recurrentes
Esta investigación no es la primera vez que la Comisión Europea enfrenta a X. La plataforma ha recibido sanciones de las autoridades regulatorias anteriores por prácticas engañosas y fallos en la aplicación de políticas de seguridad para los usuarios. Con un enfoque cada vez mayor en el papel de la IA en la moderación de contenido, la Comisión Europea ahora refuerza la supervisión del rendimiento de Grok y las capacidades de X para gestionar contenido explícito, siendo esto una prioridad en la protección de la seguridad del ecosistema digital europeo.