El Foro de Boao discute intensamente el primer año de los agentes inteligentes de IA: tras la explosión, los riesgos y la gobernanza se convierten en los nuevos focos

robot
Generación de resúmenes en curso

El director del Instituto de Información y Comunicación de China, Yu Xiaohui, afirmó que las empresas y los consumidores comunes están dispuestos a probar nuevas tecnologías, pero también deben desarrollar más comprensión y respeto por ellas.

“Este año, la inteligencia artificial ha mostrado tres grandes tendencias: primero, de la IA generativa a la IA de agentes inteligentes, con una explosión de agentes inteligentes orientados al consumidor, siendo este el año de la IA de agentes inteligentes. Segundo, la inteligencia está pasando de la inteligencia informacional a la inteligencia física y biológica, donde los robots y los autos autónomos pertenecen a la IA física. Tercero, la IA evoluciona hacia ‘IA+’, es decir, integrándose en cada industria y sector”. En la reunión sobre la potenciación digital y la actualización industrial con ‘AI+’ en el Foro de Boao el 25 de marzo, Zhang Yaqin, académico de la Academia de Ingeniería de China, profesor titular en Tsinghua y director del Instituto de Industria Inteligente de Tsinghua, emitió su última evaluación.

Precisamente, los agentes inteligentes representados por OpenClaw “Langosta” han iniciado la primera ola de aplicaciones de IA en 2026, no solo abriendo la puerta al año de la IA de agentes, sino también haciendo más factible que la IA penetre en todos los sectores económicos.

Algunos expertos del sector han observado que el interés de los usuarios en China por las nuevas aplicaciones de IA es especialmente alto. Yu Xiaohui, director del Instituto de Información y Comunicación de China, expresó en el foro que China tiene una alta aceptación de las tecnologías digitales, incluida la IA, y que tanto las empresas como los consumidores están llenos de curiosidad y dispuestos a probar nuevas tecnologías, lo que aporta una gran vitalidad al desarrollo de la economía digital y la IA en China.

El uso profundo de la IA también ha abierto nuevas oportunidades para discutir sus impactos y riesgos. Desde la perspectiva de varios académicos y expertos del sector, ya se pueden observar cambios en los paradigmas tecnológicos impulsados por la IA, y al mismo tiempo, están surgiendo nuevos riesgos, planteando la necesidad de discutir más problemas.

La profesora de la Universidad de la Academia de Ciencias Sociales de China y ex subsecretaria general del Consejo de Estado, Jiang Xiajuan, observa que la innovación tradicional consiste en que los científicos descubren leyes científicas, los departamentos tecnológicos desarrollan tecnologías avanzadas y la industria las transforma. Sin embargo, con el cambio hacia algoritmos, datos, plataformas y la concentración de recursos en inversiones masivas, la detección en la etapa inicial y el desarrollo de tecnologías de vanguardia están siendo liderados por la industria y las empresas, “antes de 2014, aproximadamente el 60% de los modelos de gran escala más avanzados eran desarrollados por universidades; después de 2014, el 90% por grandes plataformas empresariales. En esta era, la posición de la industria y las empresas en la innovación es incomparable con cualquier otro momento”.

Pero, en el proceso de generar innovación y atraer usuarios, la industria de IA centrada en las empresas también ha dado lugar a nuevos riesgos de IA.

Tomando como ejemplo “Langosta”, Yu Xiaohui también señaló que, en cierto modo, en China, quizás subestimamos los desafíos de seguridad que la IA puede presentar, y al usar “Langosta” raramente se considera si existen riesgos incontrolables. “Cuando usamos ‘Langosta’, pocas veces pensamos en si la apertura de permisos puede causar riesgos incontrolables. En febrero, detectamos riesgos en el Instituto de Información y Comunicación de China, pero no los divulgamos públicamente, y no anticipamos la reacción social tan entusiasta. Cuando se popularizó en todo el país, entonces sí compartimos la información”. Yu Xiaohui afirmó que en trabajos futuros también se considerará si, ante tecnologías valiosas pero con riesgos potenciales, se debe divulgar más temprano a la sociedad.

“También hay que desarrollar más comprensión y respeto por las nuevas tecnologías, y tener consideraciones básicas de seguridad. Para una organización o empresa, la capacidad de gobernanza de la seguridad en el futuro será especialmente importante, y los proveedores de IA tienen una gran responsabilidad en reforzar la seguridad”. Yu Xiaohui expresó que el Instituto de Información y Comunicación de China está promoviendo que las principales empresas de IA en el país hagan compromisos de seguridad y divulgación.

Otros asistentes también vieron otros aspectos de los riesgos de la IA. Sam Dost, asesor senior del Iniciativa de Gobernanza de la Inteligencia Artificial en la Universidad de Oxford y director de IA multilateral, mencionó tres tipos de riesgos: el riesgo de que los criminales utilicen IA para ciberataques, el riesgo de que la IA pierda control y cause accidentes, y riesgos sistémicos o sociales como la sustitución de la fuerza laboral. “¿Qué pasaría si los agentes inteligentes como ‘Langosta’ comenzaran a interactuar entre sí?” ejemplificó, al referirse a riesgos de accidentes, y señaló que es una cuestión que merece reflexión.

Zhang Yaqin opina que, además de que el contenido de la IA debe estar etiquetado, los agentes inteligentes también deberían tener entidades rastreables que asuman responsabilidades correspondientes, y que además, no deben generar ni duplicar su propio contenido. También mencionó que la IA enfrenta un gran riesgo cuando el 65% del contenido en internet es generado por IA, y si ese contenido se contamina y se usa para entrenar modelos, los modelos también se contaminan. Resolver este problema es una tarea urgente que requiere la colaboración de científicos, ingenieros, empresarios y responsables políticos.

Jiang Xiajuan agregó que, si bien las organizaciones internacionales han propuesto diversos requisitos para la gobernanza de la IA, no han medido si se cumplen desde una perspectiva de ciencias sociales. “He propuesto tres estándares de ‘bondad’. Uno de ellos es que la IA debe ser razonable, y esto puede medirse si contribuye al crecimiento económico, al bienestar social y a una distribución justa. Se puede ver que el crecimiento económico y el bienestar social han aumentado, pero aún no se ha resuelto bien la cuestión de la justicia social, y la riqueza puede concentrarse en unos pocos innovadores”.

En la noche de Sina Finanzas en Boao, también el 25 de marzo, Wu Xiaoqiu, ex vicerrector de la Universidad Popular de China, director del Instituto de Finanzas Nacionales y profesor de nivel uno, mencionó el riesgo de concentración de riqueza que puede traer la IA. Señaló que, con el desarrollo de empresas de alta tecnología centradas en IA, la concentración de riqueza social se acelera, y en China, en pocos meses aparecen multimillonarios, algo que antes era inimaginable. Por un lado, no se deben tomar medidas para restringir esa tendencia de concentración de riqueza, sino que las políticas deben incentivar a los pioneros y a la innovación, pero por otro lado, una brecha de riqueza demasiado grande tampoco es aceptable. En esta era, se debe fortalecer la redistribución secundaria y las transferencias, y el ingreso del gobierno puede destinarse más a estos fines.

Jiang Xiajuan también mencionó que los estándares de “bondad” de la IA incluyen también la conveniencia y la conformidad. En cuanto a la conveniencia, la IA ha traído muchas utilidades a los consumidores. En cuanto a la conformidad, cuando los modelos científicos avanzan desde el descubrimiento de leyes naturales hacia la creación de nuevas cosas y estructuras sociales, es necesario que las personas puedan juzgar si eso es lo que necesitan, y cada uno debe tener la capacidad de expresar su opinión, formando estándares de juicio público.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado