Dos consultores a secretários, os desafios de confiança da IA como agente: podemos confiar nas decisões autónomas da inteligência artificial?

Com a tecnologia de agentes de IA (AI agent) a se expandir rapidamente no Vale do Silício, com um investimento de até 8,2 bilhões de dólares em 2024, esses sistemas autônomos estão gradualmente penetrando nas áreas financeira, de infraestrutura e de tomada de decisão. No entanto, por trás dessa revolução tecnológica, uma questão crucial, mas frequentemente negligenciada, surge: "Como podemos verificar se o comportamento dos agentes de IA é confiável?"

O Vale do Silício investiu 8,2 bilhões de dólares em agentes de IA no ano passado.

Em breve, eles controlarão nosso dinheiro, infraestrutura e tomada de decisões.

Mas há um problema de que ninguém está a falar:

Como podemos verificar se os agentes de IA estão a dizer a verdade? pic.twitter.com/zEj7z5mGyX

— Sergey Gorbunov (@sergey_nog) 22 de abril de 2025

Investimento quente em IA no Vale do Silício, mas a base de confiança ainda é uma "caixa preta"?

O co-fundador da Chainlink, Sergey Gorbunov, publicou ontem à noite que, embora os agentes de IA sejam apresentados como sistemas autônomos capazes de realizar tarefas complexas de forma independente, na verdade, a maioria ainda opera como uma "caixa-preta" - ou seja, os usuários não conseguem saber como as decisões internas são tomadas, apenas podem optar por confiar cegamente:

Um agente de IA realmente autônomo deve possuir características de "não ser interrompido" e "ser verificável" ao mesmo tempo, no entanto, os sistemas atuais muitas vezes não atendem a esse padrão.

(AI O que é a interface USB-C do mundo: Protocolo de Contexto do Modelo (MCP)? Interpretação do protocolo de contexto universal do assistente de IA )

Por que a "verificabilidade" é a verdadeira garantia de segurança?

Gorbunov enfatizou que a verificabilidade representa que os agentes de IA precisam ser capazes de explicar claramente "o que fizeram? como fizeram? cumpriram as regras estabelecidas?"

Sem esses mecanismos, os agentes de IA podem se tornar extremamente arriscados quando ganham o controle de infraestruturas críticas. Uma vez que esta "lacuna de verificação (verification gap)" não seja devidamente tratada, receio que se torne um perigo oculto no desenvolvimento da ciência e da tecnologia.

Três tipos de agentes de IA, cada um com diferentes requisitos de validação.

De acordo com Sreeram Kannan, fundador da EigenLayer, os agentes de IA podem ser divididos em três categorias com base no público-alvo:

Agentes Pessoais (Personal Agents): Serviço principal para indivíduos, como assistentes digitais, com requisitos de verificação relativamente baixos.

Agentes Comuns (: Serviço à comunidade, requer verificação de intensidade média para garantir justiça e confiabilidade.

Agentes Soberanos ): totalmente independentes de operações humanas, devem possuir o mais alto nível de capacidade de verificação.

Nos próximos cinco anos, esses agentes soberanos podem controlar trilhões de dólares em ativos; se o mecanismo de verificação não for suficientemente maduro, será como "construir uma casa sobre areia movediça".

Sistema de verificação em três camadas: reconstruindo a pedra angular da confiança dos agentes de IA

Para resolver o problema da validação, Kannan propôs uma estrutura de validação em três níveis:

Verificação Proativa (: Avaliação antes da execução da missão.

Verificação Retrospectiva ): Revisão da sua correção após a conclusão da tarefa.

Verificação Concorrente (: Monitorização e registo contínuos durante a execução da tarefa.

Esta estrutura permite que o comportamento da IA seja transparente, aumentando a confiança.

Desde a compensação de seguros até a previsão de mercado: aplicações práticas de IA verificáveis

Kannan também mencionou a aplicação potencial de agentes de IA verificáveis na liquidação de sinistros de seguros. Atualmente, a indústria de seguros é caracterizada por uma única empresa que acumula os papéis de emissão e auditoria, o que frequentemente gera uma crise de confiança:

Através de agentes de IA verificáveis, o processo de indenização pode ser transformado em auditoria independente, executado e auditado por um mecanismo transparente, aumentando a equidade e a credibilidade.

Além disso, plataformas como EigenBets combinam a tecnologia ZK-TLS com camadas de inferência verificável, permitindo que os mercados de previsão operem de forma mais transparente e reduzindo a dependência de autoridades centralizadas.

)Sam Altman três grandes observações: custos diminuem 10 vezes a cada ano, agentes de IA tornam-se o novo padrão de trabalho, ativos que não podem ser substituídos por IA irão valorizar-se(

Blockchain + IA: A criação do bilhete do futuro para agentes de IA

Perante sistemas de IA cada vez mais complexos, Gorbunov acredita que a tecnologia blockchain pode fornecer a base de confiança criptográfica necessária e ajudar a estabelecer uma estrutura de verificação robusta:

A combinação de agentes de IA com blockchain não só pode aumentar a credibilidade e a flexibilidade, mas também torna os contratos inteligentes verdadeiramente "inteligentes", pavimentando o caminho para futuras aplicações de IA.

No final do texto, Gorbunov também anexou o link do seu programa no YouTube "The Future of AI", enfatizando que o desenvolvimento crucial da futura inteligência artificial não é apenas construir modelos mais poderosos, mas sim ser capaz de:

Provar os resultados das suas ações

Apresentação transparente do processo de raciocínio

Ganhar confiança através de mecanismos criptográficos

Ele enfatizou: "Só alcançando esses três grandes objetivos é que os agentes de IA poderão operar com segurança nos sistemas do futuro."

Este artigo aborda o desafio da confiança na inteligência artificial como agente, desde consultores financeiros até secretários: podemos confiar nas decisões autônomas da inteligência artificial? Publicado originalmente em Chain News ABMedia.

Ver original
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
  • Recompensa
  • Comentário
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate.io
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)