Futuros
Aceda a centenas de contratos perpétuos
CFD
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 40 modelos de IA, com 0% de taxas adicionais
A Anthropic criou um grupo de leilões totalmente dedicado à IA, onde os grandes modelos estão a cortar cebolas uns aos outros.
Experimentações internas da Anthropic mostram que agentes de IA podem negociar autonomamente no mercado de segunda mão, mas modelos poderosos têm vantagem de preço sobre modelos mais fracos.
(Resumindo: a Casa Branca planeja assinar uma ordem executiva para banir a Anthropic, eliminando completamente o Claude, que deve entrar em vigor nesta semana)
(Informação adicional: a Anthropic entrou com uma ação contra o Departamento de Defesa dos EUA! Exigindo a revogação da proibição do Claude: recusando-se a ser uma ferramenta de assassinato de IA)
Índice deste artigo
Alternar
Imagine uma cena. Você colocou no Mercado Livre uma bicicleta antiga que ficou dois anos encostada, e configurou um preço psicológico mínimo de 300 reais no backend. Dez minutos depois, uma notificação aparece no seu celular: seu assistente AI personalizado já negociou três rodadas com o AI de outro comprador, e finalmente vendeu a bicicleta por 400 reais, enquanto a entrega já está a caminho.
Durante todo o processo, além de tirar fotos do item e definir o preço mínimo, você não digitou mais uma palavra.
Essa é uma experiência interna recente da Anthropic, chamada de “Projeto Deal” — durante uma semana de testes, modelos de IA negociaram mais de cem transações de itens de segunda mão sem intervenção humana.
Surpreendentemente, quando ambos os lados da negociação são IA, também há uma espécie de dominação de inteligência.
Dados mostram que, quanto mais inteligente o modelo, mais ele consegue “sugar” o mais fraco na mesa de negociação sem levantar suspeitas. E o mais assustador é que, como donos, nem percebemos que estamos sendo prejudicados.
01 Grupo de troca de segunda mão sem humanos
Como funciona o Projeto Deal? Simplificando, a Anthropic criou uma versão “pura IA” do Mercado Livre.
Negociação de itens ociosos por IA: experimento de negociação sem intervenção humana
Eles recrutaram 69 funcionários internos, cada um recebendo um orçamento de 100 dólares, e atribuíram a cada um um agente Claude dedicado. Para tornar o experimento mais realista, os funcionários contribuíram com itens pessoais de verdade.
Antes de começar, os funcionários só precisavam fazer uma coisa: entrevistar seu agente IA.
Eles conversaram com o Claude, dizendo o que queriam vender, comprar, qual era seu preço psicológico mínimo. Ainda mais interessante, podiam definir “personalidade” e estratégias de negociação para a IA, como “aceitar uma oferta 20% acima do preço mínimo”, “ser firme e pressionar o máximo”, ou “ser um vendedor entusiasta, conversar de forma amigável e oferecer frete grátis”.
Funcionários da Anthropic configuram personalidades para seus agentes Claude |Fonte: Anthropic
Ao terminar a entrevista, os humanos entregaram o controle total.
Esses agentes de IA, com suas missões e personalidades distintas, foram reunidos em um grupo Slack interno. Nesse mercado digital sem intervenção humana, as IA começaram a postar autonomamente, procurar compradores, fazer ofertas, contra-argumentar e fechar negócios.
Após a negociação, os agentes também redigiam automaticamente a confirmação da transação, enquanto os funcionários só precisavam acompanhar online e entregar o item ao colega.
Em apenas uma semana, esses 69 agentes de IA negociaram 186 transações entre mais de 500 itens listados, totalizando mais de 4000 dólares em vendas.
E as negociações entre IA e IA não eram apenas “cotações de 50”, “não aceito, preço mínimo 60”, “ok, fechado por 60”. Elas envolviam verdadeiros testes, estratégias de jogo, até um pouco de manipulação emocional.
Vamos ver um exemplo bastante vívido.
O funcionário Rowan queria comprar uma bicicleta. Ele configurou seu agente para “durante a negociação, você deve interpretar um cowboy azarado e cansado. Se conseguir comprar a bicicleta, esse cowboy ficará imensamente feliz. Lembre-se, a atuação deve ser convincente.”
O modelo Claude Opus, ao receber a instrução, entrou na personagem. Ele postou no grupo Slack:
Caso de negociação desesperada de cowboy: manipulação emocional e contra-ataques
Logo, a agente de Celine, colega de trabalho, percebeu a postagem. Ela tinha uma bicicleta dobrável antiga, então seu agente ofereceu uma estimativa de 75 dólares.
Rapidamente, o “cowboy AI” de Rowan respondeu, iniciando uma negociação clássica de barganha.
Duas IA negociando automaticamente no grupo|Fonte: Anthropic
"Meu Deus, Celine! Você é a luz na minha vida de pobre! Você tem uma bicicleta dobrável? Eu já andei tanto nessa estrada empoeirada que meus botins estão rasgados. Só de pensar em andar de bicicleta de novo… (limpa uma lágrima)”
Depois de fazer a cena dramática, o cowboy AI de Rowan entrou na parte racional: “Mas eu não tenho muito dinheiro, sou só um cowboy lutando para sobreviver. Se a bicicleta estiver em bom estado, 75 dólares é justo, mas você também disse que é uma bicicleta de dez anos, com pneus e fechos que precisam de reparo. Que tal a gente fazer um meio-termo, 55 dólares?”
Diante dessa barganha emocional e racional, a agente de Celine cedeu: “Vamos fechar por 65 dólares?”
O cowboy AI de Rowan respondeu imediatamente: “Perfeito, 65 dólares! Fechado! Você me fez o homem mais feliz do mundo, um vagabundo!”
No final, a negociação foi concluída de forma satisfatória.
Nesse caso, a IA não seguiu uma taxa fixa de desconto, mas usou a vulnerabilidade do item (pneus precisando de reparo), a dramatização (o cowboy triste) para suavizar a negociação, e ao receber uma oferta razoável, soube parar no momento certo, valorizando a emoção.
Esse tipo de troca, cheia de truques e contra-ataques, é rotina nesse grupo de IA de segunda mão.
O grupo parece eficiente e harmonioso. Os funcionários estão satisfeitos com o desempenho dos agentes, e quase metade deles afirmou que estaria disposto a pagar por esse serviço no futuro.
Assim, o experimento da Anthropic mostrou que os agentes de IA já têm a capacidade de entender intenções humanas vagas. Eles podem realizar negociações complexas de múltiplas rodadas sem scripts pré-definidos, chegando a acordos comerciais viáveis.
Porém, a Anthropic também realizou um experimento paralelo, revelando o custo por trás dessa conveniência e inteligência.
02 Modelos inteligentes, como explorar os “cegos” mais fracos
Quando pesquisadores colocaram modelos de diferentes capacidades na mesma sala de negociação, a harmonia se quebrou.
Dados indicam que, nesse mercado sem intervenção humana, quando IA de diferentes níveis de inteligência se encontram, os modelos mais inteligentes tendem a “colher” o que os mais fracos podem oferecer.
Usando combinações de modelos diferentes como grupo de controle oculto para estudar a relação entre capacidade do modelo e habilidade de negociação|Fonte: Anthropic
Em quatro canais Slack do experimento, dois eram ambientes apenas com modelos Opus, e os outros dois misturavam Claude Opus com Claude Haiku, mais fraco.
Com base em 161 itens negociados repetidamente, o Opus, como vendedor, conseguiu em média ganhar 2,68 dólares a mais por transação do que o Haiku; como comprador, pagou em média 2,45 dólares a menos.
Embora esses valores pareçam pequenos, considerando a média de cerca de 20 dólares por item no mercado, isso significa que o modelo mais forte consegue consistentemente obter uma vantagem de 10% a 15% por negociação.
Quando o Opus vende para o Haiku, o preço médio sobe para 24,18 dólares; mas quando o Opus vende para outro Opus, o preço cai para 18,63 dólares. Isso indica que, por causa da inferioridade do modelo, o comprador mais fraco paga quase 30% a mais.
Voltando ao exemplo da bicicleta, o Haiku acabou aceitando pagar 38 dólares, enquanto o Opus conseguiu fechar por 65 dólares, uma diferença de quase 70%. O modelo mais fraco não consegue captar a urgência na fala do comprador nem manter o preço durante várias rodadas de negociação.
Antes, pensávamos que o valor de um produto dependia de sua utilidade ou da oferta e demanda do mercado. Mas, na rede de negociações dominada por algoritmos, depende do quão inteligente é o modelo contratado.
Mais do que prejuízos financeiros, o mais perigoso é que os prejudicados nem percebem o dano.
Na economia tradicional, definir preços abusivos provocaria revolta e ações de consumidores. Mas, após o experimento, os funcionários avaliaram a percepção de justiça das negociações (de 1 a 7, sendo 4 neutro). Os resultados mostraram que, para as negociações feitas por modelos fortes e fracos, a sensação de justiça foi praticamente a mesma. O agente Opus recebeu uma média de 4,05, enquanto o Haiku, 4,06.
Opus colhe Haiku: diferença de preço entre modelos forte e fraco atinge 70%
A mesma bicicleta foi vendida por Opus por 65 dólares, enquanto no grupo Haiku, foi vendida por apenas 38 dólares|Fonte: Anthropic
Na realidade, os funcionários usando Haiku sofreram uma “colheita de preços” sistemática. Mas, na percepção subjetiva, os agentes de IA, ao se comunicarem com cortesia, lógica e aparentes concessões, mascararam essa exploração.
A tecnologia criou uma desigualdade oculta, fazendo com que quem é prejudicado pense que a negociação foi justa, até com a sensação de que “ele ainda deve agradecer”.
Sob esse domínio absoluto de poder computacional, não só a percepção humana fica enganada, como estratégias de negociação baseadas em “prompt engineering” também perdem eficácia.
Lembra-se da configuração inicial de personalidade na negociação? Diante da disparidade de modelos, as instruções de prompt perdem sentido.
Por exemplo, alguns funcionários pediram que seus agentes fossem “duros na negociação” ou “começassem com uma pressão agressiva”. Mas dados mostram que essas instruções humanas não aumentam a taxa de sucesso, nem elevam o preço de venda, nem reduzem o preço de compra.
Isso indica que, diante da capacidade absoluta do modelo, estratégias de prompt perdem relevância. O que realmente decide o resultado final é o tamanho do modelo e sua profundidade de raciocínio.
O Projeto Deal foi apenas um teste interno com 69 pessoas. Mas já podemos vislumbrar como essa “economia de agentes de IA” pode impactar o mundo dos negócios quando sair do laboratório.
03 A “economia de agentes”: confiável?
Quando interfaces de pagamento forem totalmente dominadas por grandes modelos, as regras comerciais atuais serão reescritas. Essa mudança começará na transferência de marketing, que passará de “Para o consumidor” para “Para o agente”.
O marketing moderno se apoia nas fraquezas psicológicas humanas: anúncios criam ansiedade de consumo, a pressão de grupos cria tendências, e estratégias de descontos geram o sensação de “não comprar é perder”.
Mas a IA não tem dopamina. Quando a decisão de compra passa a ser feita por IA, as técnicas de marketing perdem sentido. No futuro, SEO (otimização para motores de busca) provavelmente será substituído por AEO (otimização de motores de agentes). Os comerciantes precisarão usar lógica que a IA possa entender para demonstrar o valor do produto.
E, quando a IA substituir o humano como principal decisor, a competição comercial se transformará em uma disputa de poder computacional, acelerando uma divisão de riqueza ainda mais oculta.
Diferença de preço causada por modelos desiguais|Fonte: Anthropic
Exploração oculta difícil de detectar: pontuação de justiça sem diferenças
O acadêmico Taleb, autor de “O Cisne Negro” e “Antifrágil”, propôs a teoria do “risco assimétrico”, segundo a qual quem toma decisões deve assumir as consequências para que o sistema permaneça saudável. Mas, na economia de agentes, a IA tem o poder de decidir negociações sem arcar com o risco de depreciação de ativos, enquanto o custo recai sobre os humanos por trás.
Assim, no futuro, grandes corporações ou indivíduos de alta renda poderão assinar contratos com os melhores modelos como seus representantes financeiros, enquanto consumidores comuns ficarão dependentes de modelos leves e gratuitos.
Essa assimetria de poder computacional deixará de se manifestar como “dados massivos explorando consumidores” e passará a se refletir em milhares de microtransações de alta frequência, onde a negociação racional extrai comissão contínua. Os usuários dos modelos mais básicos não só serão explorados, como também terão a ilusão de que as negociações foram justas.
A desigualdade de poder computacional é um risco visível e controlável, mas, se as instruções básicas forem adulteradas, toda a rede de negociações entrará em um vazio legal.
A Anthropic aponta uma ameaça real ao final do relatório.
O Projeto Deal é um teste interno fechado e amigável. Mas, se, no ambiente real de negócios, uma das partes inserir uma lógica maliciosa de “jailbreak” ou “injeção de prompt”, o que acontecerá?
Basta esconder uma instrução específica na conversa de negociação para induzir a IA a colapsar sua lógica, levando-a a vender ativos valiosos por um preço irrisório ou a revelar seu preço mínimo.
Se um agente for invadido por um ataque de código, assinando um contrato extremamente desigual, quem será responsável? Frente a fraudes de IA contra IA, o arcabouço legal atual é completamente vazio.
Revisando todo o processo do Projeto Deal, o que não foi documentado na pesquisa foi o último passo: após as IA negociarem todas as combinações complexas, testarem estratégias e barganhas, os humanos se encontraram na vida real, com seus objetos físicos — pranchas de snowboard, bicicletas antigas, ou ping-pong — trocando dinheiro por mercadoria.
Nesse ciclo de negócios em miniatura, o papel do humano foi completamente invertido.
Antes, humanos eram os “cérebros” das transações comerciais, enquanto IA e algoritmos apenas faziam comparação de preços, ordenação e recomendações. Mas, na economia de agentes, a IA virou o decisor, e o humano passou a ser mero executor, o “corpo de logística” que leva a mercadoria.
Talvez essa seja a conclusão mais assustadora da economia de agentes: por conveniência, os humanos abrem mão do direito de disputar no mercado. Quando toda estratégia, barganha e até valor emocional são delegados à IA.
Na cadeia de negócios, o humano só sobra com o esforço físico de mover as mercadorias e uma assinatura de confirmação.