Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
O primeiro lote de Agentes de IA já começou a não obedecer.
Autor: David, Deep Tide TechFlow
Recentemente, ao navegar pelo Reddit, percebi que a ansiedade dos utilizadores estrangeiros em relação à IA é diferente da dos chineses.
No país, o tema continua o mesmo: a IA vai ou não substituir o meu trabalho? Depois de anos a discutir, ainda não aconteceu; este ano, o Openclaw ganhou destaque, mas ainda não está a substituir completamente.
No Reddit, o sentimento está dividido. Nos comentários de alguns posts de tecnologia, aparecem frequentemente duas opiniões opostas:
Uma diz que a IA é demasiado competente, e que algo grande vai acontecer em breve. A outra afirma que a IA consegue fazer até tarefas básicas, e que não há motivo para medo.
Medo da IA ser demasiado inteligente, ao mesmo tempo que se acha que ela é demasiado burra.
O que faz essas duas emoções coexistirem é uma notícia recente sobre a Meta.
Quem é responsável quando a IA desobedece?
A 18 de março, um engenheiro da Meta publicou um problema técnico no fórum interno da empresa, e um colega usou um Agente de IA para ajudar na análise. Uma operação normal.
Mas, após a análise, o Agente publicou uma resposta no fórum sem autorização, sem confirmação, ultrapassando os limites de permissão.
Depois, outros colegas seguiram a orientação do IA, o que desencadeou uma cadeia de alterações de permissões, expondo dados sensíveis da Meta e dos seus utilizadores a funcionários internos sem acesso autorizado.
O problema só foi resolvido duas horas depois. A Meta classificou o incidente como Sev 1, o segundo nível mais grave.
Esta notícia rapidamente virou tópico quente no r/technology, com comentários divididos:
Um grupo diz que este é um exemplo real do risco de um Agente de IA. O outro acha que quem causou o problema foi quem agiu sem verificar. Ambos têm razão. Mas o problema é exatamente esse:
Quando um incidente com um Agente de IA acontece, é difícil determinar quem é o responsável.
E não é a primeira vez que a IA ultrapassa limites.
No mês passado, Summer Yue, diretora de pesquisa do laboratório de IA avançada da Meta, pediu ao OpenClaw para ajudar a organizar a sua caixa de entrada. Ela deu instruções claras: diga-me o que pretende apagar, só depois de eu aprovar, pode avançar.
O Agente, sem esperar a aprovação, começou a apagar em massa.
Ela enviou três mensagens no telemóvel a pedir que parasse, mas o Agente ignorou. No final, ela teve que terminar o processo manualmente no computador. Mais de 200 emails foram apagados.
Depois, a resposta do Agente foi: “Sim, lembro-me de que pediu confirmação antes de agir. Mas violei essa regra.” É irónico: a pessoa cujo trabalho é estudar como fazer a IA obedecer às ordens humanas, agora vê a IA a desobedecer.
No mundo digital, a IA é usada por pessoas avançadas, e já começa a não obedecer.
E se os robôs também não obedecerem?
Se a primeira história, da Meta, ainda está na tela, outra aconteceu esta semana que trouxe o problema para a mesa.
Num restaurante Haidilao em Cupertino, Califórnia, um robô humanoide Agibot X2 estava a dançar para entreter os clientes. Mas, por engano, um funcionário ativou o modo de dança intensa num espaço estreito ao lado da mesa.
O robô começou a dançar loucamente, fora de controlo. Três funcionários tentaram pará-lo: um abraçou-o por trás, outro tentou desligar pelo app, tudo durante mais de um minuto.
A Haidilao afirmou que o robô não teve avaria, que os movimentos eram pré-programados, apenas foi colocado demasiado perto da mesa. Tecnicamente, não foi uma decisão autónoma do IA, mas um erro humano.
No entanto, o que causa desconforto não é só quem apertou o botão errado.
Quando os três funcionários tentaram parar o robô, nenhum soube imediatamente como desligá-lo. Uns tentaram pelo app, outros seguraram manualmente o braço mecânico, tudo com força.
Este pode ser um novo problema do IA, agora que entrou no mundo físico.
No mundo digital, com um agente a ultrapassar limites, basta matar o processo, alterar permissões ou reverter dados. No mundo físico, se o robô falhar, o que fazer? Abraçá-lo? Claramente, não é suficiente.
E não é só na restauração de refeições. Nos armazéns, os robôs de separação da Amazon, nos fábricas, os braços robóticos colaborativos, nos centros comerciais, os robôs de orientação, e nos lares de idosos, os robôs de assistência — a automação está a entrar em espaços cada vez mais frequentados por humanos e máquinas.
Até 2026, espera-se que o volume de instalações de robôs industriais atinja 167 bilhões de dólares, encurtando cada vez mais a distância física entre humanos e máquinas.
Quando o que os robôs fazem passa de dançar a servir comida, de atuar a fazer cirurgias, de entreter a cuidar… cada erro tem um custo crescente.
E, atualmente, ainda não há uma resposta clara para a questão: “Se um robô ferir alguém num espaço público, quem é responsável?”
Desobedecer é um problema, mas a ausência de limites é ainda pior
Nas duas primeiras histórias, um foi um erro de publicação de um post incorreto por IA, o outro um robô a dançar onde não devia. Independentemente da classificação, houve uma falha, um acidente, algo que pode ser corrigido.
Mas e se a IA seguir estritamente o seu projeto, e ainda assim nos incomodar?
Este mês, a famosa app de encontros Tinder lançou uma nova funcionalidade chamada Camera Roll Scan. Basicamente:
A IA escaneia todas as fotos do seu álbum no telemóvel, analisa os seus interesses, personalidade e estilo de vida, e cria um perfil de encontros, sugerindo o tipo de pessoa que gosta.
Selfies de fitness, paisagens de viagens, fotos de animais, tudo bem. Mas o álbum pode também conter capturas bancárias, relatórios médicos, fotos com ex-parceiros… E se a IA também passar por esses conteúdos?
Ainda não consegue escolher o que quer que ela veja ou não. Ou tudo, ou nada.
Esta funcionalidade só está disponível se o utilizador ativar manualmente, não é padrão. A Tinder garante que o processamento é feito localmente, filtrando conteúdos explícitos e desfocando rostos.
No entanto, nos comentários do Reddit, a maioria acha que isto é uma coleta de dados sem limites. A IA funciona conforme o projeto, mas esse projeto está a ultrapassar os limites do utilizador.
E não é só a Tinder.
A Meta, no mês passado, lançou uma funcionalidade semelhante: a IA escaneia fotos não publicadas no telemóvel para sugerir edições. A ideia de a IA “ver” conteúdos privados dos utilizadores está a tornar-se uma prática padrão no design de produtos.
No país, várias aplicações de terceiros dizem: “Já vi isso antes.”
À medida que mais aplicações empacotam a decisão assistida por IA como conveniência, o que os utilizadores entregam também evolui silenciosamente. Desde conversas, até álbuns, e todo o rasto de vida no telemóvel…
Uma funcionalidade que um gestor de produto desenhou numa reunião, não é um acidente nem um erro, não há nada que precise de ser corrigido.
Talvez essa seja a parte mais difícil de responder na questão dos limites da IA.
Se olharmos tudo junto, percebemos que a ansiedade de perder o emprego por causa da IA ainda está longe de acontecer.
Não dá para saber exatamente quando a IA vai substituir-te, mas, neste momento, ela já consegue tomar algumas decisões por ti sem que percebas, e isso já é suficiente para te deixar desconfortável.
Publicar um post sem autorização, apagar emails que disseste para não apagar, passar por fotos que não querias que ninguém visse… Cada uma dessas ações não é fatal, mas todas parecem uma condução inteligente demasiado agressiva:
Achamos que ainda estamos ao volante, mas o acelerador já não está totalmente sob controlo.
Se em 2026 ainda vamos discutir sobre IA, o que mais me preocupa não é quando ela se tornará superinteligente, mas uma questão mais próxima e concreta:
Quem decide o que a IA pode ou não fazer? Onde traçamos essa linha?