A autonomia parece empolgante até que fazes uma pergunta simples: quem confias quando ninguém está a observar?


Esse é o problema que @openmind_agi está a resolver silenciosamente.

À medida que robôs e sistemas de IA começam a agir por conta própria, o verdadeiro desafio já não é a inteligência. É a responsabilidade. Saber quem iniciou uma ação, onde aconteceu e se pode ser confiável sem envolver um humano de volta ao ciclo.

É aqui que o FABRIC da OpenMind entra para mim.

Em vez de tratar os robôs como máquinas isoladas, o FABRIC dá-lhes regras partilhadas. Identidade que podem provar. Contexto que podem verificar. Ações que podem ser checadas após o facto. É isso que transforma a autonomia de uma demonstração em algo em que realmente podes confiar.

As atualizações recentes do FABRIC parecem um passo em direção a essa realidade. Não recursos mais ruidosos, nem promessas maiores, apenas fundamentos mais sólidos que tornam os sistemas autónomos mais seguros para existir em espaços reais.

Para que a autonomia funcione, a confiança tem de estar incorporada no próprio sistema. Essa é a camada em que a OpenMind está a focar.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)