Até os mestres de IA estão a copiar os trabalhos: construir uma base de conhecimento pessoal eficiente usando o Wiki de LLM

robot
Geração de resumo em curso

撰文:Biteye principais contribuidores Shouyi

*O texto completo tem cerca de 2300 caracteres e prevê-se um tempo de leitura de 6 minutos

Todos os dias alimenta-se a IA com materiais; ela vira a cabeça e esquece tudo. Token em fúria de queima… e, no fim, a base de conhecimento termina como «prédio inacabado»?

O ex-cofundador da OpenAI / diretor de IA da Tesla, Andrej Karpathy @karpathy, acabou de revelar a solução definitiva. A 3 de abril, publicou um tweet com mais de 17 milhões de visualizações e disponibilizou em código aberto um guia rigoroso: llm-wiki.

Este guia, que já alcançou 5000+ Stars, propõe: usar modelos de grandes dimensões para construir uma base de conhecimento pessoal — para, a partir daí, deixar de «queimar Token às cegas» e fazer com que o conhecimento «ganhe juros automaticamente», tal como um ativo digital.

Hoje, o nosso editor vai desmontar de forma direta e prática este tutorial que até os grandes nomes estão a usar!

01 Por que razão, no passado, a tua base de conhecimento falhava sempre?

Antes de começares a construir, fica a conhecer dois dos padrões de falha mais comuns, para não voltares a cair no mesmo.

  1. RAG tradicional (recuperação aumentada)

O principal ponto doloroso deste tipo de abordagem é que queima Token e ainda é «esquecida». Quando lhe atiras dezenas de milhares de palavras de whitepapers sobre cripto e os mais recentes artigos de IA, ela lá se vai lendo com esforço e resume-te numa versão curta. Depois, na semana seguinte, perguntas: «Qual é a diferença entre aquele projeto da semana passada e este concorrente de hoje?» E ela só se lembra daqueles resumos secos que tinha no início. Porque cada chamada depende de uma recuperação fragmentada; o conhecimento nunca chega a formar um acúmulo estruturado, e o consumo de Token é enorme.

  1. Wiki tradicional (anotações manuais)

O que caracteriza este tipo de abordagem é que é construída puramente à mão: marcar etiquetas, montar ligações duplas, criar índices… Karpathy resumiu num só golpe de luz: «O mais chato para organizar o conhecimento não é ler e pensar — é o “registo” (classificação, formatação).» Os humanos cansam-se, e a IA está sempre online. Antes, todo este serviço sujo era suportado pelos humanos na marra; o resultado era natural: acabar por desistir.

02 Desmontagem da lógica: o «pipeline totalmente automático» do LLM Wiki

O coração da proposta de Karpathy é a substituição de papéis: tu limitas-te a ser a pessoa que «fornece materiais»; toda a parte suja e o trabalho pesado ficam a cargo da IA. Este sistema é composto por três camadas lógicas:

Primeira camada: armazém de matérias-primas (entra, mas não sai)

O que tu vês no dia a dia — relatórios aprofundados, threads longas, tutoriais de IA, gravações de podcasts — é só atirar para lá. Aqui existe uma «fonte única de verdade»; o modelo grande só pode ver e está absolutamente proibido de alterar.

Segunda camada: zona central da Wiki (IA com controlo total)

Aqui há apenas ficheiros em Markdown. Tu não precisas te preocupar com a formatação; a IA extrai automaticamente as matérias-primas em «cartões de conceitos», «tabelas de comparação de concorrentes por segmento», etc. Tu só tens de ler; a IA trata de escrever e atualizar.

Terceira camada: regras SOP (as tuas regras de casa)

Escreve um ficheiro de configuração CLAUDE.md ou GPT.md e diz à IA as nossas regras. Por exemplo: «Todos os relatórios de investigação sobre a indústria de moedas, devem extrair a economia de tokens e o histórico da equipa»; «Todos os tutoriais de IA, devem resumir em 3 blocos de código de Prompts executáveis».

03 Tutorial prático: de «queimar Token» a «valorização de ativos» — agora há um pipeline; como o fazes arrancar? Os três movimentos essenciais abaixo fazem a tua base de conhecimento começar a «render juros automaticamente» em 1 segundo:

Ação 1: entrada automática (Ingest)

Exemplo com o tipo “lagosta”: atiras lá um relatório de investigação Web3 com 20k palavras e deixas apenas uma frase: «Guarda isto por mim».

Execução da IA: em segundo plano lê rapidamente; não só gera automaticamente o ficheiro Projeto A_nota_de_IA_para_investigação.md, como também atualiza o teu índice global, index.md; e até vai, por iniciativa própria, adicionar este novo projeto ao teu ficheiro de análise de concorrentes do mesmo segmento que tinhas escrito antes, 赛道竞品分析.md. Lê-se uma vez e há ligação em todo o ecossistema!

Ação 2: perguntas e «capitalização de conhecimento» (Query)

Exemplo com o tipo “lagosta”: perguntas casualmente: «Junta e mistura as 5 minhas mais recentes leituras sobre técnicas de Prompt para grandes modelos e escreve um pequeno copy estilo Xiaohongshu que dê sucesso.» A IA, num instante, puxa os pontos essenciais com alta densidade e escreve-te tudo.

Capitalização de conhecimento: Karpathy sublinha que boas perguntas e boas respostas nunca podem ficar a apanhar pó na caixa de chat! Se achas que este resumo da copy ficou bom, dás simplesmente uma ordem à IA: «Guarda este resumo de volta na Wiki, e cria uma nova página chamada Prompt modelo universal.md.» Isto é uma espécie de «recompra» do conhecimento (Restaking): quanto mais usas, mais espesso fica!

Ação 3: grande limpeza a altas horas (Lint)

Exemplo com o tipo “lagosta”: antes de dormir, instrução: «Faz uma verificação de saúde à base de conhecimento».

Execução da IA: varre globalmente como um robô aspirador. Logo no início do dia seguinte, ela reporta: «Chefe, o mês passado guardaste uma certa ferramenta de IA que agora está a ser cobrada; existe um conflito com a lógica do “guia grátis para se aproveitar” que guardaste ontem. Queres que eu atualize?»

04 Configuração avançada: Obsidian + grande modelo = “外挂” definitivo

No passado, ao tentar guardar memória a longo prazo, não dava para fugir às bases de dados vetoriais complexas — mas para a maioria das pessoas isso é demasiado exigente. Se a pesquisa local não funcionar bem, a experiência é extremamente inútil. Karpathy recomenda a combinação definitiva: Obsidian (software de notas local) + modelo de grandes dimensões.

O Obsidian é como um editor de código; o modelo de grandes dimensões é o teu programador subcontratado. Ao abandonar bases de dados complexas, basta teres dois ficheiros essenciais para reduzir a níveis extremos o consumo de Token:

index.md (esboço global): regista os resumos e ligações de todas as páginas. Sempre que a IA responde uma pergunta, antes de tudo faz uma leitura rápida do índice global, para depois ir buscar de forma precisa as notas correspondentes, sem ter de reler dezenas de milhares de palavras em cada ocasião. Redução de 90% no consumo de Token!

log.md (registo operacional em formato diário): regista, por ordem temporal, o que a IA fez diariamente e em que ficheiros alterou, para poderes «confirmar o plantão» a qualquer momento.

Combinado com o Obsidian — recorte de uma página com um clique no browser e o mapa visual global das estrelas do conhecimento — a base de conhecimento também pode tornar-se visual.

05 Resumo: inicia a tua era de «fazer o conhecimento render»

Na era de explosão de informação de 2026, quem conseguir depositar conhecimento com o menor custo de fricção será capaz de usar o menor número de Token para puxar a maior alavancagem.

Tal como o que Karpathy disponibilizou em aberto desta vez: não é um código rígido e morto, mas sim um «ficheiro de ideologia» escrito para a IA. Só tens de fornecer a ligação do guia ao teu Agent dedicado, e consegues ativar o modo de “ganhar deitado”.

Faz a base de conhecimento mexer, faz com que os Token não acabem, e faz com que a tua lagosta já não seja uma lagosta de olhos revirados que não se deixa criar!

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar