Escaneie para baixar o app da Gate
qrCode
Mais opções de download
Não me lembre de novo hoje
Resultados da pesquisa por "SFT"
08:30
Na tarde de 12 de janeiro de 2024, foi lançado oficialmente o primeiro Fórum de Inovação SFT. Durante a reunião, os fundadores da zCloak Network e da Solv Protocol anunciaram conjuntamente que se tornaram oficialmente parceiros estratégicos. Em novembro de 2023, o DESFT, um projeto concebido e incubado em conjunto pela zCloak e pela Solv, foi visto no Festival FinTech de Singapura, que é apoiado conjuntamente pela Autoridade Monetária de Singapura (MAS) e pelo Banco Central do Gana, que visa ajudar as micro, pequenas e médias empresas (MPME) em regiões em desenvolvimento a participar no comércio internacional através da identidade digital empresarial, credenciais digitais e tecnologia ERC3525, e obter serviços financeiros justos, precisos e acessíveis em atividades transfronteiriças da economia digital. Através da Cooperação Aprofundada no Projeto DESFT, ambas as partes concordaram que a Prova de Conhecimento Zero da zCloak, a tecnologia de identidade digital e o padrão ERC-3525 do Protocolo Solv têm uma complementaridade muito boa, forte combinação no desenvolvimento de aplicações práticas e amplo espaço de inovação. A fim de explorar melhor o caminho da tokenização de ativos do mundo real, as duas partes estabeleceram formalmente uma parceria estratégica de negócios para expandir conjuntamente a cooperação técnica futura e cenários de pouso comercial.
03:59
De acordo com o relatório do TechWeb de 19 de setembro, o sistema de avaliação oficial nacional Flag_ (Libra) anunciou os resultados da avaliação dos últimos grandes modelos da lista de setembro. Com base no conjunto de dados de avaliação subjetiva mais recente do CLCC v2.0, a lista Flag_ (Libra) de setembro concentra-se na avaliação de 7 modelos de diálogo de código aberto que se tornaram populares recentemente. A julgar pelos resultados gerais, Baichuan2-13 b-chat, Qwen-7 b-chat e Baichuan2-7 b-chat estão entre os melhores, com taxas de precisão superiores a 65%. Na lista de modelos básicos, os resultados da avaliação objetiva de Baichuan 2, Qwen, InternLM e Aquila superaram os modelos Llama e Llama2 do mesmo nível de parâmetro. Na lista de modelos SFT, Baichuan 2-13 B-chat, YuLan-Chat-2-13 B e AquilaChat-7 B estão entre os três primeiros. Em ambas as listas de avaliação objetiva, o Baichuan 2 apresentou excelente desempenho, e o teste do modelo básico superou o Llama 2 nos campos chinês e inglês. É relatado que Flag_ (Libra) é um grande sistema de avaliação de modelos e uma plataforma aberta lançada pelo Instituto de Pesquisa de Inteligência Artificial Zhiyuan de Pequim. Seu objetivo é estabelecer parâmetros de avaliação, métodos e conjuntos de ferramentas científicos, justos e abertos para ajudar os pesquisadores a avaliar de forma abrangente modelos básicos e Desempenho de algoritmos de treinamento. Flag_ O grande sistema de avaliação de modelos de linguagem inclui atualmente 6 tarefas principais de avaliação, quase 30 conjuntos de dados de avaliação e mais de 100.000 questões de avaliação.
07:30

Wisdom AI: plataforma comunitária de código aberto de IA neutra e aberta, o wisemodel é lançado oficialmente

A equipe Wise AI anunciou que a plataforma comunitária de código aberto de IA neutra e aberta (wisemodel.cn) foi lançada oficialmente. De acordo com relatos, o objetivo da plataforma é reunir modelos e conjuntos de dados de IA de código aberto comumente usados e outros recursos no país e no exterior para construir uma plataforma de inovação de código aberto de IA neutra e aberta. Atualmente, Tsinghua/Zhipu chatglm2-6 B, Stable Diffusion V1.5, alphafold2, seamless m4t large e outros modelos, bem como shareGPT, ultrachat, moss-sft e outros conjuntos de dados estão online.
Mais
12:23
De acordo com o relatório de 36Kr de 6 de setembro, a equipe Wise AI anunciou que a plataforma comunitária de código aberto de IA neutra e aberta (wisemodel.cn) foi lançada oficialmente. De acordo com relatos, o objetivo da plataforma é reunir modelos e conjuntos de dados de IA de código aberto comumente usados e outros recursos no país e no exterior para construir uma plataforma de inovação de código aberto de IA neutra e aberta. Atualmente, modelos como Tsinghua/Zhipu chatglm2-6 B, Stable Diffusion V1.5, alphafold2, seamless m4 t large e conjuntos de dados como shareGPT, ultrachat e moss-sft foram lançados.
07:58
De acordo com o relatório de Xin Zhiyuan de 5 de setembro, a pesquisa mais recente da equipe do Google propôs que grandes modelos fossem usados em vez de humanos para rotulagem de preferência, que é AI Feedback Intensive Learning (RLAIF). Verificou-se que o RLAIF pode produzir melhorias comparáveis ao RLHF com uma taxa de vitória de 50% sem depender de anotadores humanos. Ao mesmo tempo, a pesquisa do Google provou mais uma vez que o RLAIF e o RLHF têm uma taxa de vitória superior a 70% em comparação com o ajuste fino supervisionado (SFT).
03:08
De acordo com um relatório da Heart of the Machine em 1º de setembro, o Laboratório de Inteligência de Dados e Computação Social da Universidade Fudan (FudanDISC) lançou um assistente pessoal médico e de saúde chinês - DISC-MedLLM. Nas avaliações de perguntas e respostas de rodada única e de diálogo médico e de consultas de saúde em múltiplas rodadas, o desempenho do modelo mostra vantagens óbvias em comparação com os grandes modelos de diálogo médico existentes. Além disso, o grupo de pesquisa também divulgou um conjunto de dados de ajuste fino supervisionado (SFT) de alta qualidade de 470.000 - DISC-Med-SFT, e os parâmetros do modelo e relatórios técnicos também foram de código aberto.
05:33
De acordo com o coração da máquina, dois modelos grandes do laboratório Stability AI e CarperAI: FreeWilly 1 e FreeWilly 2, superaram o Llama-2-70b-hf lançado pela Meta há três dias, no dia 22, e alcançaram com sucesso o topo da tabela de classificação Open LLM do HuggingFace. O FreeWilly 2 também venceu o ChatGPT (GPT-3.5) em muitos benchmarks, tornando-se o primeiro grande modelo de código aberto que pode realmente competir com o GPT-3.5, algo que o Llama 2 não fez. O FreeWilly 1 é construído sobre o modelo base LLaMA 65B original e um ajuste fino cuidadosamente supervisionado (SFT) usando um novo conjunto de dados sintéticos no formato Alpaca padrão. O FreeWilly2 é baseado no mais recente modelo básico LLaMA 2 70B.
05:43
De acordo com o coração da máquina, dois modelos grandes do laboratório Stability AI e CarperAI: FreeWilly 1 e FreeWilly 2 superaram o Llama-2-70 b-hf lançado pela Meta há três dias e alcançaram com sucesso o topo da classificação Open LLM da HuggingFace. O que é mais impressionante é que o FreeWilly 2 também venceu o ChatGPT (GPT-3.5) em muitos benchmarks, tornando-se o primeiro modelo de código aberto que pode realmente competir com o GPT-3.5, algo que o Llama 2 não fez. O FreeWilly 1 é construído sobre o modelo base LLaMA 65 B original e um ajuste fino cuidadosamente supervisionado (SFT) usando novos conjuntos de dados sintéticos no formato Alpaca padrão. O FreeWilly2 é baseado no mais recente modelo básico LLaMA 2 70 B.
14:48
Odaily Planet Daily News Meta lançou o modelo de linguagem multimodal CM3leon. O CM3leon é um modelo de linguagem multimodal somente decodificador, baseado em token e com recuperação aprimorada, capaz de gerar e preencher texto e imagens. O CM3leon é o primeiro modelo multimodal treinado usando uma receita adaptada de um modelo de linguagem de texto simples, consistindo em um estágio de pré-treinamento de aumento de recuperação em grande escala e um segundo estágio de ajuste fino supervisionado (SFT) multitarefa. Como um modelo geral, ele pode executar geração de texto para imagem e imagem para texto, permitindo a introdução de métodos de decodificação contrastiva independentes que produzem saída de alta qualidade.
Depositar mais
Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)