je vais continuer à le dire jusqu'à ce que nous ayons mis en œuvre cette approche, mais il y a un énorme espace pour (1) une latence plus faible (2) des expériences d'IA moins chères grâce à de petits modèles qui sont suffisamment bons pour résoudre des tâches ciblées.
l'approche "api llm distante pour tout" va
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
12 J'aime
Récompense
12
6
Reposter
Partager
Commentaire
0/400
MoonlightGamer
· Il y a 1h
Il suffit que le petit modèle soit correct.
Voir l'originalRépondre0
ContractExplorer
· Il y a 5h
Le petit modèle est vraiment agréable, que fais-tu là à rester figé ?
Voir l'originalRépondre0
Fren_Not_Food
· Il y a 5h
C'est à peu près ça, l'appel API, on dirait qu'on ne veut pas de l'argent.
je vais continuer à le dire jusqu'à ce que nous ayons mis en œuvre cette approche, mais il y a un énorme espace pour (1) une latence plus faible (2) des expériences d'IA moins chères grâce à de petits modèles qui sont suffisamment bons pour résoudre des tâches ciblées.
l'approche "api llm distante pour tout" va