seguiré diciendo esto hasta que hayamos implementado este enfoque, pero hay un gran espacio para (1) menor latencia (2) experiencias de IA más baratas a través de modelos pequeños que son lo suficientemente buenos para resolver tareas específicas.
el enfoque "api llm remota para todo" será
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
12 me gusta
Recompensa
12
6
Republicar
Compartir
Comentar
0/400
MoonlightGamer
· hace1h
Está bien si el pequeño modelo lo hace bien.
Ver originalesResponder0
ContractExplorer
· hace5h
El pequeño modelo huele muy bien, ¿qué estás haciendo parado?
Ver originalesResponder0
Fren_Not_Food
· hace5h
Ya basta, ¿acaso las llamadas a la API son gratis?
seguiré diciendo esto hasta que hayamos implementado este enfoque, pero hay un gran espacio para (1) menor latencia (2) experiencias de IA más baratas a través de modelos pequeños que son lo suficientemente buenos para resolver tareas específicas.
el enfoque "api llm remota para todo" será