Si la inférence IA continue d'être monopolisée par un nombre restreint de fournisseurs cloud, alors ce que l'on appelle des applications décentralisées dépendra toujours d'un cerveau centralisé.
@inference_labs change précisément cela. Il repense la manière dont la puissance de calcul IA est organisée dans les réseaux cryptographiques.
Dans le modèle traditionnel, la déduction de modèles est concentrée entre les mains de quelques fournisseurs de services cloud, dont les prix et la transparence sont déterminés par la plateforme.
Inference Labs fournit des services d'inférence via un réseau de nœuds décentralisés, et utilise une exécution vérifiable pour contraindre le comportement des nœuds, permettant à tout participant fournissant de la puissance de calcul d'entrer sur le marché, tout en permettant aux utilisateurs de vérifier que le calcul qu'ils achètent est authentique et valide.
Cette structure transforme l'inférence IA d'un service cloud fermé en un marché ouvert, ce qui signifie pour les développeurs un risque de verrouillage réduit, pour les applications une fiabilité accrue, et donne également une base économique réellement réalisable à l'IA décentralisée.
@KaitoAI #Yap @easydotfunX
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Si la inférence IA continue d'être monopolisée par un nombre restreint de fournisseurs cloud, alors ce que l'on appelle des applications décentralisées dépendra toujours d'un cerveau centralisé.
@inference_labs change précisément cela. Il repense la manière dont la puissance de calcul IA est organisée dans les réseaux cryptographiques.
Dans le modèle traditionnel, la déduction de modèles est concentrée entre les mains de quelques fournisseurs de services cloud, dont les prix et la transparence sont déterminés par la plateforme.
Inference Labs fournit des services d'inférence via un réseau de nœuds décentralisés, et utilise une exécution vérifiable pour contraindre le comportement des nœuds, permettant à tout participant fournissant de la puissance de calcul d'entrer sur le marché, tout en permettant aux utilisateurs de vérifier que le calcul qu'ils achètent est authentique et valide.
Cette structure transforme l'inférence IA d'un service cloud fermé en un marché ouvert, ce qui signifie pour les développeurs un risque de verrouillage réduit, pour les applications une fiabilité accrue, et donne également une base économique réellement réalisable à l'IA décentralisée.
@KaitoAI #Yap @easydotfunX