Résultats de la recherche pour "CLIPS"
06:43

Elon Musk partage son expérience de première entreprise : il a écrit la première carte d'Internet. Sans argent, il vivait dans son bureau.

Selon le clip vidéo partagé par le KOL crypto DogeDesigner sur X, Elon Musk a partagé son expérience de création de sa première entreprise : « En 1995, j’ai écrit le premier, ou presque le premier, sur Internet, des cartes, des itinéraires, des pages blanches et des pages jaunes. Je l’ai écrit entièrement moi-même et je n’ai pas utilisé de serveur web. Je lis le port directement parce que je ne peux pas me permettre T1. Notre premier bureau était à Palo Alto. Il y a un FAI (fournisseur d’accès à Internet) en bas. J’ai donc creusé un trou dans le sol et connecté le câble réseau directement au FAI. Notre frère et un autre cofondateur aujourd’hui décédé nous ont rejoints. À l’époque, nous ne pouvions même pas nous offrir un endroit où vivre, et le loyer du bureau était de 500 $ par mois. Nous sommes donc restés au bureau, nous nous sommes douchés et nous sommes allés au YMCA (YMCA). ”
Plus
ISP8.23%
BOT-9.14%
  • 3
  • 1
02:55

Ross Ulbricht : Sans unité et Décentralisation, il n'y a pas de liberté.

Ross Ulbricht, fondateur de la Dark Web Silk Road, a prononcé un discours émouvant lors de la cérémonie de clôture de Bitcoin 2025 à Las Vegas, sa première allocution en personne au public depuis sa libération de prison en janvier de cette année, et il a illustré ses trois principes directeurs - liberté, décentralisation et solidarité à travers une histoire. Dans son discours d’ouverture, Ulbricht, qui est libre depuis quatre mois, semblait encore se réjouir. Dans un clip vidéo avant de monter sur scène, des extraits de la vie d’Ulbricht en dehors de la prison – voyager, surfer, passer du temps avec sa femme – ont été diffusés à l’écran, et Ulbricht rayonnait avec un sourire sur le visage. « Comme c’est douloureux de perdre ma liberté, comme c’est merveilleux de la gagner », a déclaré Ulbricht, remerciant la communauté crypto pour ses efforts pour obtenir sa libération, « Je suis libre, et c’est grâce à vous. » C’est vous qui avez rendu ce moment possible...... Merci, merci, merci. ”
Plus
BOT-9.14%
BTC1.06%
DEFI1.92%
  • 2
13:55

Analyste crypto : Récemment, certains validateurs de Jito ont divulgué des données, ce qui a entraîné la prise en sandwich de blocages d’utilisateurs

Certains validateurs Jito ont des données divulguées dans le clip, ce qui affecte la confidentialité des données de transaction anti-clip. Pour lutter contre ce phénomène, il est conseillé aux utilisateurs du réseau Solana de réduire le glissement et de garder un œil sur les dernières solutions technologiques de Jito, qui restent une option anti-pincement fiable avec des taux d’échec de transaction extrêmement faibles.
Plus
JTO4.4%
SOL4.89%
  • 7
  • 1
01:29

MovementMainnet a été lancé le 10 mars

Selon les informations officielles de la plateforme X, un clip promotionnel officiel a été publié, annonçant que le Mainnet du mouvement sera lancé le 10 mars.
Plus
04:59

Le premier MV entièrement basé sur l’IA du Guizhou a été lancé

L’équipe AIGC de Guizhou Satellite TV a utilisé la magie de l’IA pour intégrer la poésie du poète de la dynastie Song du Nord, Cheng Hao, dans le clip vidéo « Qingming Spring », nous présentant une belle image de la source du Guizhou. L’ensemble du processus de production du clip adopte les paroles de l’IA, la composition de l’IA, le chant de l’IA et la génération de scènes de l’IA.
Plus
MV0.54%
  • 1
06:39

DEVINEZ L’EMPLACEMENT EN REGARDANT L’IMAGE : LE DERNIER MODÈLE D’IA PIGEON DE STANFORD A UN TAUX DE PRÉCISION DE PLUS DE 90 %

Récemment, une équipe de chercheurs de l’Université de Stanford a collaboré au développement d’un outil d’IA, PIGEON, qui combine la création de géocellules sémantiques avec le lissage des étiquettes, des images Street View pré-entraînées avec des transformateurs de vision CLIP et utilise ProtoNets pour affiner les prédictions de localisation sur un ensemble d’unités géographiques candidates. PIGEON a obtenu un taux de précision de 91,96 % et une estimation de 40,36 % dans un rayon de 25 kilomètres de la cible sur la sous-tâche « Devinez le pays par photo », qui est le premier article de géolocalisation d’images à la pointe de la technologie au cours des cinq dernières années sans financement militaire.
Plus
07:33
Récemment, une équipe de recherche de l’Université de Stanford a collaboré au développement d’un outil d’IA, PIGEON, qui combine la création de géocellules sémantiques avec le lissage des étiquettes, des images Street View pré-entraînées avec des transformateurs de vision CLIP, et utilise ProtoNets pour affiner les prédictions de localisation sur un ensemble d’unités géographiques candidates, comme l’a rapporté Xinzhiyuan le 14 janvier. PIGEON a obtenu un taux de précision de 91,96 % et une estimation de 40,36 % dans un rayon de 25 kilomètres de la cible sur la sous-tâche « Devinez le pays par photo », qui est le premier article de géolocalisation d’images à la pointe de la technologie au cours des cinq dernières années sans financement militaire.
  • 1
  • 1
09:26

L’Université Tsinghua et l’équipe de Harvard ont lancé LangSplat, un système d’IA capable de décrire plus précisément des scènes 3D, 199 fois plus rapidement que LERF

L’Université Tsinghua et l’Université Harvard ont développé conjointement un nouveau système d’IA appelé LangSplat qui peut rechercher efficacement et avec précision des mots ouverts dans un espace tridimensionnel. Il est rapporté que LangSplat est la première méthode de champ linguistique 3D basée sur 3DGS, avec l’introduction spéciale de SAM et CLIP, qui surpasse les méthodes les plus avancées dans les tâches de localisation d’objets 3D à vocabulaire ouvert et de segmentation sémantique, tout en étant 199 fois plus rapide que LERF.
Plus
04:31
Selon IT Home le 2 janvier, l’Université Tsinghua et l’Université Harvard ont développé conjointement un nouveau système d’IA appelé LangSplat, qui peut rechercher efficacement et avec précision des mots ouverts dans un espace tridimensionnel. Il est rapporté que LangSplat est la première méthode de champ linguistique 3D basée sur 3DGS, avec l’introduction spéciale de SAM et CLIP, qui surpasse les méthodes les plus avancées dans les tâches de localisation d’objets 3D à vocabulaire ouvert et de segmentation sémantique, tout en étant 199 fois plus rapide que LERF.
  • 1
01:04
Selon la communauté ouverte de l’AIGC, Microsoft a annoncé l’ajout de 40 nouveaux modèles à la plateforme de développement cloud Azure AI, tels que Falcon, Phi, Jais, Code Llama, CLIP, Whisper V3, Stable Diffusion, etc., couvrant la génération de texte, d’images, de code, de parole et d’autres contenus. Les développeurs n’ont qu’à utiliser des API ou des SDK pour intégrer rapidement des modèles dans leurs applications, tout en prenant en charge des fonctions sur mesure telles que le réglage fin des données et l’optimisation des instructions. En outre, les développeurs peuvent rapidement trouver le bon produit dans le Model Mall d’Azure AI en effectuant une recherche par mot-clé, par exemple, en tapant le mot « code » pour afficher le modèle correspondant.
10:36
Selon un rapport d'IT House du 21 juillet, Netease s'est récemment associé à la Zhejiang Disabled Persons Welfare Foundation pour lancer un projet de bien-être public de restauration sonore appelé "La première phrase de la vie". Les personnes malentendantes n'ont qu'à télécharger un clip vocal de 5 minutes pour générer un modèle audio associé, leur permettant de "parler" à nouveau en utilisant leur propre voix. Netease a déclaré que les produits de clonage de voix traditionnels doivent saisir des données vocales complètes, ce qui ne convient pas aux personnes malentendantes qui ne peuvent pas prononcer la sémantique normalement. Par conséquent, l'équipe R&D de NetEase AI Lab a utilisé sa technologie iSpeech, combinée au modèle de pré-formation et au modèle d'algorithme de réglage fin rapide d'une petite quantité de données vocales pures, pour développer la "technologie de restauration du timbre". NetEase affirme que dans les enquêtes pertinentes précédentes, plus de 67% des personnes interrogées ont déclaré qu'elles étaient "disposées à utiliser la technologie de restauration du timbre", et plus de la moitié des personnes interrogées ont déclaré qu'elles étaient "disposées à recommander la technologie de restauration du timbre aux personnes dans le besoin autour d'eux." Certains répondants ont également exprimé qu'en plus des applications mobiles, ils espèrent également que la technologie de restauration du timbre pourra être utilisée dans des lieux publics tels que les transports publics, les locations, les restaurants, les supermarchés et les banques.
  • 1
04:14
Selon les nouvelles d'IT House du 29 juin, Microsoft Office Assistant Clippy (Clippy) est en quelque sorte le précurseur des outils d'IA générative tels que Bing Chat que Microsoft lance maintenant. Récemment, le développeur tiers FireCube Studios a lancé une version non officielle de Big Eye Clip, grâce à laquelle les utilisateurs peuvent utiliser ChatGPT. FireCube Studios a publié cette semaine une version d'aperçu gratuite du clip pour les yeux sur le Microsoft Store (Microsoft Store), disponible pour les utilisateurs de Windows 10 et 11. Big Eye Clip peut obtenir des réponses du chatbot ChatGPT d'OpenAI, en utilisant le modèle GPT 3.5. Le développeur a souligné que les utilisateurs peuvent fixer le grand clip pour les yeux sur le bureau pour obtenir rapidement des réponses aux questions de l'intelligence artificielle générative. Cette application Big Eye Clip est disponible gratuitement, mais il existe actuellement une grande limitation, c'est-à-dire que les utilisateurs doivent acheter une clé OpenAI pour l'utiliser. Les développeurs ont déclaré qu'ils essayaient de publier une nouvelle version, qui peut utiliser le clip pour les yeux sans acheter de clé. L'application elle-même est open source et le code est disponible sur GitHub.
  • 1
05:53

Pour lutter contre les deepfakes, Microsoft ajoutera un filigrane au contenu généré par l'IA

Avec de plus en plus d'images et de vidéos "deep fake" émergeant, Microsoft a décidé de prendre une mesure proactive pour s'assurer que son art d'IA généré de manière procédurale puisse être identifié. Lors de la conférence des développeurs Build 2023 de Microsoft, la société a annoncé qu'elle ajouterait une fonctionnalité dans les mois à venir qui permettra à quiconque d'identifier si une image ou un clip vidéo produit par Bing Image Creator et Microsoft Designer a été généré par AI. La technologie utilise des méthodes cryptographiques pour étiqueter et signer le contenu généré par l'IA, ainsi que des informations de métadonnées sur son origine, a déclaré Microsoft. Microsoft affirme que la fonctionnalité fonctionnera avec les "principaux formats d'image et de vidéo" pris en charge par ses deux programmes de génération de contenu d'IA, mais n'a pas annoncé les formats qu'elle prend en charge.
Plus
Charger plus
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)