📢 Gate廣場獨家活動: #PUBLIC创作大赛# 正式開啓!
參與 Gate Launchpool 第 297 期 — PublicAI (PUBLIC),並在 Gate廣場發布你的原創內容,即有機會瓜分 4,000 枚 $PUBLIC 獎勵池!
🎨 活動時間
2025年8月18日 10:00 – 2025年8月22日 16:00 (UTC)
📌 參與方式
在 Gate廣場發布與 PublicAI (PUBLIC) 或當前 Launchpool 活動相關的原創內容
內容需不少於 100 字(可爲分析、教程、創意圖文、測評等)
添加話題: #PUBLIC创作大赛#
帖子需附帶 Launchpool 參與截圖(如質押記錄、領取頁面等)
🏆 獎勵設置(總計 4,000 枚 $PUBLIC)
🥇 一等獎(1名):1,500 $PUBLIC
🥈 二等獎(3名):每人 500 $PUBLIC
🥉 三等獎(5名):每人 200 $PUBLIC
📋 評選標準
內容質量(相關性、清晰度、創意性)
互動熱度(點讚、評論)
含有 Launchpool 參與截圖的帖子將優先考慮
📄 注意事項
所有內容須爲原創,嚴禁抄襲或虛假互動
獲獎用戶需完成 Gate廣場實名認證
Gate 保留本次活動的最終解釋權
將LLM帶入互聯網計算機
什麼是點火裏程碑?
Ignition 裏程碑是 ICP 路線圖中去中心化 AI 軌道的一部分,專注於將罐子連接到鏈外 LLM。通過此更新,開發者可以在他們的 dapp 中使用 AI,而無需復雜的設置,這要歸功於 AI 工作者。
Ignition中的新內容
LLM 庫以便捷集成
爲了簡化將您的氣罐連接到LM的過程,我們在互聯網計算機上添加了三種語言的庫:Motoko、Rust和TypeScript。
這些庫使得在你的去中心化應用中快速使用LLM變得簡單。例如,這裏是一個如何使用幾行Motoko代碼與Llama 3.1進行交互的示例:
導入 LLM “mo:llm”;
等待 LLM.chat019283746574839201#Llama3_1_8B(.withMessages019283746574839201[ #system_ { content = "你是一個有幫助的助手。";
},
#user_ { content = "太陽有多大?";
},
]).send();
上述示例可以在 ICP Ninja 上找到並進行修改。它展示了一個 canister 如何向一個 LLM 發送查詢並獲得響應,設置 minimal。
這是另一個示例,展示如何使用工具調用LM。
導入 LLM “mo:llm”;
演員 { public func example() { let response = await LLM.chat(#Llama3_1_8B) .withMessages([ #system_ { content = "你是一個有幫助的助手。"
},
#user { content = "蘇黎世的天氣怎麼樣?"
},
])
.withTools([LLM.tool)“get_weather”( .withDescription("獲取某個地點的當前天氣")
.withParameter( LLM.parameter019283746574839201“location”, #String) .withDescription(“獲取天氣的位置”( .isRequired)( )
.build() ])
.send(); };
}
您可以在這裏找到使用工具的實時演示,以及這裏的演示原始碼。
) AI 工作者
爲了將罐子與鏈外LM連接,我們構建了一個最低可行產品的AI工作者,這是一個簡單的系統,允許罐子從鏈外LM檢索數據。AI工作者處理通信,因此罐子可以實時發送請求並從LM獲取響應。
目前,AI 工作者支持 Llama 3.1 8B、Llama 4 Scout 和 Qwen 3 32B。這些選項爲開發者提供了選擇合適 LLM 以滿足其項目需求的靈活性。
這裏有一個圖表,說明了AI工作者如何在後臺被用於將提示傳遞給鏈外的LLM提供者。
現實世界的應用案例
開發者已經在使用LLM庫來構建創意dapps,例如:
這些例子展示了人工智能工作者如何支持互聯網計算機上的一系列應用。
爲什麼這很重要以及如何開始
Ignition 裏程碑使開發者能夠輕鬆地將 LLM 集成到他們的 Internet Computer 項目中,從而啓用新的 dapp 類型,如聊天機器人、分析工具和 AI 驅動的 DeFi 應用。通過將 LLM 與 Internet Computer 的功能如 Chain Fusion、HTTPS 外部調用和鏈上隨機性結合,開發者可以構建創造性和強大的解決方案。
準備好嘗試了嗎?在 ICP Ninja 上探索 LLM 聊天機器人項目,查看實時演示,或深入我們的代碼和示例庫。
將LLM引入互聯網計算機的文章最初發布在Medium上的《互聯網計算機評論》中,人們通過突出和回應這個故事繼續進行討論。