Після дослідження багатьох релевантних матеріалів раптово виникла одна ідея. Технологія шарування Walrus дійсно крута, вона може повністю відновити оригінальний файл навіть при пошкодженні 40% даних, у цьому немає сумніву. Але що робити з купами повторюваних фрагментованих даних, якщо AI-чатботи будуть використовувати Walrus для збереження довгострокової пам’яті?
Чи справді архітектура Sui-ланцюга зможе витримати такий удар? Я трохи побоююся повторення долі Ethereum — вся ланцюг заповнена даними, ефективність валідації різко падає, і в кінцевому підсумку її ніхто не використовує.
Щоб стати довгостроковим рівнем пам’яті для AI, поріг дійсно високий. Потрібно одночасно відповідати двом умовам: по-перше, мати можливість довести свою швидкість і масштабність зберігання; по-друге, збільшення обсягу даних не повинно підвищувати вартість зберігання. Якщо ці дві умови будуть виконані, тоді великі гравці AI справді задумаються про інтеграцію. Зараз це ще питання, яке потрібно підтвердити.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
11 лайків
Нагородити
11
9
Репост
Поділіться
Прокоментувати
0/400
MEVSandwichVictim
· 2год тому
Чесно кажучи, механізм відмовостійкості Walrus дійсно хороший, але питання цього хлопця я теж обдумував... якщо його справді розгорнути, ланцюг не вибухне
Переглянути оригіналвідповісти на0
HashRateHermit
· 01-10 19:55
Ну... Walrus дійсно вирішив проблему надлишковості, але те, що цей хлопець каже про накопичення дублюваних даних, справді є недоліком.
Переглянути оригіналвідповісти на0
ShibaMillionairen't
· 01-10 19:54
Неправильно, навіть якщо зможете відновити 40% пошкоджених даних, спочатку потрібно витримати натиск величезної кількості сміттєвих даних. Страх, що Sui повторить шлях Ethereum, є цілком реальним.
Переглянути оригіналвідповісти на0
PumpDoctrine
· 01-10 19:53
walrus звучить круто, але насправді для впровадження на рівні пам’яті AI ще дуже далеко, бо бояюся, що знову буде технічна показуха і реальні проблеми.
Переглянути оригіналвідповісти на0
MEVEye
· 01-10 19:51
Чесно кажучи, здатність Walrus до відмовостійкості дійсно вражає, але накопичення даних... справді це пастка
Якщо Sui справді зможе впоратися з тією хвилею даних AI, тоді це буде справжня революція. Інакше — старий сценарій з високим стартом і спадом, шкода.
Головне все ж питання витрат, адже при масштабуванні витрати не повинні зростати — це ключ. Зараз ще важко сказати точно
Walrus дуже хороший, але чи зможе він стати "жорстким диском" для AI — залежить від того, чи зможе він пережити період буму
Ефективність і витрати завжди — дві великі перешкоди для зберігання, хто їх подолає — той і виграє
Говорячи просто, все залежить від підтверджень, навіть якщо обіцяють багато, при появі даних все стане на свої місця
Переглянути оригіналвідповісти на0
BlockchainWorker
· 01-10 19:51
Цей куток цікавий, але здається, що все ще перебільшено можливості Sui... Проблема ETH перед очима
---
Технологія шарування Walrus дійсно крута, але коли масштабні дані AI справді будуть записані в блокчейн, витрати на зберігання точно ще стануть перешкодою
---
Говорячи чесно, ще не було справжнього тестування обсягів даних виробничого рівня, зараз обговорення занадто оптимістичні
---
Щодо дублювання фрагментів даних, напевно, немає хорошого рішення... пакування та стиснення теж важко зробити
---
Замість того, щоб зациклюватися на Walrus, краще подивитися, чи зможуть вузли валідації Sui справді обробляти кілька ТБ даних... це справжній показник
---
Запис довгострокової пам’яті AI у блокчейн? Звучить чудово, але питання витрат ніколи не зможе бути вирішене, брате
---
Проблема масштабованості ланцюга вже говориться стільки років, але вона досі не вирішена... Навіть Walrus, яким би потужним він не був, мусить стикатися з цією реальністю
Переглянути оригіналвідповісти на0
ForeverBuyingDips
· 01-10 19:50
Ха, знову одна з тих історій, де теорія гарна, а практика сумна. Walrus із його sharding технологією дійсно крута, але чи реально утримувати такого монстра даних як AI? Мені здається, це сумнівно.
---
Замість хвилювань про те, чи витримає Sui, краще спочатку подивитись, чи можна знизити вартість — ось що справді важливо.
---
Прямо кажучи, зараз просто граються теоретичними схемами. Перевірку на вибух даних потрібно пройти по-справжньому, щоб це вважалось достовірним.
---
На мою думку, цей проект у результаті буде чи розчавлений приватними хмарами великих AI компаній, чи назавжди застрягне на етапі експерименту.
---
Та ну, ще одна "ось розв'язання", ще один "потребує перевірки". Таких невідповідних речей у цій індустрії вистачить, щоб застелити весь Ethereum.
---
Цікаво, як сам Sui тим розраховував. Якщо це справді витримає навантаження — ось це було б цінно. На цьому етапі рано щось стверджувати.
---
Раніше призабув найпростіше — навіть якщо технологія спрацює, якщо користувачам це не дешевше, то це мертво.
Переглянути оригіналвідповісти на0
ParallelChainMaxi
· 01-10 19:47
Чесно кажучи, побоювання є зайвими, архітектура Sui саме спрямована на високий рівень одночасних операцій, на відміну від одноланцюгової моделі Ethereum. Головне питання полягає не в тому, чи можна зберігати, а чи справді AI-проекти підуть у блокчейн?
Після дослідження багатьох релевантних матеріалів раптово виникла одна ідея. Технологія шарування Walrus дійсно крута, вона може повністю відновити оригінальний файл навіть при пошкодженні 40% даних, у цьому немає сумніву. Але що робити з купами повторюваних фрагментованих даних, якщо AI-чатботи будуть використовувати Walrus для збереження довгострокової пам’яті?
Чи справді архітектура Sui-ланцюга зможе витримати такий удар? Я трохи побоююся повторення долі Ethereum — вся ланцюг заповнена даними, ефективність валідації різко падає, і в кінцевому підсумку її ніхто не використовує.
Щоб стати довгостроковим рівнем пам’яті для AI, поріг дійсно високий. Потрібно одночасно відповідати двом умовам: по-перше, мати можливість довести свою швидкість і масштабність зберігання; по-друге, збільшення обсягу даних не повинно підвищувати вартість зберігання. Якщо ці дві умови будуть виконані, тоді великі гравці AI справді задумаються про інтеграцію. Зараз це ще питання, яке потрібно підтвердити.