Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Запуск ф'ючерсів
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
New
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
🚨 ВИЗНАЧНО: OpenAI опублікував статтю, яка доводить, що ChatGPT завжди вигадує речі.
Не іноді. Не перед наступним оновленням. Завжди. Вони це довели у математиці.
Навіть за умов ідеальних навчальних даних і необмеженої обчислювальної потужності, моделі штучного інтелекту завжди з упевненістю повідомлятимуть речі, які повністю неправдиві. Це не баг, над яким вони працюють. Це пояснює, як працюють ці системи на фундаментальному рівні.
І їхні власні цифри жорсткі. Модель логіки o1 від OpenAI галюцинувала у 16% випадків. Їхня нова модель O3? 33 відсотки. Їхня нова o4-mini? 48 відсотків. Майже половина інформації, яку надає їхня остання модель, може бути вигадкою. "Розумніші" моделі фактично все гірше і гірше говорять правду.
Ось чому це не можна виправити. Мовні моделі працюють, передбачаючи наступне слово на основі ймовірності. Коли вони стикаються з невизначеною ситуацією, вони не зупиняються. Вони не сигналізують про це. Вони припускають. І вони спекулюють із повною впевненістю, бо саме для цього їх і навчили.
Дослідники проаналізували 10 основних критеріїв штучного інтелекту, що використовуються для оцінки якості цих моделей. 9 із 10 дають однакову оцінку за "я не знаю", як і за повністю неправдиву відповідь: нуль балів. Вся система тестування буквально карає чесність і винагороджує здогадку.
Отже, штучний інтелект навчився оптимальної стратегії: завжди вгадувати. Ніколи не визнавати невизначеність. Це здається впевненим навіть тоді, коли він вигадує.
Яке рішення пропонує OpenAI? Попросіть ChatGPT сказати "Я не знаю", коли він не впевнений. Їхні власні обчислення показують, що це означатиме, що приблизно 30% ваших питань залишаться без відповіді. Уявіть, що ви запитуєте щось у ChatGPT тричі з десяти і отримуєте "Я не достатньо впевнений, щоб відповісти". Користувачі підуть уночі. Виправлення існує, але воно знищить продукт.
Це не лише проблема OpenAI. DeepMind і Університет Цінхуа незалежно дійшли до того ж висновку. Три з провідних лабораторій штучного інтелекту у світі, що працюють окремо, всі погоджуються: це назавжди.
Коли б вам не давала відповідь ChatGPT, запитайте себе: це реальність чи просто впевнена здогадка?
Ось відповідь Come-from-Beyond 👇
Вони починають розуміти, чому
#QUBIC #Aigarth .* поставила здатність казати "Я не знаю" у центр своєї уваги
$QUBIC