Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Pre-IPOs
Отримайте повний доступ до глобальних IPO акцій.
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Порядок управління службами цифрових віртуальних людей для громадського обговорення: «Людина в центрі уваги», визначення меж, фіксація напрямку
Написано: Чжан Фенг
Коли AI-управлявані віртуальні ведучі працюють цілодобово, коли «цифрові державні службовці» терпляче відповідають на запитання у вікнах державних послуг, коли у галузі медичної популяризації з’являються невтомні «AI-лікарі», ми стаємо свідками нової соціальної картини, глибоко впровадженої цифровими віртуальними людьми. Завдяки своїм низьким витратам, високій взаємодії, високій ефективності та цілодобовому обслуговуванню, цифрові віртуальні особи швидко стають ключовим інструментом для стимулювання розвитку інтелектуальної економіки. Від електронної комерції та туристичної промоції до медичної популяризації та державних консультацій — їх застосування розширюється з неймовірною широтою і глибиною.
Однак, стрімкий технічний прогрес часто випереджає створення правил. Коли віртуальні образи можуть бути настільки реалістичними, що їх важко відрізнити від справжніх, коли діалоги на основі AI можуть містити упередження, коли самовдосконалювані агенти (Agent) ведуть себе непередбачувано, виникає низка гострих питань: де саме межі сервісів цифрових віртуальних людей? Хто несе відповідальність за їх поведінку? Як забезпечити, щоб розвиток технологій не відхилявся від принципу «людина-центр» у прагненні до ефективності та інновацій? Це не лише технічні питання, а й питання довіри суспільства, етичних меж і довгострокового розвитку. Останнім часом Національне управління інтернету та інформації опублікувало «Положення про управління інформаційними послугами цифрових віртуальних людей (проект для громадського обговорення)» (далі — «Положення»), яке є концентрованою відповіддю на ці актуальні питання.
Причина, чому потрібно чітко визначити межі сервісів цифрових віртуальних людей, полягає у багатьох ризиках і викликах, що проявляються у процесі їх розвитку.
Перш за все — ризики безпеки та етики. Технології глибокого синтезу значно знижують бар’єри для підробки особистості, поширення фальшивої інформації та емоційного шахрайства, що може порушити права окремих осіб, дестабілізувати суспільний порядок і навіть загрожувати національній безпеці.
По-друге — ризик невизначеності відповідальності. Дії цифрових віртуальних особистостей керуються алгоритмами, і відповідальність за них лежить на їхніх розробниках, операторах, користувачах — ланцюг відповідальності є складним. У разі проблем легко потрапити у «чорний ящик алгоритмів» і вакуум відповідальності.
Ще один ризик — цифровий розрив і закріплення упереджень. Якщо дані для тренування алгоритмів містять упередження, цифрові віртуальні особи можуть несвідомо посилювати існуючі соціальні стереотипи або створювати нові форми дискримінації.
Ще глибше — з розвитком передових технологій, таких як протокол автономної еволюції Rotifer, здатні до самонавчання та еволюції агенти можуть проявляти поведінку, що виходить за межі запланованих цілей, що створює невизначеність щодо їх довгострокового впливу на суспільство.
Ці ризики не існують ізольовано, вони взаємопов’язані і спрямовані до центральної суперечності: величезний потенціал технологічного прогресу і затримки у регулюванні. Тому прийняття «Положення» — це не лише реакція на конкретні порушення, а й закріплення логіки здорового розвитку цифрової економіки, а також систематизація принципів «людина-центр» і «інтелектуальна доброчесність».
Щоб протистояти цим викликам, «Положення» пропонує систему управління, орієнтовану на «повний контроль процесу» і «прозору відповідальність». Основні підходи можна підсумувати так: «встановити межі, визначити відповідальних, посилити нагляд, сприяти доброчесності».
Перш за все — чітко окреслити непереборні межі безпеки і етики. «Положення» детально забороняє використання цифрових віртуальних особистостей для дій, що включають, але не обмежуються, загрозами національній безпеці, шкодою для громадських інтересів, порушенням прав інших, поширенням фальшивих новин, дестабілізацією економіки і суспільства. Це встановлює чіткі «червоні лінії» для всіх учасників ринку.
По-друге — закріпити і прослідковувати відповідальність різних суб’єктів. «Положення» визначає обов’язки для провайдерів сервісів, технічної підтримки, контент-мейкерів і користувачів, вимагає проходження реєстрації, маркування, перевірки контенту, забезпечення безпеки даних і швидкого реагування — і таким чином закриває ланцюг відповідальності, роблячи його прозорим і відстежуваним.
Третє — наголосити на «людина-центр» підході. Це означає, що дизайн, розробка і застосування цифрових віртуальних особистостей мають поважати суспільні цінності і етичні норми, захищати право користувачів на інформацію і вибір, уникати зловживання даними і надмірної персоналізації, щоб технології служили всебічному розвитку людини.
Четверте — підтримувати «етичний напрямок» у технологіях. «Положення» не обмежує розвиток технологій, а навпаки, створює безпечну зону для відповідального інноваційного розвитку, сприяє співпраці науки, виробництва і досліджень, спрямованій на застосування, що відповідає етичним стандартам і підвищує добробут. Це дозволяє перетворити «людина-центр» з абстрактної ідеї у конкретні правила і практики.
Запровадження і реалізація «Положення» матимуть глибокий вплив на галузь цифрових віртуальних особистостей і всю екосистему інтелектуальної економіки.
У короткостроковій перспективі галузь може пережити «біль у процесі адаптації»: зростання витрат на відповідність вимогам, обмеження деяких «диких» практик. Компанії будуть змушені інвестувати у технологічне оновлення, внутрішній контроль і реєстрацію, деякі застосунки, що порушують правила, змушені будуть змінитися або зникнути.
Однак, у довгостроковій перспективі, ці норми принесуть значні переваги. По-перше, вони підвищать довіру до галузі і суспільну прийнятність. Чіткі правила зменшують побоювання з боку громадськості щодо зловживань і допомагають формувати довіру користувачів — важливу передумову масштабного розвитку. По-друге, вони сприятимуть покращенню конкуренції, очищенню ринку від недобросовісних гравців і спрямуванню ресурсів у справді технологічно сильні та відповідальні компанії. По-третє, вони дадуть інвесторам і дослідникам ясний орієнтир для вкладень у сфери, що відповідають політиці і мають довгострокову суспільну цінність, наприклад, освіту, охорону здоров’я, пенсійне забезпечення, культурну спадщину.
Загалом, сформована регуляторна база сприятиме створенню «збалансованої і стійкої» екосистеми цифрових віртуальних особистостей, яка стане міцною основою для подальшого розвитку «штучного інтелекту +», підтримуючи цифровізацію традиційних галузей і формування нових форм інтелектуальної економіки. Це також важливий крок у системній роботі Китаю у сфері управління штучним інтелектом і внесок у глобальний пошук балансу між інноваціями і регулюванням.
Хоча «Положення» закладає базовий регуляторний каркас, у процесі його реалізації виникають проблеми, пов’язані з інтеграцією технологій, визначенням відповідальності, відсутністю стандартів і швидким розвитком технологій.
Перший ризик — складність регулювання технологій. Технології цифрових віртуальних особистостей поєднують AI, графічну обробку, обробку природної мови, блокчейн, квантові мережі та інші передові напрямки. Їх поведінка динамічна і складна. Як ефективно виявляти порушення і не заважати інноваціям — це виклик для регуляторних технологій (RegTech).
Другий — труднощі у визначенні відповідальності. Наприклад, коли цифровий віртуальний персонаж, створений на базі відкритих технологій, спричиняє проблему, як правильно розподілити відповідальність між відкритим співтовариством, налаштувачами моделей, інтеграторами і операторами?
Третій — відсутність єдиних стандартів. Від ідентифікації особистості, етичної оцінки, прозорості алгоритмів до тестування продуктивності — потрібні єдині і деталізовані стандарти, щоб уникнути різних підходів у регіонах і забезпечити справедливість.
Четвертий — найглибший ризик — швидкий розвиток технологій, особливо автономних агентів, багатоголових систем і потенційного поєднання з квантовими обчисленнями. Це створює виклики для передбачуваності і гнучкості правил. Потрібен баланс між гнучкістю і стабільністю, але знайти його складно. Ці ризики нагадують, що регулювання — це динамічний процес, і він не може бути завершеним раз і назавжди.
Майбутнє — це глибока взаємодія між управлінням і технологіями.
По-перше, регулювання стане все більш «технічною» і «розумною». Використання AI для моніторингу, створення платформ для виявлення глибоких підробок, системи відстеження поведінки цифрових віртуальних особистостей — все це реалізовуватиметься за допомогою технологій. Блокчейн може забезпечити незмінність і прозорість ідентифікації та історії дій.
По-друге, відкритий код і екосистеми стануть ключовими для відповідального інноваційного розвитку. Здорові спільноти відкритого коду сприятимуть формуванню кращих практик, спільних інструментів для відповідності (наприклад, етичних модулів), знижуючи бар’єри для малих і середніх компаній і закладаючи етичні цінності у технології через код.
По-третє, стандарти і сертифікація швидко розвиватимуться. Під керівництвом «Положення» галузеві асоціації і стандартизаційні органи розроблятимуть повний набір стандартів — від даних і алгоритмів до застосувань і оцінки. Можливо, з’являться незалежні етичні сертифікаційні механізми, що стануть важливим критерієм вибору на ринку.
По-четверте, акцент зміщується з «післяподії» до «запобігання» і «проміжних заходів». Перевірка упереджень у тренувальних даних, етичне узгодження цілей алгоритмів, моделювання поведінки агентів — все це дозволить зменшити ризики на ранніх етапах. Для протоколів, таких як Rotifer, що передбачають автономну еволюцію, можливо, знадобиться запровадити «зони безпеки» або «конституційний AI», щоб встановити незмінні принципи для самовдосконалення.
Загалом, майбутнє — це не зачинена система правил, а динамічний процес, що поєднує регулювання і технології у спільному русі. Це шлях до «відповідального інтелектуального розвитку», де цифрові віртуальні особи стануть помічниками людства у підвищенні продуктивності, збагаченні культури і покращенні громадських послуг, а не джерелами неконтрольованих ризиків. Це вимагає постійного діалогу між політиками, технологами, бізнесом і суспільством, а основою всього є довготриві цінності «людина-центр».