Google запустив структуру SAIF, щоб підтримувати дослідження та розвиток штучного інтелекту в безпечному середовищі

巴比特_

Згідно з новинами IT House 10 червня, Google випустив сьогодні прес-реліз, в якому повідомляє про запуск Secure AI Framework (SAIF), щоб гарантувати, що організації можуть відповідально розгортати технологію штучного інтелекту в безпечній концептуальній структурі.

У Google заявили, що структура SAIF базується на існуючих історіях успіху в процесі розробки програмного забезпечення в поєднанні з розумінням мегатрендів безпеки та ризиків, характерних для систем ШІ. Фреймворк зосереджений на зниженні ризиків, характерних для систем штучного інтелекту, таких як крадіжка моделей, отруєння даних, зловмисне введення та вилучення конфіденційної інформації з навчальних даних. Google зробила кілька кроків, щоб підтримати та вдосконалити структуру SAIF для вивчення штучного інтелекту в безпечному середовищі, інтегрувавши SAIF у свої продукти.

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів