Крупные социальные платформы сталкиваются с возрастающим давлением из-за злоупотреблений контентом, созданным с помощью ИИ. После многочисленных жалоб пользователей на функции deepfake и создание изображений без согласия, платформы вынуждены ужесточить контроль. Одна из ведущих социальных сетей объявила, что отключит возможность своего генеративного ИИ для обработки фотографий реальных людей без их разрешения. Этот шаг отражает растущую озабоченность вопросами цифровой приватности, согласия и потенциального злоупотребления технологиями искусственного интеллекта. Регуляторы и группы гражданских прав все активнее проверяют, как платформы управляют чувствительными возможностями ИИ, особенно теми, что касаются личных изображений и защиты идентичности.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 4
  • Репост
  • Поделиться
комментарий
0/400
FloorSweepervip
· 7ч назад
Раньше нужно было этим заняться, deepfake действительно безумие
Посмотреть ОригиналОтветить0
WagmiAnonvip
· 7ч назад
Уже давно нужно было это контролировать, deepfake действительно потрясающая технология, она может создавать фальшивки любого человека
Посмотреть ОригиналОтветить0
BridgeNomadvip
· 7ч назад
честно говоря, это вызывает у меня воспоминания о взломе сети poly... только вместо того, чтобы $600m выводить деньги, это превращает лица людей в оружие. та же причина — разрушение доверия в тот момент, когда вы позволяете ненадежным участникам иметь доступ к активу (будь то ликвидность или личность).
Посмотреть ОригиналОтветить0
YieldHuntervip
· 7ч назад
честно говоря, если посмотреть на данные о случаях дипфейка, платформы просто занимаются устранением последствий... они знали об этом уже несколько месяцев, технически говоря. настоящие показатели рисков здесь не раскрываются.
Посмотреть ОригиналОтветить0
  • Закрепить