Твердження, що технології — це палка з двома кінцями, останнім часом отримало нове тлумачення: шахраї використовують ШІ для підміни облич та обману, а жертви теж можуть рятуватися завдяки штучному інтелекту.
Нещодавно в районі затоки США стався абсурдний випадок. Одна жінка познайомилася на соцмережі з "хлопцем", який представився експертом із криптоінвестицій. Після кількох місяців спілкування, коли стосунки вже налагодилися, він почав рекомендувати їй так звану "внутрішню інвестиційну платформу". Підроблені скріншоти прибутків надходили один за одним, і жінка повірила. Спочатку вона спробувала інвестувати 15 тисяч доларів, потім зняла 490 тисяч із пенсійних накопичень, а зрештою навіть заклала будинок заради 300 тисяч доларів. Кошти поетапно переводилися на рахунок у Малайзії, після чого платформа зникла. Хотіли зняти гроші? Спочатку сплатіть комісію. Акаунт "заблоковано"? Додайте ще кошти, щоб розморозити. Класичний сценарій "свинячої забійні", загалом було викрадено майже 1 мільйон доларів.
Тут і стався переломний момент. Хоча жінка потрапила в пастку, вона не втратила надії. Вона зібрала всі листування з "хлопцем" і скріншоти платформи, відправила їх у ChatGPT і запитала: "Це справжня справа?"
Відповідь ШІ була влучною: типовий шахрайський сценарій "романтика + криптоінвестиції". Шахрай спочатку формує емоційну залежність, потім використовує анонімність і транскордонний характер криптовалюти для переказу коштів, а наостанок створює ілюзію прибутковості через фейкову платформу. ChatGPT не лише розклав схему по поличках, а й навів ключові підозрілі моменти: короткий термін реєстрації домену платформи, шаблонні фрази служби підтримки, постійна зміна правил щодо виведення коштів.
Іронія цього випадку в тому, що шахраї, можливо, використовували ШІ для створення сценаріїв, а жертва — щоб викрити шахрайство. Хоч гроші повернути не вдалося, проте вона вчасно зупинилася й не втратила ще більше.
Зрештою, сама технологія не має позиції. Ніж може різати овочі, а може й поранити людину. ШІ може допомагати шахраям створювати фасад, а може й допомогти звичайним людям уникнути пастки. Наступного разу, коли вам запропонують "безпрограшну інвестицію", краще спитайте спочатку ChatGPT — це точно надійніше, ніж порада подруги.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Твердження, що технології — це палка з двома кінцями, останнім часом отримало нове тлумачення: шахраї використовують ШІ для підміни облич та обману, а жертви теж можуть рятуватися завдяки штучному інтелекту.
Нещодавно в районі затоки США стався абсурдний випадок. Одна жінка познайомилася на соцмережі з "хлопцем", який представився експертом із криптоінвестицій. Після кількох місяців спілкування, коли стосунки вже налагодилися, він почав рекомендувати їй так звану "внутрішню інвестиційну платформу". Підроблені скріншоти прибутків надходили один за одним, і жінка повірила. Спочатку вона спробувала інвестувати 15 тисяч доларів, потім зняла 490 тисяч із пенсійних накопичень, а зрештою навіть заклала будинок заради 300 тисяч доларів. Кошти поетапно переводилися на рахунок у Малайзії, після чого платформа зникла. Хотіли зняти гроші? Спочатку сплатіть комісію. Акаунт "заблоковано"? Додайте ще кошти, щоб розморозити. Класичний сценарій "свинячої забійні", загалом було викрадено майже 1 мільйон доларів.
Тут і стався переломний момент. Хоча жінка потрапила в пастку, вона не втратила надії. Вона зібрала всі листування з "хлопцем" і скріншоти платформи, відправила їх у ChatGPT і запитала: "Це справжня справа?"
Відповідь ШІ була влучною: типовий шахрайський сценарій "романтика + криптоінвестиції". Шахрай спочатку формує емоційну залежність, потім використовує анонімність і транскордонний характер криптовалюти для переказу коштів, а наостанок створює ілюзію прибутковості через фейкову платформу. ChatGPT не лише розклав схему по поличках, а й навів ключові підозрілі моменти: короткий термін реєстрації домену платформи, шаблонні фрази служби підтримки, постійна зміна правил щодо виведення коштів.
Іронія цього випадку в тому, що шахраї, можливо, використовували ШІ для створення сценаріїв, а жертва — щоб викрити шахрайство. Хоч гроші повернути не вдалося, проте вона вчасно зупинилася й не втратила ще більше.
Зрештою, сама технологія не має позиції. Ніж може різати овочі, а може й поранити людину. ШІ може допомагати шахраям створювати фасад, а може й допомогти звичайним людям уникнути пастки. Наступного разу, коли вам запропонують "безпрограшну інвестицію", краще спитайте спочатку ChatGPT — це точно надійніше, ніж порада подруги.