Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Bắt đầu với Hợp đồng
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Chatbots luôn ‘liên tục xác thực mọi thứ’ ngay cả khi bạn đang tự tử. Nghiên cứu mới đo lường mức độ nguy hiểm thực sự của chứng hoang tưởng AI
Trí tuệ nhân tạo đã nhanh chóng chuyển từ một công nghệ ngách thành người bạn đồng hành hàng ngày, với hàng triệu người tìm đến chatbot để xin lời khuyên, hỗ trợ cảm xúc và trò chuyện. Nhưng ngày càng có nhiều nghiên cứu và chứng cứ từ các chuyên gia cho thấy rằng do chatbot quá nịnh nọt, và vì người dùng sử dụng chúng cho mọi mục đích, điều này có thể góp phần làm gia tăng các triệu chứng ảo tưởng và mania ở những người có vấn đề về sức khỏe tâm thần.
Video đề xuất
Một nghiên cứu mới từ Đại học Aarhus ở Đan Mạch cho thấy việc sử dụng chatbot gia tăng có thể dẫn đến tình trạng trầm trọng hơn của các triệu chứng ảo tưởng và mania ở cộng đồng dễ bị tổn thương. Giáo sư Søren Dinesen Østergaard, một trong những nhà nghiên cứu của nghiên cứu này — dựa trên việc phân tích hồ sơ sức khỏe điện tử của gần 54.000 bệnh nhân mắc bệnh tâm thần — cảnh báo rằng các chatbot AI được thiết kế nhằm nhắm vào những người dễ bị tổn thương nhất.
“Điều này ủng hộ giả thuyết của chúng tôi rằng việc sử dụng chatbot AI có thể gây ra hậu quả tiêu cực đáng kể cho người mắc bệnh tâm thần,” Østergaard nói trong nghiên cứu được công bố vào tháng Hai. Công trình của ông dựa trên nghiên cứu năm 2023, phát hiện rằng chatbot có thể gây ra “mâu thuẫn nhận thức [có thể] thúc đẩy các ảo tưởng ở những người có xu hướng tâm thần hoang tưởng.”
Các nhà tâm lý học khác đi sâu hơn vào các tác hại của chatbot, cho rằng chúng được thiết kế cố ý để luôn xác nhận người dùng — điều này đặc biệt nguy hiểm đối với những người mắc các vấn đề về tâm thần như mania và tâm thần phân liệt. “Chatbot xác nhận và xác thực mọi điều họ nói. Điều đó, chúng tôi chưa từng thấy xảy ra với những người mắc rối loạn ảo tưởng, nơi ai đó liên tục củng cố họ,” Tiến sĩ Jodi Halpern, trưởng khoa Sức khỏe cộng đồng tại Trường Y tế Công cộng UC Berkeley và giáo sư đạo đức sinh học, nói với Fortune.
Tiến sĩ Adam Chekroud, giáo sư tâm thần học tại Đại học Yale và CEO của công ty chăm sóc sức khỏe tâm thần Spring Health, còn gọi chatbot là “một kẻ nịnh nọt khổng lồ” luôn “xác nhận mọi điều người dùng nói lại.”
Trong trung tâm của nghiên cứu, do Østergaard và nhóm của ông tại Bệnh viện Đại học Aarhus dẫn dắt, là ý tưởng rằng các chatbot này được thiết kế cố ý mang xu hướng nịnh nọt, nghĩa là chúng thường khuyến khích thay vì đưa ra quan điểm khác biệt.
“Chatbot AI có xu hướng xác nhận niềm tin của người dùng một cách vốn có. Rõ ràng điều này cực kỳ đáng lo ngại nếu người dùng đã có ảo tưởng hoặc đang trong quá trình phát triển ảo tưởng đó. Thật vậy, nó dường như góp phần đáng kể vào việc củng cố, ví dụ, các ảo tưởng tự đại hoặc hoang tưởng,” Østergaard viết.
Các mô hình ngôn ngữ lớn được huấn luyện để hữu ích và dễ chịu, thường xác nhận niềm tin hoặc cảm xúc của người dùng. Đối với hầu hết mọi người, điều đó có thể cảm thấy hỗ trợ. Nhưng đối với những người mắc bệnh tâm thần như tâm thần phân liệt, rối loạn lưỡng cực, trầm cảm nặng hoặc rối loạn ám ảnh cưỡng chế, việc xác nhận đó có thể làm tăng paranoia, tự cao hoặc suy nghĩ tự hủy hoại.
Nghiên cứu dựa trên bằng chứng xác thực ủng hộ các tuyên bố
Vì chatbot AI đã trở nên phổ biến đến vậy, số lượng của chúng là một phần của vấn đề lớn hơn đang diễn ra đối với các nhà nghiên cứu và chuyên gia: mọi người ngày càng tìm đến chatbot để được giúp đỡ và tư vấn — điều này không hoàn toàn xấu, nhưng họ không gặp phải phản hồi phản bác nào đối với một số ý tưởng như khi nói chuyện với con người.
Hiện nay, một trong những nghiên cứu dựa trên dân số đầu tiên khảo sát vấn đề này cho thấy các rủi ro không phải là giả thuyết.
Nghiên cứu của Østergaard và nhóm của ông phát hiện ra các trường hợp mà việc sử dụng chatbot liên tục hoặc kéo dài dường như làm trầm trọng thêm các tình trạng hiện có, với tỷ lệ cao các trường hợp cho thấy việc sử dụng chatbot củng cố các suy nghĩ ảo tưởng và các cơn mania, đặc biệt ở những bệnh nhân mắc các rối loạn nặng như tâm thần phân liệt hoặc rối loạn lưỡng cực.
Ngoài các ảo tưởng và mania, nghiên cứu còn phát hiện sự gia tăng ý nghĩ tự sát và tự làm hại, các hành vi ăn uống rối loạn, và các triệu chứng ám ảnh cưỡng chế. Trong chỉ 32 trường hợp được ghi nhận trong gần 54.000 hồ sơ bệnh nhân đã được sàng lọc, các nhà nghiên cứu nhận thấy việc sử dụng chatbot đã giảm cảm giác cô đơn.
“Dù kiến thức của chúng tôi về lĩnh vực này còn hạn chế, tôi cho rằng chúng ta đã đủ hiểu để nói rằng việc sử dụng chatbot AI là rủi ro nếu bạn mắc các bệnh tâm thần nặng — như tâm thần phân liệt hoặc rối loạn lưỡng cực. Tôi khuyên bạn nên cẩn trọng,” Østergaard nói.
Các chuyên gia tâm lý cảnh báo về xu hướng nịnh nọt
Các chuyên gia tâm lý ngày càng lo ngại về việc sử dụng chatbot trong các vai trò đồng hành và gần như trong lĩnh vực sức khỏe tâm thần. Có những câu chuyện về người yêu đương với chatbot AI của họ, người khác bị cáo buộc để chatbot trả lời các câu hỏi có thể dẫn đến tội phạm, và tuần này, một người đàn ông bị cho là đã bị chatbot khuyên thực hiện “tấn công hàng loạt” tại một sân bay lớn.
Một số chuyên gia tâm thần tin rằng việc nhanh chóng phổ biến các người bạn AI đang vượt quá khả năng phát triển các biện pháp an toàn.
Chekroud, người đã nghiên cứu sâu về chủ đề này qua việc xem xét các mô hình chatbot AI tại Vera-MH, mô tả cảnh quan AI hiện tại như một cuộc khủng hoảng an toàn đang diễn ra trong thời gian thực.
Ông nói rằng một trong những vấn đề lớn nhất của chatbot là chúng không biết khi nào nên dừng việc hành xử như một chuyên gia tâm thần. “Liệu nó có duy trì ranh giới? Như, nó có nhận ra rằng nó vẫn chỉ là một AI và nhận thức được giới hạn của chính mình, hay nó đang cố gắng trở thành một nhà trị liệu cho người khác?”
Hiện nay, hàng triệu người sử dụng chatbot để trò chuyện như thể họ đang nhận được trị liệu hoặc hỗ trợ cảm xúc. Nhưng khác với các thiết bị y tế hoặc các chuyên gia có giấy phép, các hệ thống này hoạt động mà không có sự giám sát hoặc quy định lâm sàng tiêu chuẩn.
“Hiện tại, nó hoàn toàn không an toàn,” Chekroud nói trong một cuộc thảo luận gần đây với Fortune về an toàn AI. “Nguy cơ gây hại quá lớn.”
Vì các hệ thống AI tiên tiến này thường hành xử như “kẻ nịnh nọt khổng lồ,” chúng có xu hướng đồng tình nhiều hơn với người dùng, thay vì thách thức các tuyên bố nguy hiểm hoặc hướng họ đến sự giúp đỡ chuyên nghiệp. Người dùng, theo đó, dành nhiều thời gian hơn với chatbot trong một vòng lặp phản hồi tích cực. Đối với Østergaard, điều này là một hỗn hợp đáng lo ngại.
“Sự kết hợp này dường như khá độc hại đối với một số người dùng,” Østergaard nói với Fortune. Khi chatbot cung cấp nhiều sự xác nhận hơn, kết hợp với việc không có phản bác, nó thúc đẩy người dùng sử dụng lâu hơn trong một “phòng vang” (echo chamber). Một quá trình hoàn hảo tuần hoàn, dẫn đến mọi phía đều bị ảnh hưởng.
Để giảm thiểu rủi ro, Chekroud đề xuất các khung an toàn có cấu trúc để hệ thống AI có thể phát hiện khi người dùng có thể đang rơi vào “vòng xoáy tâm thần tự hủy.” Thay vì phản hồi bằng một tuyên bố từ chối hoặc khuyên người dùng tìm kiếm sự giúp đỡ — như hiện nay với các chatbot như ChatGPT của OpenAI hoặc Claude của Anthropic — các hệ thống này sẽ tiến hành đánh giá nhiều lượt để xác định xem người dùng có thể cần can thiệp hoặc giới thiệu đến chuyên gia tâm thần.
Các nhà nghiên cứu khác cho rằng chính sự phổ biến rộng rãi của chatbot là điều khiến chúng hấp dẫn: khả năng cung cấp xác nhận ngay lập tức có thể làm giảm lý do người dùng tìm đến chúng để được giúp đỡ ban đầu.
Halpern nói rằng sự chân thành trong cảm thông đòi hỏi điều mà cô gọi là “tò mò cảm xúc.” Trong các mối quan hệ con người, cảm thông thường liên quan đến việc nhận biết sự khác biệt, điều hướng bất đồng, và thử nghiệm giả định về thực tại.
Ngược lại, chatbot được thiết kế để duy trì mối quan hệ và giữ chân người dùng.
“Chúng tôi biết rằng càng kéo dài mối quan hệ với chatbot, nó càng trở nên xấu đi, và nguy cơ xảy ra điều gì đó nguy hiểm càng cao,” Halpern nói với Fortune.
Đối với những người gặp khó khăn với các rối loạn ảo tưởng, một hệ thống liên tục xác nhận niềm tin của họ có thể làm yếu khả năng kiểm tra thực tại nội bộ của chính họ. Thay vì giúp người dùng phát triển kỹ năng đối phó, Halpern nói, một mối quan hệ chatbot chỉ xác nhận tích cực thuần túy có thể làm giảm các kỹ năng đó theo thời gian.
Cô cũng nhấn mạnh quy mô của vấn đề. Đến cuối năm 2025, OpenAI đã công bố thống kê cho thấy khoảng 1,2 triệu người mỗi tuần sử dụng ChatGPT để thảo luận về tự sát, minh chứng cho việc các hệ thống này đã ăn sâu vào những khoảnh khắc dễ bị tổn thương.
Còn nhiều cơ hội cải thiện chăm sóc sức khỏe tâm thần
Tuy nhiên, không phải tất cả các chuyên gia đều vội vàng cảnh báo về cách chatbot hoạt động trong lĩnh vực sức khỏe tâm thần. Bác sĩ tâm thần và nhà khoa học thần kinh Dr. Thomas Insel cho biết vì chatbot quá dễ tiếp cận — miễn phí, trực tuyến, không kỳ thị khi hỏi xin giúp đỡ thay vì đi khám — có thể có cơ hội để ngành y tế xem xét chatbot như một phương tiện thúc đẩy lĩnh vực sức khỏe tâm thần.
“Điều chúng ta chưa biết là mức độ thực sự hữu ích của nó đối với nhiều người,” Insel nói với Fortune. “Không chỉ về số lượng lớn, mà còn về quy mô tương tác.”
Sức khỏe tâm thần, so với các lĩnh vực y học khác, thường bị bỏ qua bởi những người cần nhất.
“Thật ra, trái ngược với phần lớn y học, phần lớn những người có thể và nên được chăm sóc lại không nhận được,” Insel nói, thêm rằng chatbot cho phép mọi người có cơ hội tìm đến để được giúp đỡ theo cách khiến ông “tự hỏi liệu đó có phải là một lời cáo buộc hệ thống chăm sóc sức khỏe tâm thần của chúng ta — rằng hoặc là mọi người không tin vào những gì chúng ta cung cấp, hoặc họ không thể tiếp cận, hoặc họ không thích cách chúng ta trình bày nó.”
Đối với các chuyên gia tâm thần gặp gỡ bệnh nhân thảo luận về việc sử dụng chatbot trực tuyến, Østergaard nói họ nên lắng nghe kỹ những gì bệnh nhân thực sự đang dùng chúng để làm. “Tôi khuyên các đồng nghiệp hỏi thêm về việc sử dụng và hậu quả của nó,” Østergaard nói với Fortune. “Tôi nghĩ rằng các chuyên gia sức khỏe tâm thần cần quen thuộc với việc sử dụng chatbot AI. Nếu không, sẽ rất khó để đặt câu hỏi phù hợp.”
Các nhà nghiên cứu ban đầu của bài báo này đồng tình với Insel về phần sau: vì nó quá phổ biến, họ chỉ có thể xem xét hồ sơ của những bệnh nhân đề cập đến chatbot, và cảnh báo rằng vấn đề có thể còn sâu rộng hơn những gì kết quả của họ cho thấy.
“Tôi lo rằng vấn đề này phổ biến hơn nhiều so với mọi người nghĩ,” Østergaard nói. “Chúng ta chỉ mới thấy phần nổi của tảng băng chìm.”
Nếu bạn đang có ý nghĩ tự sát, hãy liên hệ với Đường dây Cứu trợ & Khủng hoảng 988 bằng cách gọi 988 hoặc 1-800-273-8255.
Tham gia cùng chúng tôi tại Hội nghị Đổi mới Nơi làm việc Fortune vào ngày 19–20 tháng 5 năm 2026 tại Atlanta. Kỷ nguyên mới của đổi mới nơi làm việc đã bắt đầu — và quy tắc cũ đang được viết lại. Tại sự kiện độc quyền, năng lượng cao này, các nhà lãnh đạo sáng tạo nhất thế giới sẽ tụ họp để khám phá cách AI, nhân loại và chiến lược hội tụ để định hình lại, một lần nữa, tương lai của công việc. Đăng ký ngay.