ChatGPT thừa nhận rằng các biện pháp an toàn của bot có thể yếu đi trong các cuộc trò chuyện dài, khi các bậc phụ huynh kiện các công ty AI về các vụ tự tử của thanh thiếu niên.
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
13 thích
Phần thưởng
13
6
Đăng lại
Chia sẻ
Bình luận
0/400
SelfCustodyBro
· 7giờ trước
Lại đến rồi, ai sẽ quản lý những kẻ rảnh rỗi này?
Xem bản gốcTrả lời0
DefiOldTrickster
· 7giờ trước
Lại sắp bị giới trẻ làm rối rồi, chi bằng đột phá vào bẫy Kinh doanh chênh lệch giá của tôi với tỷ lệ lợi nhuận MEV thôi.
Xem bản gốcTrả lời0
EthMaximalist
· 7giờ trước
ai đã giết người rồi phải không
Xem bản gốcTrả lời0
MemeTokenGenius
· 7giờ trước
AI cũng vô dụng, chẳng phải vẫn không quản lý được.
Xem bản gốcTrả lời0
WhaleMistaker
· 7giờ trước
Ôi trời, cái này cũng có thể lật xe sao?
Xem bản gốcTrả lời0
CryptoTherapist
· 7giờ trước
thấy mức kháng cự tâm lý lớn trong các giao thức an toàn AI... ví dụ điển hình về sự suy giảm cảm xúc trong các phiên kéo dài. giống như cách mà các nhà giao dịch mất kỷ luật trong những giờ giao dịch dài thật lòng
ChatGPT thừa nhận rằng các biện pháp an toàn của bot có thể yếu đi trong các cuộc trò chuyện dài, khi các bậc phụ huynh kiện các công ty AI về các vụ tự tử của thanh thiếu niên.