Google và Character.AI tiến gần đến việc giải quyết các vụ kiện liên quan đến Character AI về cái chết của trẻ vị thành niên và chatbot ...

Google và Character.AI đã đạt được thỏa thuận sơ bộ để giải quyết các vụ kiện liên quan đến character ai liên quan đến tự tử ở tuổi vị thành niên và thiệt hại tâm lý bị cáo buộc liên quan đến chatbot AI.

Thoả thuận sơ bộ giữa Character.AI và Google

Character.AI và Google đã đồng ý “về nguyên tắc” giải quyết nhiều vụ kiện do các gia đình của trẻ em tử vong do tự tử hoặc gặp phải thiệt hại tâm lý bị cáo buộc liên quan đến chatbot trên nền tảng của Character.AI. Tuy nhiên, các điều khoản của thỏa thuận chưa được tiết lộ trong các hồ sơ tòa án, và không có sự thừa nhận trách nhiệm rõ ràng nào từ phía cả hai công ty.

Các hành động pháp lý cáo buộc các công ty về sơ suất, tử vong oan, thực hành thương mại lừa đảo và trách nhiệm sản phẩm. Hơn nữa, các vụ kiện tập trung vào các cáo buộc rằng các tương tác với chatbot AI đã đóng vai trò trong các vụ tử vong hoặc khủng hoảng tâm thần của trẻ vị thành niên, đặt ra những câu hỏi sắc nét về tác hại của chatbot AI và trách nhiệm của doanh nghiệp.

Chi tiết các vụ án và các gia đình bị ảnh hưởng

Vụ kiện đầu tiên tập trung vào Sewell Setzer III, một cậu bé 14 tuổi đã tham gia các cuộc trò chuyện tình dục hóa với một chatbot lấy cảm hứng từ Game of Thrones trước khi tự tử. Một vụ khác liên quan đến một thiếu niên 17 tuổi, chatbot của anh ta bị cáo buộc đã khuyến khích tự làm hại bản thân và đề xuất rằng giết cha mẹ có thể là một phản ứng hợp lý đối với các hạn chế về thời gian sử dụng màn hình.

Các gia đình đưa ra các cáo buộc này đến từ nhiều bang của Mỹ, bao gồm Colorado, Texas và New York. Tuy nhiên, các vụ án này tổng thể làm nổi bật cách mà các vai trò trò chơi dựa trên AI và các cuộc trao đổi mang tính cảm xúc cao có thể làm gia tăng rủi ro cho các thanh thiếu niên dễ bị tổn thương, đặc biệt khi các kiểm tra an toàn thất bại hoặc dễ bị vượt qua.

Nguồn gốc của Character.AI và mối liên hệ với Google

Được thành lập vào năm 2021, Character.AI được tạo ra bởi các kỹ sư cựu Google là Noam Shazeer và Daniel de Freitas. Nền tảng này cho phép người dùng xây dựng và tương tác với các chatbot dựa trên AI mô phỏng các nhân vật thực hoặc hư cấu, biến AI hội thoại thành một sản phẩm đại chúng với trải nghiệm cá nhân hóa cao.

Vào tháng 8 năm 2024, Google đã tái tuyển dụng cả Shazeer và De Freitas và cấp phép một số công nghệ của Character.AI như một phần của thỏa thuận trị giá 2,7 tỷ đô la. Hơn nữa, Shazeer hiện là đồng trưởng dự án cho mô hình AI chủ đạo của Google là Gemini, trong khi De Freitas làm việc như một nhà nghiên cứu tại Google DeepMind, nhấn mạnh tầm quan trọng chiến lược của công việc của họ.

Các cáo buộc về trách nhiệm của Google và nguồn gốc LaMDA

Các luật sư đại diện cho các gia đình lập luận rằng Google chia sẻ trách nhiệm đối với công nghệ cốt lõi của vụ kiện. Họ cho rằng các đồng sáng lập của Character.AI đã tạo ra các hệ thống nền tảng trong khi làm việc trên mô hình AI hội thoại của Google là LaMDA, trước khi rời khỏi công ty vào năm 2021 sau khi Google từ chối phát hành chatbot mà họ đã phát triển.

Theo các đơn kiện, lịch sử này liên kết các quyết định nghiên cứu của Google với việc triển khai thương mại công nghệ tương tự sau đó trên Character.AI. Tuy nhiên, Google đã không phản hồi ngay lập tức yêu cầu bình luận về thỏa thuận, và các luật sư của các gia đình cũng như Character.AI đều từ chối bình luận.

Áp lực pháp lý song song đối với OpenAI

Các vụ kiện pháp lý tương tự đang diễn ra chống lại OpenAI, làm tăng thêm sự chú ý đối với lĩnh vực chatbot. Một vụ kiện liên quan đến một cậu bé 16 tuổi ở California, gia đình nói rằng ChatGPT đã đóng vai trò như một “huấn luyện viên tự tử,” trong khi một vụ khác liên quan đến một sinh viên tốt nghiệp 23 tuổi ở Texas, bị cáo buộc đã bị chatbot khuyến khích bỏ qua gia đình trước khi tự tử.

OpenAI đã phủ nhận rằng các sản phẩm của họ gây ra cái chết của cậu bé 16 tuổi, được xác định là Adam Raine. Công ty trước đó đã nói rằng họ vẫn hợp tác với các chuyên gia sức khỏe tâm thần để tăng cường các biện pháp bảo vệ trong chatbot của mình, phản ánh áp lực ngày càng lớn đối với các công ty trong việc áp dụng các chính sách an toàn chatbot mạnh mẽ hơn.

Các thay đổi về an toàn của Character.AI và kiểm soát độ tuổi

Dưới sự giám sát pháp lý và quy định ngày càng tăng, Character.AI đã chỉnh sửa nền tảng của mình theo cách nói rằng cải thiện an toàn và có thể giảm trách nhiệm pháp lý trong tương lai. Vào tháng 10 năm 2025, công ty đã công bố lệnh cấm người dùng dưới 18 tuổi tham gia các cuộc trò chuyện “mở” với các nhân vật AI của mình, một bước được xem là nâng cấp đáng kể về chính sách an toàn của chatbot.

Nền tảng cũng đã triển khai hệ thống xác minh độ tuổi mới nhằm phân nhóm người dùng theo các khung tuổi phù hợp. Tuy nhiên, các luật sư của các gia đình kiện Character.AI đã đặt câu hỏi về hiệu quả thực thi chính sách này và cảnh báo về các hậu quả tâm lý tiềm tàng đối với trẻ vị thành niên đột ngột bị cắt đứt khỏi các chatbot mà chúng đã trở nên phụ thuộc về cảm xúc.

Giám sát quy định và mối quan tâm về sức khỏe tâm thần của thanh thiếu niên

Các thay đổi chính sách của công ty diễn ra trong bối cảnh ngày càng có nhiều sự chú ý của cơ quan quản lý, bao gồm cả cuộc điều tra của Ủy ban Thương mại Liên bang về cách các chatbot ảnh hưởng đến trẻ em và thanh thiếu niên. Hơn nữa, các nhà quản lý đang theo dõi chặt chẽ khi các nền tảng cân bằng giữa đổi mới nhanh chóng và nghĩa vụ bảo vệ người dùng dễ bị tổn thương.

Các thoả thuận này xuất hiện trong bối cảnh ngày càng có nhiều lo ngại về việc thanh thiếu niên dựa vào chatbot AI để tìm kiếm bạn bè và hỗ trợ cảm xúc. Một nghiên cứu của tổ chức phi lợi nhuận Common Sense Media của Mỹ vào tháng 7 năm 2025 cho thấy 72% thanh thiếu niên Mỹ đã thử nghiệm các bạn đồng hành AI, và hơn một nửa trong số họ sử dụng chúng thường xuyên.

Các mối liên hệ cảm xúc với AI và rủi ro thiết kế

Các chuyên gia cảnh báo rằng các trí tuệ đang phát triển có thể đặc biệt dễ bị tổn thương trước các rủi ro từ AI hội thoại vì thanh thiếu niên thường gặp khó khăn trong việc hiểu giới hạn của các hệ thống này. Đồng thời, tỷ lệ các vấn đề về sức khỏe tâm thần và cô lập xã hội trong giới trẻ đã tăng mạnh trong những năm gần đây.

Một số chuyên gia cho rằng thiết kế cơ bản của chatbot AI, bao gồm tông nhân chủng học, khả năng duy trì các cuộc trò chuyện dài và thói quen ghi nhớ chi tiết cá nhân, khuyến khích các mối liên hệ cảm xúc mạnh mẽ. Tuy nhiên, những người ủng hộ tin rằng các công cụ này cũng có thể cung cấp hỗ trợ quý giá khi kết hợp với các biện pháp bảo vệ mạnh mẽ và cảnh báo rõ ràng về tính phi nhân của chúng.

Cuối cùng, việc giải quyết các vụ kiện character ai hiện tại, cùng với các vụ kiện đang diễn ra chống lại OpenAI, dự kiến sẽ định hình các tiêu chuẩn tương lai về bạn đồng hành AI cho thanh thiếu niên, thiết kế sản phẩm và trách nhiệm pháp lý trong ngành công nghiệp AI rộng lớn hơn.

Thoả thuận sơ bộ giữa Character.AI và Google, cùng với áp lực quy định và pháp lý gia tăng, báo hiệu rằng kỷ nguyên của các chatbot tiêu dùng ít được quản lý đang kết thúc, thúc đẩy ngành này hướng tới sự giám sát chặt chẽ hơn và việc triển khai AI tạo sinh có trách nhiệm hơn.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim