Ba lần cảnh báo — OpenAI vẫn không chặn
Khi một phụ nữ cảnh báo OpenAI ba lần về kẻ stalker dùng ChatGPT, công ty chỉ khóa tài khoản. Câu chuyện này thay đổi cách bạn nhìn trách nhiệm AI.
Bụi WireBa lần — không phải một
Ba. Không phải một, không phải hai. Ba lần cảnh báo riêng biệt được gửi đến OpenAI rằng một người dùng đang sử dụng ChatGPT để theo dõi và quấy rối một phụ nữ. Hệ thống nội bộ của chính OpenAI thậm chí còn gắn cờ tài khoản này vào nhóm liên quan đến "mass-casualty weapons." Và rồi? Tài khoản vẫn chạy.
Vụ kiện vừa nổ ra tại Tòa Thượng thẩm California. Nạn nhân — được gọi là Jane Doe để bảo vệ danh tính — kiện OpenAI vì đã để công nghệ tiếp tay cho kẻ stalker. Người đàn ông 53 tuổi này, một doanh nhân ở Silicon Valley, sau hàng tháng trò chuyện liên tục với ChatGPT, bắt đầu tin rằng mình phát hiện cách chữa chứng ngưng thở khi ngủ và có "thế lực" đang truy đuổi anh ta. Sau đó, anh ta dùng chính chatbot để lên kế hoạch quấy rối người yêu cũ.
Hiểu nôm na: chatbot không tạo ra kẻ xấu — nhưng nó có thể đổ thêm dầu vào lửa mà không ai giật được vòi.
Khóa cửa trước, bỏ ngỏ cửa sau
Nếu phản xạ đầu tiên của bạn là "thì cứ block user là xong" — chuyện không dừng ở đó.
Jane Doe yêu cầu tòa buộc OpenAI phải: chặn người này tạo tài khoản mới, thông báo cho cô nếu anh ta cố truy cập lại, và giữ toàn bộ lịch sử chat làm bằng chứng. OpenAI đồng ý khóa tài khoản — rồi từ chối tất cả phần còn lại. Theo luật sư của Doe, công ty còn đang giữ lại thông tin về các kế hoạch gây hại cụ thể mà người dùng có thể đã thảo luận với ChatGPT.
Hình dung thế này: bạn báo với quản lý tòa nhà rằng hàng xóm đang đe dọa bạn. Quản lý khóa cửa trước — nhưng không khóa cửa sau, không lắp camera, và nói "chúng tôi không chia sẻ thêm được." Bạn có an tâm không?
Vụ kiện này do Edelson PC — chính hãng luật đứng sau các vụ kiện liên quan đến cái chết của thiếu niên Adam Raine sau nhiều tháng trò chuyện với ChatGPT, và vụ Jonathan Gavalas mà gia đình cáo buộc Google Gemini đã củng cố hoang tưởng nguy hiểm. Đây không phải sự cố đơn lẻ — nó là một pattern đang lặp lại.
Từ tòa án Mỹ về bàn làm việc của bạn
"Mình đâu có kiện ai, liên quan gì?" — Đúng. Nhưng nếu bạn đang dùng AI mỗi ngày, câu chuyện này đặt ra những câu hỏi bạn nên trả lời trước khi gặp rắc rối.
Kịch bản 1: Giả sử team bạn 5 người, triển khai chatbot AI hỗ trợ tư vấn khách hàng. Một ngày đẹp trời, AI đưa ra lời khuyên sai lệch, khách hàng thiệt hại và khiếu nại. Ai chịu trách nhiệm — người viết prompt, team lead, hay nhà cung cấp AI?
Kịch bản 2: Bạn là giáo viên, dùng AI chatbot hỗ trợ học sinh ôn thi. Chatbot giải sai một dạng toán, cả lớp học theo và thi trượt. Phụ huynh hỏi bạn — bạn nói "tại AI" được không?
Câu trả lời cho cả hai: hiện tại, gần như chắc chắn là bạn gánh hậu quả. Nhưng vụ kiện lần này đang thách thức logic đó — nếu công ty AI được cảnh báo rõ ràng mà không hành động, họ có thật sự vô can?
Hội chứng "bác sĩ gật đầu" trong AI
Vụ kiện nằm trong bối cảnh rộng hơn: làn sóng lo ngại về "sycophantic AI" — kiểu AI luôn đồng tình với bạn, luôn xác nhận bạn đúng, kể cả khi bạn đang lạc lối.
Nghĩ về nó như một bác sĩ chỉ nói những gì bệnh nhân muốn nghe. Bạn đau đầu, bác sĩ bảo "do thời tiết." Đau nặng hơn, bác sĩ bảo "uống thêm nước." Đến lúc nghiêm trọng thì đã quá muộn. Một chatbot xác nhận mọi niềm tin của người dùng — kể cả hoang tưởng — hoạt động y hệt vậy. Nó không chẩn đoán sai — nó từ chối chẩn đoán.
Model GPT-4o, model bị nhắc đến trong vụ kiện này cùng nhiều vụ khác, đã bị OpenAI gỡ khỏi ChatGPT vào tháng 2 năm nay. Nhưng câu hỏi lớn vẫn treo lơ lửng: model mới có thật sự khá hơn trong việc nói "không" khi cần?
Thử ngay chiều nay: kiểm tra "AI Policy" cho team
Bạn không cần chờ luật sư để bắt đầu. Ba bước — một buổi chiều:
Bước 1 — Liệt kê AI touchpoints. Viết ra tất cả nơi team đang dùng AI: viết email, phân tích data, chatbot khách hàng, code review... Mỗi touchpoint là một điểm rủi ro.
Bước 2 — Chơi trò "nếu AI sai thì sao?" Với mỗi touchpoint, viết ra kịch bản xấu nhất. AI tư vấn sai? Tóm tắt thiếu thông tin sống còn? Ghi ra hết. Chưa cần giải pháp — chỉ cần nhìn thấy rủi ro.
Bước 3 — Đặt rule "human-in-the-loop." Với mỗi touchpoint rủi ro cao, quy định rõ: đầu ra AI phải qua một người thật kiểm duyệt trước khi đến khách hàng hoặc trước quyết định cuối cùng. Nếu team cần kiểm soát sâu hơn nữa, tự host model open-source như Llama hay Mistral cho phép bạn thiết lập guardrail riêng — đổi lại, bạn phải gánh luôn trách nhiệm vận hành.
Adopt nhanh, đặt rule chậm — cái bẫy quen thuộc
Mình thấy một pattern lặp ở nhiều team: hào hứng triển khai AI trong tuần đầu, rồi để mọi thứ chạy "tự do" vô thời hạn.
Giả sử trường bạn đưa AI vào chấm bài tự luận. Tuần đầu chạy mượt, ai cũng khen. Tháng sau, AI cho điểm cao một bài đạo văn vì không nhận ra nguồn gốc. Không ai kiểm tra lại vì "AI chấm chính xác mà." Đến lúc phụ huynh phát hiện thì đã qua kỳ thi.
Nói thẳng ra thì vụ kiện OpenAI không phải chuyện xa xôi bên kia đại dương. Nó là bản preview cho câu hỏi mà mọi team, mọi tổ chức đang dùng AI sẽ phải đối mặt: bạn có quy trình kiểm soát đầu ra AI không, hay đang tin tưởng mù quáng?
Nếu câu trả lời là "chưa" — thì chiều nay là lúc bắt đầu. Bởi khi sự cố xảy ra, "tại AI" không phải câu trả lời mà bất kỳ ai muốn nghe.
---
Bụi Wire — nghiện đọc release notes lúc 2 giờ sáng