Bị ban khỏi chính AI mình dùng — chuyện gì vừa xảy ra?

Bị ban khỏi chính AI mình dùng — chuyện gì vừa xảy ra?

Anthropic tạm ban tác giả OpenClaw, rồi mở lại sau vài giờ viral. Chuyện nhỏ, nhưng bài học về "claw tax" và platform risk thì không nhỏ chút nào.

"Suspicious activity" — hai từ khiến cả ngành giật mình

Anthropic vừa tạm ban chính người tạo ra một trong những AI tool đang được developer khắp nơi dùng — rồi mở lại sau vài giờ vì bài post viral. Nghe như drama Twitter bình thường? Khoan đã.

Peter Steinberger — cha đẻ của OpenClaw, công cụ kết nối messaging platforms (WhatsApp, Telegram, Slack, Discord…) với AI coding agents — sáng thứ Sáu vừa rồi nhận được thông báo tài khoản Anthropic bị đình chỉ vì "suspicious activity". Chi tiết thêm cho vui: Steinberger hiện đang làm việc cho OpenAI. Anh đăng lên X, hàng trăm comments đổ vào — không ít trong đó theo hướng conspiracy theory — rồi một engineer của Anthropic nhảy vào hỗ trợ, tài khoản được mở lại. Nhưng vết nứt thì đã ở đó.

Phía sau cú ban: "claw tax" và cuộc chơi mới

Một tuần trước vụ ban, Anthropic đã thay đổi chính sách: subscription Claude không còn cover việc dùng qua "third-party harnesses" như OpenClaw. Muốn tiếp tục? Chuyển sang API, trả theo consumption. Cộng đồng đặt cho cái tên rất gọn: "claw tax".

Dịch sang tiếng người: hình dung bạn mua vé tháng phòng gym, tập thoải mái. Bỗng một ngày phòng gym thông báo: "Ai mang personal trainer từ bên ngoài vào thì tính phí theo buổi nhé." Bạn vẫn được tập, nhưng luật chơi đã khác.

Lý do Anthropic đưa ra? Claws chạy continuous reasoning loops, tự retry task, kết nối đủ thứ tools bên ngoài — ngốn compute gấp nhiều lần so với prompt thông thường. Subscription đơn giản không thiết kế cho kiểu dùng đó. Về mặt kỹ thuật, mình thấy hợp lý.

Vấn đề là: Steinberger nói anh đã chuyển sang API đúng quy định mới, mà vẫn bị ban. Dù Anthropic sau đó khắc phục nhanh, thì cái cảm giác "vendor có thể tắt công tắc bất cứ lúc nào" đã in vào đầu hàng nghìn developer theo dõi vụ này.

Hai kịch bản quen thuộc với team Việt Nam

Kịch bản 1: Giả sử team bạn 5 người, đang dùng OpenClaw bridge qua Slack để Claude tự review pull request mỗi sáng. Workflow chạy mượt, tiết kiệm vài giờ mỗi ngày. Rồi một sáng đẹp trời, account bị flag. Cả pipeline dừng, sprint giữa chừng, PM hỏi "sao CI lại đỏ?" mà không ai biết trả lời gì.

Kịch bản 2: Bạn setup OpenClaw qua Telegram để team non-tech — marketing, sales — hỏi AI trực tiếp mà không cần mở terminal. Vendor thay đổi pricing, người chịu ảnh hưởng không chỉ dev — mà cả những đồng nghiệp chẳng biết API là gì, chỉ biết "con bot sáng nay không trả lời."

Trong thể thao, người ta nói đội mạnh không phải đội có một siêu sao — mà là đội có depth, có rotation. AI stack cũng vậy: phụ thuộc hoàn toàn vào một vendor giống như đội bóng chỉ có một chân sút — ngày nó nghỉ là cả đội đứng hình.

Giảm rủi ro ngay chiều nay — 3 việc cụ thể

Việc 1: Audit điểm phụ thuộc
Mở spreadsheet, liệt kê mọi workflow đang gọi AI vendor. Mỗi dòng hỏi: "Nếu vendor này thay đổi pricing hoặc policy ngày mai, plan B là gì?" Không có plan B? Đánh dấu đỏ.

Việc 2: Chạy song song với Ollama
OpenClaw hỗ trợ chạy local qua Ollama — như mình đã chia sẻ trong các bài trước về self-host. Cần context length tối thiểu 64k tokens. Chạy song song không có nghĩa bỏ Claude — mà là có đường thoát hiểm khi cần.

# Khởi chạy OpenClaw với Ollama
ollama run openclaw
# Hoặc configure trước, chưa start ngay
ollama configure openclaw

Việc 3: Tách lớp abstraction
Thay vì hardcode Claude API thẳng vào codebase, dùng một gateway layer (OpenClaw bản chất chính là một dạng gateway). Khi cần đổi model hay vendor, bạn thay config chứ không rewrite pipeline.

Cái bẫy "chạy local là bất tử"

Mình từng thấy một team hoảng quá sau lần bị rate limit, quyết định chuyển hoàn toàn sang self-host. Kết quả? Inference chậm hơn rõ rệt, model local không đủ sức cho agentic task phức tạp, và team tốn thời gian maintain infra nhiều hơn thời gian viết code. Hai tuần sau, họ quay lại cloud — nhưng lần này thì có backup plan.

Bản chất thật sự: không phải chọn phe cloud hay local — mà là biết khi nào dùng cái nào. Task review code đơn giản, context ngắn? Local model handle tốt. Agentic workflow chạy loop dài, cần reasoning phức tạp trên codebase lớn? Có lẽ vẫn cần Sonnet 4.6 hay Opus 4.6 với context window lên tới 1M tokens mà Anthropic vừa ra mắt.

Model mạnh hơn — nhưng hàng rào cũng cao hơn

Đúng lúc drama nổ ra, Anthropic release cả Sonnet 4.6 và Opus 4.6. Cả hai đều có context window 1M tokens (beta), cải thiện đáng kể về coding, computer use, và agent planning. Sonnet 4.6 giờ là default cho Free và Pro plans, pricing giữ nguyên $3/$15 per million tokens. Opus 4.6 thì dẫn đầu trên nhiều benchmark agentic coding.

Đặt cạnh vụ "claw tax", bức tranh trở nên thú vị: model mạnh hơn → developer muốn dùng nhiều hơn → nhưng cách dùng qua third-party tools lại bị siết chặt hơn. Anthropic đang đẩy user về hệ sinh thái riêng — Cowork, Claude Code — nơi họ kiểm soát trải nghiệm lẫn billing.

Điều này không xấu — vendor nào cũng muốn vậy. Nhưng với developer, câu hỏi thật sự là: bạn đang thuê công cụ, hay đang bị thuê làm user?

Một takeaway duy nhất

Anthropic có lý khi nói subscription không chịu nổi agentic workload nặng. Steinberger có lý khi nói mình đã follow rule mới mà vẫn bị ban. Cả hai đều đúng — và đó mới là phần khó nhất.

Xây AI workflow giống như đá bóng trên sân thuê — chơi giỏi mấy cũng nên biết chìa khóa phòng thay đồ nằm trong túi ai.

Mà nói vậy thôi, nếu Anthropic ban luôn cả mình thì ai viết bài này cho bạn đọc nhỉ?

---

Bụi Wire — nghiện đọc release notes lúc 2 giờ sáng

Nguồn tham khảo