Xài AI nhiều hơn = giỏi hơn? Chưa chắc.
Meta từng có bảng xếp hạng nhân viên "xài AI nhiều nhất". Nghe hợp lý — cho đến khi không.
Bụi WireKhi Silicon Valley bắt đầu đếm token
Bạn có biết Meta từng dựng hẳn một dashboard nội bộ, xếp hạng nhân viên theo lượng AI token tiêu thụ không? Họ gọi trend này là "tokenmaxxing" — theo kiểu tối ưu hóa mọi thứ của Gen Z: looksmaxxing, sleepmaxxing, giờ thì tokenmaxxing.
Ý tưởng ban đầu có vẻ hợp lý: ai xài token nhiều, người đó đang tích cực ôm AI vào workflow, tức là đang thích nghi tốt. Reid Hoffman — đồng sáng lập LinkedIn, nhà đầu tư lão làng — cũng lên tiếng ủng hộ hướng này tại hội nghị Semafor's World Economy tuần rồi. Ông cho rằng việc khuyến khích nhân viên dùng AI là điều các công ty nên làm.
Nhưng khoan. Dashboard đó đã bị đóng sau khi thông tin rò rỉ ra báo chí. Và cộng đồng engineer thì đang cãi nhau nảy lửa: đo token tiêu thụ có khác gì xếp hạng nhân viên theo số tiền họ tiêu?
Cốc espresso hay cốc nước lã đổ thêm đường?
Nói thẳng ra thì: token là đơn vị nhỏ nhất mà model AI xử lý khi đọc prompt và tạo response. Nó cũng là đơn vị tính tiền. Nên khi công ty đo "ai tiêu nhiều token nhất", bản chất là đang hỏi "ai bơm nhiều tiền vào API nhất."
Và đây là chỗ chuyện bắt đầu rối: nhiều token không có nghĩa là nhiều giá trị. Giống như barista pha 200 ly mỗi ca nhưng ly nào cũng loãng, so với người pha 80 ly mà khách nào cũng quay lại — ai giỏi hơn? Một developer copy-paste cả file log 5000 dòng vào ChatGPT mỗi lần debug sẽ đốt token gấp 10 lần người viết prompt chuẩn chỉnh — nhưng chưa chắc ra kết quả tốt hơn.
Hai kịch bản thật ở team Việt Nam
Kịch bản 1: Team backend 5 người ở một startup fintech Sài Gòn.
Lead quyết định: "Từ tuần này, mọi người phải dùng Copilot. Mình sẽ track usage." Hai tuần sau, mấy bạn junior bắt đầu accept mọi suggestion mà không review. Token usage tăng vọt, dashboard đẹp rực rỡ — cho đến khi production sập vì một đoạn logic sai mà Copilot gợi ý và không ai kiểm tra. Lead nhìn lại dashboard, thấy đúng là adoption cao thật... nhưng cao theo kiểu sai.
Kịch bản 2: Team content 3 người ở một agency Hà Nội.
Không ai đo token. Thay vào đó, lead đặt câu hỏi khác: "Tuần này ai tiết kiệm được nhiều giờ nhất nhờ AI?" Một bạn dùng Claude để draft outline rồi tự viết lại — tiết kiệm khoảng 2 tiếng mỗi ngày. Bạn khác dùng AI dịch brief tiếng Anh sang tiếng Việt rồi chỉnh sửa — tiết kiệm khoảng 1 tiếng. Không ai đếm token, nhưng ai cũng chỉ ra được mình đang dùng AI để giải quyết việc gì cụ thể.
Bạn thấy team nào đang áp dụng AI thông minh hơn?
Cái bẫy "đo cái dễ đo"
Đây là sai lầm kinh điển trong quản lý mà dân product chắc thuộc nằm lòng: chọn metric dễ đo thay vì metric quan trọng.
Token usage dễ đo. Nó nằm sẵn trong billing dashboard của OpenAI, Anthropic, hay bất kỳ provider nào. Nhưng chất lượng output, thời gian tiết kiệm, số lần AI giúp tránh được sai sót — những thứ đó đòi hỏi context mà không dashboard nào tự thu thập được.
Hoffman có điểm đúng: việc khuyến khích nhân viên dùng AI là cần thiết, nhất là khi nhiều người vẫn ngại hoặc chưa biết bắt đầu từ đâu. Nhưng biến token consumption thành KPI thì giống như đánh giá nhân viên văn phòng bằng số ly cà phê họ uống mỗi ngày — uống nhiều chưa chắc tỉnh, mà quá liều thì lại run tay.
Chưa kể một góc khuất mà ít ai nhắc: nếu team bạn dùng Ollama chạy model local — như mình từng chia sẻ trong các bài trước — thì không có token billing nào để track cả. Người dùng open-source self-host có khi lại là người dùng AI hiệu quả nhất mà dashboard không bao giờ thấy.
Thử ngay chiều nay: đo AI adoption mà không cần đếm token
Thay vì dựng dashboard phức tạp, bạn có thể thử framework tối giản cho team:
Bước 1: Tạo một shared doc (Notion, Google Docs, gì cũng được). Đặt tên: "AI Wins tuần này."
Bước 2: Mỗi cuối ngày, mỗi người ghi đúng 1 dòng theo format: "Dùng [tool] để [việc cụ thể], kết quả: [tiết kiệm thời gian / phát hiện lỗi / cải thiện chất lượng]."
Ví dụ minh họa:
- "Dùng Claude để review hợp đồng 20 trang, phát hiện 2 điều khoản mâu thuẫn mà đọc bằng mắt bị sót."
- "Dùng Cursor autocomplete cho API endpoint mới, xong trong 30 phút thay vì ước lượng 2 tiếng."
- "Dùng Ollama + Llama local để tóm tắt meeting notes, không tốn đồng API nào."
Bước 3: Cuối tuần, lead tổng hợp: pattern nào lặp lại? Tool nào mang giá trị thật? Ai cần hỗ trợ thêm để bắt đầu?
Không cần dashboard. Không cần đếm token. Nhưng bạn sẽ biết chính xác AI đang giúp team ở đâu — và quan trọng hơn — ở đâu thì chưa.
Đừng đếm ly, hãy đếm khách quay lại
Tokenmaxxing không phải ý tưởng tệ — nó chỉ là ý tưởng chưa đủ. Biết team đang dùng hay không dùng AI là thông tin có giá trị. Nhưng khi con số tiêu thụ trở thành mục tiêu thay vì chỉ số tham khảo, bạn sẽ tạo ra một đội ngũ giỏi đốt token mà chưa chắc giỏi tạo giá trị.
Nếu bạn đang xây văn hóa AI cho team, hãy bắt đầu từ câu hỏi: "AI đã thay đổi kết quả công việc của bạn ở đâu?" — thay vì "Bạn đã xài bao nhiêu token tuần này?"
Plot twist: đôi khi người không xuất hiện trên bảng xếp hạng token lại là người đã tự build một pipeline automation chạy local, âm thầm tiết kiệm cho công ty cả đống chi phí cloud mà không ai hay.
---
Bụi Wire — nghiện đọc release notes lúc 2 giờ sáng