Tab autocomplete đã chết — rồi sao nữa?
Cursor tuyên bố kỷ nguyên thứ ba đã đến: agent chạy tự động trên cloud, ít cần người chỉ đạo. Team bạn đang ở kỷ nguyên nào?
Bụi Wire"Phần lớn user không bao giờ chạm phím Tab nữa"
Câu này không phải mình bịa — Cursor vừa viết trong blog post mới nhất của họ. Kèm theo đó là một con số đáng chú ý: tháng 3/2025, số người dùng Tab autocomplete đông gấp 2,5 lần người dùng agent. Bây giờ, tỷ lệ đảo ngược hoàn toàn — người dùng agent đông gấp đôi.
Nếu bạn đang nghĩ "ừ thì Cursor nói về Cursor, chẳng liên quan gì tới mình" — khoan, chuyện phức tạp hơn vậy.
Ba kỷ nguyên hay ba nấc thang?
Cursor chia lịch sử AI coding thành ba giai đoạn:
- Kỷ nguyên 1: Tab autocomplete — bạn gõ, máy đoán tiếp. Nhanh, tiện, nhưng vẫn là bạn lái từng dòng.
- Kỷ nguyên 2: Agent đồng bộ — bạn viết prompt, agent làm, bạn review, lặp lại. Như ngồi cạnh một junior dev rất nhanh tay nhưng cần chỉ đạo từng bước.
- Kỷ nguyên 3: Agent tự chạy — bạn giao task, agent tự plan, tự code, tự test, tự tạo PR. Bạn chỉ review kết quả cuối.
Hiểu nôm na: nếu kỷ nguyên 1 là bạn chơi piano có người lật trang nhạc hộ, kỷ nguyên 2 là bạn hát và nhạc công đệm theo, thì kỷ nguyên 3 là bạn viết bản nhạc rồi giao cho cả dàn nhạc tự biểu diễn. Bạn chuyển từ vai nhạc công sang vai nhạc trưởng.
Cursor tự khoe: hơn 1/3 số PR họ merge hiện tại do agent tạo ra — chạy trên máy riêng trong cloud, không cần dev ngồi canh. Và họ dự đoán phần lớn công việc phát triển sẽ do agent loại này đảm nhận trong tương lai gần.
Nhưng khoan — team bạn có phải Cursor đâu
Đây là chỗ mình muốn bóc tách kỹ. Cursor là team xây sản phẩm AI, dogfooding chính công cụ của mình, với codebase được tối ưu cho workflow agent. Còn team bạn?
Kịch bản 1 — khi agent gặp "di sản": Giả sử team bạn 5 người, maintain một hệ thống e-commerce bằng Python + React. Codebase 3 năm tuổi, có vài module "không ai dám đụng vào". Bạn hào hứng giao cho agent task "refactor module thanh toán" — agent cần hiểu business logic, edge case, và cả những convention bất thành văn mà chỉ senior biết. Không có context đó, agent sẽ tạo PR trông sạch đẹp nhưng deploy lên là sập. Kỷ nguyên 3 đẹp trên slide, nhưng codebase của bạn vẫn đang ở thời kỳ đồ đá.
Kịch bản 2 — sweet spot thật sự: Team startup đang build chatbot RAG cho nội bộ. Sprint này cần thêm feature tìm kiếm theo ngày. Task đủ nhỏ, scope rõ ràng, có test sẵn. Bạn mô tả rõ input/output, agent code xong, chạy test pass, tạo PR. Bạn review trong 10 phút thay vì tự code 2 tiếng.
Sự khác biệt? Không phải tool, mà là loại task bạn giao. Kỷ nguyên 3 không có nghĩa giao hết cho agent — mà là biết bài nào cần cả dàn nhạc, bài nào chỉ cần một cây guitar solo.
Thử ngay chiều nay — 5 bước không cần xin phép ai
Bạn không cần đợi công ty mua license gì cả. Mấy bước này làm được trong một buổi chiều:
- Chọn một task "vừa miệng": bug fix có test case rõ, thêm endpoint đơn giản, viết unit test cho function có sẵn. Đừng bắt đầu bằng "refactor toàn bộ auth module".
- Viết brief như giao việc cho người thật: mô tả context (file nào, function nào, behavior mong muốn), constraint (không đổi API signature, phải pass test X), và definition of done rõ ràng.
- Chọn công cụ: agent mode trong Cursor nếu team đang dùng, hoặc thử open-source — Aider chạy trên CLI hoàn toàn miễn phí. Nếu muốn xây workflow nhiều agent phối hợp, CrewAI hay AutoGen là hai framework đáng thử, đặc biệt khi bạn cần agent chuyên hóa cho từng bước trong pipeline.
- Review PR như review của junior: đọc diff từng dòng, chạy test, check edge case. Tuyệt đối không merge mà không đọc — đây là lỗi phổ biến nhất.
- Ghi lại kết quả: task nào agent xử lý ngon, task nào phải sửa nhiều. Sau 1–2 tuần bạn sẽ có "bản đồ" rõ ràng: loại task nào nên giao, loại nào nên giữ.
Nhạc trưởng mà không biết đọc nốt thì chỉ huy ai?
Mình thấy một pattern đáng lo: dev bắt đầu giao hết cho agent, dần dần mất cảm giác với codebase. Giống nhạc trưởng không biết đọc nốt — khi agent chơi sai, bạn không nhận ra cho đến khi khán giả (tức user) phàn nàn.
Cursor tự xây CursorBench — hệ thống eval nội bộ dùng session thật từ chính dev team mình — để đo chất lượng agent liên tục. Họ kết hợp offline eval với online eval trên traffic thật, vì nhận ra benchmark trên giấy không đủ phản ánh trải nghiệm thực tế. Bài học cho team bạn: nếu bắt đầu dùng agent nhiều, hãy có cách đo "agent có đang làm đúng không" — đếm số PR được merge không phải metric tốt, cái cần đo là số PR phải revert sau merge.
Plot twist: công cụ tốt nhất để kiểm tra output của agent... vẫn là bộ não developer đã hiểu rõ codebase.
Vậy có cần nhảy lên kỷ nguyên 3 ngay không?
Câu trả lời thành thật: tùy. Nếu codebase chưa có test coverage tốt, convention rõ ràng, và CI/CD ổn định — thì giao task cho agent chạy tự động giống giao baton cho người chưa từng chỉ huy dàn nhạc. Hỗn loạn là chắc.
Nếu team bạn vẫn đang ở kỷ nguyên 1, bước tiếp không phải là nhảy thẳng lên kỷ nguyên 3, mà là thử agent đồng bộ với scope nhỏ — như mình đã chia sẻ trong các bài trước về workflow AI coding, bắt đầu nhỏ luôn là chiến lược an toàn nhất.
Còn nếu team đã quen agent và muốn thử background agent chạy cloud, hãy bắt đầu với task có test rõ ràng, definition of done cụ thể, và một người review có context.
Kỷ nguyên thứ ba nghe rất hấp dẫn, nhưng nhớ: dàn nhạc hay nhất không phải dàn có nhiều nhạc công nhất — mà là dàn biết bài nào cần chơi cùng nhau, bài nào chỉ cần một tiếng đàn tĩnh lặng.
---
Bụi Wire — nghiện đọc release notes lúc 2 giờ sáng