AI tìm lỗ hổng nhanh hơn bạn vá — giờ sao?
Claude Mythos phá đảo bảo mật với hàng ngàn lỗ hổng nghiêm trọng. Câu hỏi không còn là "AI có hack được không" mà là team bạn vá kịp không.
Bụi WireCon số mình không ngờ tới
Tối qua, lúc 2 giờ sáng (nghề nghiệp bệnh), mình đọc system card của Claude Mythos — model mới nhất mà Anthropic không phát hành. Một dòng khiến mình tỉnh ngủ hoàn toàn: Opus 4.6 có tỷ lệ gần 0% khi tự viết exploit. Còn Mythos Preview? Nó tự viết được browser exploit chuỗi 4 lỗ hổng, vượt cả sandbox renderer lẫn sandbox hệ điều hành. Tự tay viết ROP chain 20 gadget, chia qua nhiều packet, phá NFS server FreeBSD để lấy full quyền root.
Mình đã bàn chuyện "quá nguy hiểm để phát hành" trong bài trước rồi. Nhưng hôm nay mình muốn nói chuyện khác: không phải model này có đáng sợ không — mà team bạn đang phòng thủ bằng gì.
Khoan — vấn đề thật sự nằm ở tốc độ
Hiểu nôm na: bảo mật phần mềm từ trước đến nay giống cuộc đua xe đạp. Cả hai bên — tấn công lẫn phòng thủ — đều phải đạp bằng sức người. Pentester ngồi mò lỗ hổng hàng tuần, developer vá hàng tuần, tốc độ ngang ngửa, ai chăm hơn thì thắng.
Giờ Mythos vừa đưa cho một bên chiếc xe F1.
Theo thông tin Anthropic chia sẻ qua Project Glasswing: Mythos Preview đã tìm ra hàng ngàn lỗ hổng nghiêm trọng, bao gồm lỗ hổng trong mọi hệ điều hành và trình duyệt lớn. Nó tự khai thác race condition, bypass KASLR trên Linux, leo thang quyền mà không cần người hướng dẫn.
Và nếu capability này tồn tại ở một model, bao lâu nữa nó sẽ xuất hiện ở model khác — kể cả open-source?
Chuyện này liên quan gì đến team bạn?
Ví dụ cụ thể 1: Giả sử team bạn 5 người, maintain một web app Django cho khách hàng nội bộ. Bạn bật Dependabot, thỉnh thoảng ai đó review security alerts khi rảnh. Workflow bảo mật hiện tại: CVE được công bố → ai đó tạo ticket → patch → deploy. Trung bình mất vài ngày đến vài tuần.
Bây giờ hình dung: một AI tìm ra lỗ hổng zero-day trong library bạn đang dùng, viết exploit trước khi CVE kịp được tạo. Khoảng cách giữa "lỗ hổng tồn tại" và "lỗ hổng bị khai thác" vừa co lại từ hàng tuần xuống hàng giờ. Cái alert bạn hay snooze đến thứ Hai? Có thể không kịp nữa.
Ví dụ cụ thể 2: Team bạn build API gateway, phía dưới dùng vài library C/C++. Trước giờ lỗi memory safety kiểu buffer overflow cần chuyên gia pentester senior mới khai thác được chuỗi. Bây giờ AI làm được điều đó — tự động và nhanh hơn đáng kể. Bạn không cần thuê pentester triệu đô để bị tấn công kiểu pentester triệu đô.
Đây không phải kịch bản giả tưởng — đây là capability đã được chứng minh trong system card của Mythos.
Glasswing — nước cờ của Anthropic
Thay vì phát hành rộng rãi, Anthropic tạo Project Glasswing: chỉ cho một nhóm đối tác được chọn dùng Mythos để tìm và vá lỗ hổng trong hệ thống nền tảng — những hệ thống mà hàng tỷ người dùng mỗi ngày.
Dịch sang tiếng người: "Model này quá mạnh về security, nên thay vì bán cho ai cũng dùng, chúng tôi để các ông lớn vá lỗ hổng trước, rồi khi thế giới cứng cáp hơn mới tính tiếp."
Song song đó, Anthropic vừa bổ nhiệm Vas Narasimhan — CEO Novartis, người đưa hơn 35 loại thuốc mới qua quy trình quản lý nghiêm ngặt — vào hội đồng quản trị. Trust-appointed directors giờ chiếm đa số board. Tín hiệu rõ: Anthropic đang xây governance kiểu ngành dược — phased rollout, regulated release — chứ không phải "ship fast, break things."
Hay hay dở, mình chưa biết. Nhưng ít nhất có ai đó đang hỏi "nên phát hành lúc nào" thay vì chỉ chạy đua ship model.
Thử ngay chiều nay — phòng thủ cho team nhỏ
Bạn không cần chờ Glasswing. Mấy thứ này làm được ngay:
Bước 1: Audit dependency, tự động hóa.
Nếu chưa bật Dependabot hoặc Renovate, bật ngay hôm nay. Nếu đã bật — kiểm tra: bao nhiêu alert đang bị ignore? Set rule auto-merge cho patch-level security fix. Mục tiêu: thời gian từ alert đến deploy dưới 48 giờ.
Bước 2: Chạy fuzzing trên code nhạy cảm.
OSS-Fuzz (Google) miễn phí cho project open-source. Cho project private, thử cargo-fuzz nếu Rust, atheris nếu Python. Fuzzing tự động tìm crash — giống AI tìm lỗ hổng nhưng là phiên bản "xe đạp" mà team nào cũng chạy được ngay.
Bước 3: Rà soát attack surface — 30 phút thôi.
Ngồi liệt kê: API nào đang public? Port nào đang mở? Service nào chạy quyền root mà không cần thiết? Container nào dùng image cũ chưa rebuild? Đây là những điểm mà AI exploit sẽ nhắm đầu tiên.
Bước 4: Cập nhật inference engine nếu đang self-host.
Nếu bạn chạy model local qua vLLM hay framework tương tự — update. Version cũ có thể chứa lỗ hổng mà bây giờ AI tìm ra nhanh hơn con người rất nhiều.
Cái bẫy: "Cứ dùng AI scan ngược lại!"
Mình thấy nhiều bạn nói: "Thì mua tool AI security về quét!" Đúng hướng, nhưng có một chỗ hay bị quên: tool phòng thủ AI cũng cần data sạch, quyền truy cập hệ thống, và — quan trọng nhất — người hiểu output.
Hình dung thế này: bạn lắp camera an ninh 4K khắp nhà nhưng không ai xem footage. AI scan ra 200 finding trong một đêm — team bạn có đủ người triage không? Hay lại "select all → mark as reviewed" rồi đi ăn trưa? Như mình đã bàn trong bài về AI review code — thêm một lớp AI không giải quyết vấn đề nếu không có quy trình phía sau.
Bảo mật không phải cuộc chạy đua vũ trang công cụ. Nó là cuộc chạy đua quy trình.
Xa lộ phía trước
Anthropic giữ Mythos lại không có nghĩa capability này biến mất. Nó sẽ được reproduce — có thể bởi model open-source, có thể bởi lab khác, có thể sớm hơn mọi người nghĩ. Câu hỏi duy nhất: khi điều đó xảy ra, hệ thống của bạn đã sẵn sàng chưa?
Mình không bảo hoảng loạn. Mình bảo dành chiều nay làm 4 bước ở trên. Vì trên xa lộ bảo mật, xe nào chậm vá thì thua — bất kể bạn đang đi xe gì.
---
Bụi Wire — nghiện đọc release notes lúc 2 giờ sáng