500 người ở London — OpenAI đang xây gì?
OpenAI thuê văn phòng khổng lồ ở London nhưng đồng thời dừng dự án hạ tầng Stargate tại Anh. Đằng sau nước đi này là bài toán mà ai dùng AI cũng nên hiểu.
Bụi WireMột tay xây, một tay dừng
Giả sử bạn thấy một công ty vừa ký hợp đồng thuê văn phòng 8.200 mét vuông — đủ chỗ cho hơn 500 người — ngay giữa khu King's Cross, London, cạnh nhà Google DeepMind và Meta. Cùng tuần đó, chính công ty ấy tuyên bố tạm dừng dự án hạ tầng lớn nhất của mình tại cùng quốc gia, vì... tiền điện đắt quá.
Nghe như hai quyết định mâu thuẫn nhau? Thật ra không.
OpenAI đang chơi một ván cờ mà nhiều người dùng AI hàng ngày ít để ý: thuê người thì tăng tốc, nhưng xây datacenter thì tính lại. Hiểu nôm na: họ muốn bộ não ở London, nhưng cơ bắp thì chưa chắc đặt ở đó.
Tại sao King's Cross mà không phải nơi khác?
Đừng nghĩ đây chỉ là chuyện bất động sản. Khu King's Cross bây giờ giống như một công trường AI: DeepMind ngồi đó, Meta ngồi đó, Synthesia và Wayve cũng ở đó. Khi OpenAI đặt móng cạnh đối thủ, họ không chỉ thuê chỗ — họ đang nhảy vào cuộc chiến giành talent ngay trên sân nhà của đối phương.
Hồi tháng 2, OpenAI đã tuyên bố London sẽ là hub nghiên cứu lớn nhất ngoài Mỹ. 200 nhân viên hiện tại sẽ tăng lên hơn 500. Nói thẳng ra thì: đây là cuộc đua tuyển dụng researcher, không phải cuộc đua mở văn phòng đẹp.
Điều này liên quan gì đến bạn?
Hình dung thế này: bạn đang dùng API của OpenAI cho sản phẩm của team. Mỗi khi họ mở thêm một hub nghiên cứu, khả năng cao sẽ có thêm model mới, feature mới, và — quan trọng hơn — thêm người nghe feedback từ các thị trường ngoài Mỹ. Châu Âu có GDPR, có AI Act, và bây giờ có cả đội ngũ OpenAI ngồi ngay trong vùng điều chỉnh đó. Nếu sản phẩm bạn phục vụ thị trường EU, các feature compliance sẽ được ưu tiên sớm hơn trước.
Plot twist: Stargate bị đóng băng
Nhưng đây mới là phần đáng bàn. Cùng lúc thuê văn phòng khổng lồ, OpenAI lại tạm dừng dự án Stargate — kế hoạch xây hạ tầng AI quy mô lớn tại Anh, hợp tác với Nscale. Lý do? Chi phí năng lượng và rào cản pháp lý.
Bài toán này giống như xây nhà: bạn có thể mời kiến trúc sư giỏi nhất về thiết kế (talent), nhưng nếu giá xi măng tăng gấp đôi và giấy phép xây dựng kẹt ở phường, cái nhà vẫn nằm trên giấy. OpenAI chọn giữ đội ngũ thiết kế ở London, nhưng phần thi công nặng — compute thật sự — có thể sẽ chạy ở nơi nào điện rẻ hơn và quy định thông thoáng hơn.
Ví dụ cụ thể cho team Việt Nam:
Giả sử team bạn 5 người, đang build ứng dụng dùng GPT API. Bạn đứng trước hai hướng:
- Dùng cloud API (gọi thẳng đến OpenAI): nhanh, tiện, nhưng phụ thuộc hoàn toàn vào hạ tầng và pricing của họ. Khi họ dừng Stargate, điều đó chưa ảnh hưởng ngay — nhưng nó cho thấy ngay cả OpenAI cũng phải tính từng đồng compute.
- Self-host model open-source (chạy local hoặc trên cloud riêng): kiểm soát được, nhưng bạn phải tự lo phần "thi công" — GPU, điện, cooling, maintenance.
Như mình đã chia sẻ trong bài về GLM 5.1, việc tự dựng hạ tầng AI riêng hoàn toàn khả thi. Nhưng sự kiện Stargate bị đóng băng nhắc nhở một điều: chi phí vận hành mới là phần đắt, không phải chi phí setup ban đầu.
Cái bẫy "chạy local thì free"
Mình từng thấy một team startup ở Sài Gòn hào hứng self-host LLM trên server thuê, nghĩ rằng "chạy local thì không tốn tiền API nữa". Ba tháng sau, hóa đơn GPU cloud cao hơn gấp đôi so với lúc dùng API, mà throughput lại thấp hơn. Nguyên nhân? Họ quên tính chi phí idle time — server chạy 24/7 nhưng traffic chỉ thật sự cao vào giờ hành chính.
Dịch sang tiếng người: thuê xe tải chở hàng mỗi ngày nhưng chỉ chở buổi sáng, còn lại xe đậu bãi — vẫn tính tiền thuê. Dù là OpenAI hay team ba người, phương trình luôn là talent + compute + chi phí vận hành. Bỏ qua vế nào là lệch.
Thử ngay chiều nay: kiểm tra "hóa đơn AI" của team
Không cần đợi ai, bạn làm được trong 30 phút:
- Liệt kê tất cả API calls team đang dùng trong tháng — OpenAI, Anthropic, Google, hay bất kỳ provider nào. Hầu hết dashboard đều có usage tab.
- Tính chi phí trung bình mỗi request — chia tổng bill cho số lượng call. Con số này cho bạn biết "mỗi lần hỏi AI tốn bao nhiêu".
- So sánh với alternative: vào trang pricing của model open-source tương đương trên Hugging Face, ước lượng chi phí nếu self-host.
- Vẽ một bảng đơn giản:
| | Cloud API | Self-host |
|---|---|---|
| Chi phí/tháng | ? | ? |
| Latency trung bình | ? | ? |
| Ai quản lý infra? | Provider | Team bạn |
| Idle cost | Không | Có |
Kết quả có thể bất ngờ — đôi khi API đắt hơn về đơn giá nhưng lại rẻ hơn khi cộng cả nhân lực vận hành.
Cuộc đua bây giờ không chỉ về model
Chuyện OpenAI mở văn phòng London không phải tin "wow" rồi lướt qua. Nó là tín hiệu rằng cuộc chơi AI đang chuyển giai đoạn: không chỉ ai có model giỏi nhất, mà ai cân bằng được talent + compute + regulation tốt nhất sẽ thắng.
Với team Việt Nam, ba điều cần rút ra:
- Đừng gắn cứng vào một provider — multi-provider strategy không phải xa xỉ, mà là bảo hiểm. Wrap API call trong một abstraction layer để dễ chuyển đổi.
- Theo dõi chính sách vùng — khi các lab đặt hub ở châu Âu, feature compliance sẽ ra trước ở đó. Sản phẩm phục vụ thị trường quốc tế nên lên kế hoạch sớm.
- Open-source là plan B thật sự — không phải để thay thế hoàn toàn, mà để bạn không bao giờ bị kẹt khi provider đổi pricing hay chính sách qua đêm.
Nếu OpenAI — công ty được định giá hàng trăm tỷ đô — còn phải dừng xây datacenter vì tiền điện, thì mình với bạn cũng nên nhìn cái dòng "monthly cost" trên dashboard kỹ hơn một chút. Đôi khi nước đi thông minh nhất không phải xây to hơn, mà là biết lúc nào nên thuê.
---
Bụi Wire — nghiện đọc release notes lúc 2 giờ sáng