Startup AI Trung Quốc DeepSeek vừa công bố một số dữ liệu về chi phí và doanh thu của hai mô hình AI đình đám V3 và R1, tuyên bố tỷ lệ lợi nhuận lý thuyết lên tới 545% mỗi ngày. Tuy nhiên, công ty cũng nhấn mạnh rằng doanh thu thực tế sẽ thấp hơn đáng kể.
Đây là lần đầu tiên công ty có trụ sở tại Hàng Châu công khai bất kỳ thông tin nào về lợi nhuận từ các tác vụ "suy luận" – giai đoạn sau khi đào tạo AI, nơi các mô hình đã học sẽ thực hiện dự đoán hoặc xử lý nhiệm vụ như chatbot.
Việc này có thể tiếp tục gây ảnh hưởng đến cổ phiếu AI ngoài Trung Quốc, vốn đã lao dốc trong tháng 1 khi chatbot sử dụng mô hình R1 và V3 của DeepSeek bùng nổ trên toàn cầu. Một phần lý do khiến thị trường lo lắng là do DeepSeek tuyên bố đã chi chưa đến 6 triệu USD cho chip đào tạo mô hình, thấp hơn rất nhiều so với các đối thủ Mỹ như OpenAI.

Các con chip mà DeepSeek sử dụng, Nvidia H800, cũng kém mạnh mẽ hơn so với những gì OpenAI và các công ty AI Mỹ khác có trong tay. Điều này càng làm dấy lên nghi ngờ về mức chi tiêu khổng lồ mà các công ty Mỹ cam kết dành cho chip AI tiên tiến.
Trong bài đăng trên GitHub vào ngày 2/3, DeepSeek cho biết nếu tính theo mức chi phí thuê một con chip Nvidia H800 là 2 USD/giờ, tổng chi phí suy luận hàng ngày cho mô hình V3 và R1 sẽ là 87.072 USD. Trong khi đó, doanh thu lý thuyết mà hai mô hình này tạo ra có thể lên tới 562.027 USD/ngày, dẫn đến tỷ lệ lợi nhuận 545%. Nếu duy trì con số này trong một năm, DeepSeek có thể thu về hơn 200 triệu USD.
Tuy nhiên, công ty cũng lưu ý rằng doanh thu thực tế thấp hơn đáng kể do một số yếu tố. Đầu tiên, chi phí sử dụng mô hình V3 thấp hơn so với R1. Thứ hai, không phải tất cả các dịch vụ đều được thương mại hóa, vì DeepSeek vẫn cho phép truy cập miễn phí trên web và ứng dụng. Cuối cùng, các nhà phát triển cũng được hưởng mức giá thấp hơn trong các khung giờ thấp điểm.
Dù con số lợi nhuận 545% có thể chỉ mang tính lý thuyết, nhưng dữ liệu của DeepSeek vẫn đủ sức gây chấn động thị trường AI, nhất là khi nó đặt ra câu hỏi: Liệu các công ty AI phương Tây có đang chi tiêu quá mức cần thiết để xây dựng hạ tầng AI của họ?
Link bài gốc