Chúng ta đang bắt đầu thấy những giai đoạn đầu tiên của hệ thống công nghệ (tech stack) xuất hiện trong generative AI.
Hàng trăm công ty khởi nghiệp mới đang đổ xô vào thị trường để phát triển các mô hình nền tảng, xây dựng các ứng dụng gốc AI và xây dựng cơ sở hạ tầng/công cụ.
Nhiều xu hướng công nghệ nóng bỏng đã được thổi phồng quá mức trước khi thị trường bắt kịp. Nhưng sự bùng nổ trí tuệ nhân tạo đã đi kèm với những lợi ích thực sự trên thị trường thực và lực kéo thực từ các công ty thực.
Các mô hình như Stable Diffusion và ChatGPT đang lập kỷ lục lịch sử về tăng trưởng người dùng và một số ứng dụng đã đạt doanh thu hàng năm 100 triệu USD chưa đầy một năm sau khi ra mắt. So sánh song song cho thấy các mô hình AI vượt trội hơn con người trong một số nhiệm vụ theo nhiều bậc độ lớn.
Vì vậy, có đủ dữ liệu ban đầu để cho thấy sự chuyển đổi lớn đang diễn ra. Điều chúng ta không biết, và điều hiện đã trở thành câu hỏi quan trọng, là: Giá trị sẽ tích lũy ở đâu trên thị trường này?
Năm ngoái, chúng tôi đã gặp gỡ hàng chục nhà sáng lập và điều hành công ty khởi nghiệp trong các công ty lớn, những người trực tiếp xử lý generative AI.
Chúng tôi quan sát thấy rằng các nhà cung cấp cơ sở hạ tầng có khả năng là những người chiến thắng lớn nhất trong thị trường này cho đến nay, thu được phần lớn tiền chảy vào lĩnh vực này.
Các công ty ứng dụng hàng đầu đang tăng doanh thu rất nhanh nhưng thường phải vật lộn với việc duy trì, khác biệt hoá sản phẩm và lợi nhuận gộp. Và hầu hết các nhà cung cấp mô hình, mặc dù chịu trách nhiệm về sự tồn tại của thị trường này, vẫn chưa đạt được quy mô thương mại lớn.
Nói cách khác, các công ty tạo ra nhiều giá trị nhất – tức là đào tạo các mô hình Generative AI và áp dụng chúng trong các ứng dụng mới – đã không nắm bắt được phần lớn giá trị đó. Việc dự đoán điều gì sẽ xảy ra tiếp theo khó hơn nhiều.
Nhưng chúng tôi nghĩ rằng điều quan trọng cần hiểu là phần nào trong đó thực sự khác biệt và có thể bảo vệ được. Điều này sẽ có tác động lớn đến cấu trúc thị trường (tức là sự phát triển của công ty theo chiều ngang so với chiều dọc) và các yếu tố thúc đẩy giá trị lâu dài (ví dụ: biên lợi nhuận và tỷ lệ giữ chân).
Cho đến nay, chúng tôi đã gặp khó khăn trong việc tìm kiếm khả năng phòng thủ có cấu trúc ở bất kỳ đâu trong hệ thống công nghệ, bên ngoài các hào kinh tế (moat) truyền thống dành cho những người đương nhiệm.
Chúng tôi vô cùng lạc quan về generative AI và tin rằng nó sẽ có tác động lớn trong ngành công nghiệp phần mềm và hơn thế nữa.
Mục tiêu của bài viết này là làm rõ động lực thị trường và bắt đầu trả lời các câu hỏi rộng hơn về các mô hình kinh doanh generative AI.
Để hiểu thị trường AI tổng quát đang hình thành như thế nào, trước tiên chúng ta cần xác định hệ thống công nghệ này hiện nay trông ra sao. Đây là quan điểm sơ bộ của chúng tôi.
Stack có thể được chia thành ba lớp:
Lưu ý: Đây không phải là bản đồ thị trường, mà là một khuôn khổ để phân tích thị trường. Trong mỗi danh mục, chúng tôi đã liệt kê một vài ví dụ về các nhà cung cấp nổi tiếng. Chúng tôi chưa thực hiện bất kỳ nỗ lực nào để trở nên toàn diện hoặc liệt kê tất cả các ứng dụng generative AI tuyệt vời đã được phát hành. Ở đây, chúng tôi cũng sẽ không đi sâu về công cụ MLOps hoặc LLMops, vốn chưa được tiêu chuẩn hóa cao.
Trong các chu kỳ công nghệ trước đây, bình thường để xây dựng một công ty lớn, độc lập, bạn phải sở hữu khách hàng cuối cùng — dù điều đó có nghĩa là người tiêu dùng cá nhân hay khách hàng B2B. Thật hấp dẫn khi tin rằng các công ty lớn nhất về generative AI cũng sẽ là các ứng dụng dành cho người dùng cuối. Cho đến nay, chưa có gì rõ ràng rằng điều đó đúng.
Chắc chắn, sự phát triển của các ứng dụng generative AI đã rất đáng kinh ngạc, được thúc đẩy bởi tính mới tuyệt đối và rất nhiều trường hợp sử dụng. Trên thực tế, chúng tôi biết ít nhất ba danh mục sản phẩm đã vượt trên 100 triệu đô doanh thu hàng năm: tạo hình ảnh, viết quảng cáo (copywriting) và viết mã (code writing).
Tuy nhiên, chỉ tăng trưởng thôi là không đủ để xây dựng các công ty phần mềm lâu bền. Quan trọng là, tăng trưởng phải mang lại lợi nhuận — nghĩa là người dùng và khách hàng, sau khi họ đăng ký, sẽ tạo ra lợi nhuận (tỷ suất lợi nhuận gộp cao) và gắn bó lâu dài (tỷ lệ giữ chân cao).
Trong trường hợp không có sự khác biệt rõ ràng về mặt kỹ thuật, các ứng dụng B2B và B2C sẽ thúc đẩy giá trị lâu dài của khách hàng thông qua hiệu ứng mạng lưới, nắm giữ dữ liệu hoặc xây dựng các quy trình công việc ngày càng phức tạp.
Trong generative AI, những giả định đó không nhất thiết phải đúng.
Trên khắp các công ty ứng dụng mà chúng tôi đã nói chuyện, có rất nhiều tỷ suất lợi nhuận gộp — một số trường hợp cao tới 90% nhưng thường thấp tới 50-60%, chủ yếu do chi phí áp dụng mô hình.
Mức tăng trưởng đầu kênh thật đáng kinh ngạc, nhưng vẫn chưa rõ liệu các chiến lược thu hút khách hàng hiện tại có thể mở rộng hay không — chúng tôi đã thấy hiệu quả của việc trả tiền thu hút người dùng (paid acquisition) và tỷ lệ giữ chân (retention) bắt đầu sụt giảm.
Nhiều ứng dụng cũng tương đối không có sự khác biệt, vì chúng dựa trên các mô hình AI căn bản tương tự nhau và chưa phát hiện ra các hiệu ứng mạng lưới hoặc dữ liệu/quy trình công việc rõ ràng mà các đối thủ cạnh tranh khó có thể sao chép.
Vì vậy, vẫn chưa rõ ràng rằng việc bán ứng dụng cho người dùng cuối là con đường duy nhất, hoặc thậm chí là tốt nhất, để xây dựng một doanh nghiệp generative AI bền vững.
Lợi nhuận sẽ được cải thiện khi tính cạnh tranh và hiệu quả trong các mô hình ngôn ngữ tăng lên (sẽ nói thêm ở bên dưới). Tỷ lệ giữ chân sẽ tăng lên khi ‘khách du lịch’ AI rời khỏi thị trường. Và có một lập luận mạnh mẽ được đưa ra rằng các ứng dụng được tích hợp theo chiều dọc có lợi thế trong việc thúc đẩy sự khác biệt. Nhưng vẫn còn rất nhiều điều để chứng minh.
Nhìn về phía trước, một số câu hỏi lớn mà các công ty ứng dụng generative AI phải đối mặt bao gồm:
Cái mà chúng ta gọi là generative AI sẽ không tồn tại nếu không có công trình nghiên cứu và kỹ thuật xuất sắc được thực hiện ở những nơi như Google, OpenAI và Stability.
Thông qua các kiến trúc mô hình mới lạ và những nỗ lực to lớn để mở rộng quy mô đào tạo, tất cả chúng ta đều được hưởng lợi từ khả năng tuyệt vời của các mô hình ngôn ngữ lớn (LLM – large language model) và mô hình tạo ảnh (image-generation) hiện tại.
Tuy nhiên, doanh thu liên quan đến các công ty này vẫn còn tương đối nhỏ so với việc khả năng sử dụng và những tin đồn. Trong image-generation, Stable Diffusion đã chứng kiến sự phát triển bùng nổ của cộng đồng, được hỗ trợ bởi một hệ sinh thái gồm các giao diện người dùng, dịch vụ được lưu trữ và các phương pháp tinh chỉnh. Nhưng Stability cung cấp miễn phí các trạm kiểm soát chính của họ như một nguyên lý cốt lõi trong hoạt động kinh doanh. Trong các mô hình ngôn ngữ tự nhiên, OpenAI chiếm ưu thế với GPT-3/3.5 và ChatGPT. Nhưng cho đến nay, có tương đối ít ứng dụng sát thủ được xây dựng trên OpenAI tồn tại và giá đã từng giảm xuống.
Đây có thể chỉ là một hiện tượng tạm thời. Stability là một công ty mới chưa tập trung vào kiếm tiền. OpenAI có tiềm năng trở thành một doanh nghiệp lớn, kiếm được một phần đáng kể trong tổng doanh thu của danh mục NLP khi nhiều ứng dụng sát thủ hơn được xây dựng — đặc biệt nếu việc tích hợp chúng vào danh mục sản phẩm của Microsoft diễn ra suôn sẻ. Với việc sử dụng rất nhiều mô hình này, doanh thu quy mô lớn có thể không còn xa nữa.
Nhưng cũng có những lực lượng đối kháng. Các mô hình được phát hành dưới dạng nguồn mở có thể được lưu trữ bởi bất kỳ ai, kể cả các công ty bên ngoài không chịu chi phí liên quan đến đào tạo mô hình quy mô lớn (lên đến hàng chục hoặc hàng trăm triệu đô). Và không rõ liệu có bất kỳ mô hình nguồn đóng nào có thể duy trì lợi thế của chúng vô thời hạn hay không. Ví dụ: chúng tôi bắt đầu thấy các LLM được xây dựng bởi các công ty như Anthropic, Cohere và Character.ai tiến gần hơn đến các mức hiệu suất của OpenAI, được đào tạo trên các bộ dữ liệu tương tự (tức là internet) và với các kiến trúc mô hình tương tự. Ví dụ về Stable Diffusion gợi ý rằng nếu các mô hình nguồn mở đạt đủ mức hiệu suất và hỗ trợ cộng đồng, thì các giải pháp thay thế độc quyền có thể khó cạnh tranh.
Cho đến nay, có lẽ điểm rõ ràng nhất đối với các nhà cung cấp mô hình là việc thương mại hóa có khả năng gắn liền với việc lưu trữ. Nhu cầu về các API độc quyền (ví dụ: từ OpenAI) đang tăng lên nhanh chóng. Dịch vụ lưu trữ cho các mô hình nguồn mở (ví dụ: Hugging Face và Replicate) đang nổi lên như những trung tâm hữu ích để dễ dàng chia sẻ và tích hợp các mô hình — và thậm chí có một số hiệu ứng mạng gián tiếp giữa nhà sản xuất mô hình và người tiêu dùng. Ngoài ra còn có một giả thuyết mạnh mẽ rằng có thể kiếm tiền thông qua các thỏa thuận lưu trữ và tinh chỉnh với khách hàng doanh nghiệp.
Tuy nhiên, ngoài ra, có một số câu hỏi lớn mà các nhà cung cấp mô hình phải đối mặt:
Gần như mọi thứ trong generative AI đều đi qua GPU (hoặc TPU) được lưu trữ trên đám mây tại một thời điểm nào đó. Cho dù đối với các nhà cung cấp mô hình/phòng thí nghiệm nghiên cứu đang chạy khối lượng công việc đào tạo, các công ty lưu trữ chạy suy luận/tinh chỉnh hay các công ty ứng dụng thực hiện kết hợp cả hai – FLOPS là mạch máu của generative AI. Lần đầu tiên sau một thời gian rất dài, tiến bộ của công nghệ điện toán đột phá nhất là giới hạn điện toán đại trà.
Kết quả là, rất nhiều tiền trong thị trường generative AI cuối cùng chảy vào các công ty cơ sở hạ tầng.
Một con số rất sơ bộ: chúng tôi ước tính rằng, trung bình, các công ty ứng dụng chi khoảng 20-40% doanh thu cho việc suy luận và tinh chỉnh theo từng khách hàng. Khoản tiền này thường được thanh toán trực tiếp cho các nhà cung cấp đám mây đối với các phiên bản điện toán hoặc cho các nhà cung cấp mô hình bên thứ ba — đến lượt họ, họ chi khoảng một nửa doanh thu của họ cho cơ sở hạ tầng đám mây. Vì vậy, thật hợp lý khi đoán rằng 10-20% tổng doanh thu từ generative AI ngày nay thuộc về các nhà cung cấp đám mây.
Ngoài ra, các công ty khởi nghiệp đào tạo các mô hình của riêng họ đã huy động được hàng tỷ đô vốn đầu tư mạo hiểm — phần lớn trong số đó (lên tới 80-90% trong các vòng đầu tiên) cũng thường được chi cho các nhà cung cấp đám mây.
Nhiều công ty công nghệ đại chúng chi hàng trăm triệu mỗi năm cho việc đào tạo mô hình, với các nhà cung cấp đám mây bên ngoài hoặc trực tiếp với các nhà sản xuất phần cứng.
Về mặt kỹ thuật, đây là cái mà chúng tôi gọi là “rất nhiều tiền” — đặc biệt đối với một thị trường non trẻ.
Phần lớn trong số đó được chi cho Big 3 cloud: Amazon Web Services (AWS), Google Cloud Platform (GCP) và Microsoft Azure.
Các nhà cung cấp đám mây này cùng nhau chi hơn 100 tỷ đô la mỗi năm cho vốn đầu tư để đảm bảo họ có các nền tảng toàn diện, đáng tin cậy và cạnh tranh về chi phí nhất. Đặc biệt, trong generative AI, họ cũng được hưởng lợi từ các hạn chế về nguồn cung vì họ có quyền truy cập ưu tiên vào phần cứng khan hiếm (ví dụ: GPU Nvidia A100 và H100).
Tuy nhiên, điều thú vị là chúng ta đang bắt đầu thấy sự cạnh tranh đáng tin cậy xuất hiện.
Những người thách thức như Oracle đã xâm nhập với chi phí đầu tư lớn và khuyến khích bán hàng.
Và một số công ty khởi nghiệp, như Coreweave và Lambda Labs, đã phát triển nhanh chóng với các giải pháp nhắm mục tiêu cụ thể đến các nhà phát triển mô hình lớn. Họ cạnh tranh về chi phí, tính khả dụng và hỗ trợ cá nhân hóa. Chúng cũng hiển thị các bản tóm tắt tài nguyên chi tiết hơn (tức là các bộ chứa), trong khi các đám mây lớn chỉ cung cấp các phiên bản VM do giới hạn ảo hóa GPU.
Đằng sau hậu trường, điều hành phần lớn khối lượng công việc AI, có lẽ là người chiến thắng lớn nhất trong lĩnh vực AI tổng quát cho đến nay: Nvidia.
Công ty đã báo cáo 3,8 tỷ đô doanh thu GPU của trung tâm dữ liệu trong quý thứ ba của năm tài chính 2023, bao gồm một phần đáng kể cho các trường hợp sử dụng generative AI.
Và họ đã xây dựng những con hào vững chắc xung quanh hoạt động kinh doanh này thông qua hàng thập kỷ đầu tư vào kiến trúc GPU, một hệ sinh thái phần mềm mạnh mẽ và sử dụng rộng rãi trong cộng đồng học thuật.
Một phân tích gần đây cho thấy GPU Nvidia được trích dẫn trong các tài liệu nghiên cứu nhiều hơn 90 lần so với các công ty khởi nghiệp chip AI hàng đầu cộng lại.
Các tùy chọn phần cứng khác tồn tại, bao gồm Google Tensor Processing Units (TPU); GPU của AMD Instinct; chip AWS Inferentia và Trainium; và các công cụ tăng tốc AI từ các công ty khởi nghiệp như Cerebras, Sambanova và Graphcore. Intel, đến muộn trong cuộc chơi, cũng đang tham gia thị trường với chip Habana cao cấp và GPU Ponte Vecchio của họ.
Nhưng cho đến nay, rất ít chip mới này chiếm được thị phần đáng kể. Hai trường hợp ngoại lệ cần theo dõi là Google, công ty có TPU đã đạt được sức hút trong cộng đồng Stable Diffusion và trong một số giao dịch GCP lớn, và TSMC, công ty được cho là sản xuất tất cả các chip được liệt kê ở đây, bao gồm cả GPU Nvidia (Intel sử dụng kết hợp các fab – nhà sản xuất chip bán dẫn – riêng và TSMC để sản xuất chip của mình).
Nói cách khác, cơ sở hạ tầng là một lớp sinh lợi, lâu bền và dường như có thể phòng thủ được trong stack. Các câu hỏi lớn cần trả lời cho các công ty cơ sở hạ tầng bao gồm:
Tất nhiên, chúng tôi chưa biết. Nhưng dựa trên dữ liệu ban đầu mà chúng tôi có về generative AI, kết hợp với kinh nghiệm của chúng tôi với các công ty AI/ML trước đó, trực giác của chúng tôi như sau.
Ngày nay, dường như không có bất kỳ con hào (moat – hào kinh tế) có hệ thống nào trong generative AI. Khả năng cao nhất là, các ứng dụng thiếu sự khác biệt mạnh mẽ về sản phẩm vì chúng sử dụng các mô hình tương tự nhau; các mô hình phải đối mặt với sự khác biệt dài hạn không rõ ràng vì chúng được đào tạo trên các bộ dữ liệu tương tự với các kiến trúc tương tự; các nhà cung cấp đám mây thiếu sự khác biệt kỹ thuật sâu sắc vì họ chạy cùng một GPU; và ngay cả các công ty phần cứng cũng sản xuất chip của họ tại cùng một nhà máy.
Tất nhiên, còn có những con hào (moat) tiêu chuẩn khác:
Nhưng không có con hào nào trong số này có xu hướng bền vững trong thời gian dài. Và còn quá sớm để biết liệu các hiệu ứng mạng trực tiếp, mạnh mẽ có đang chiếm ưu thế trong bất kỳ lớp nào của stack hay không.
Dựa trên dữ liệu có sẵn, không rõ liệu sẽ có một động lực lâu dài, được-ăn-cả trong generative AI hay không.
Điều này thật kỳ lạ. Nhưng đối với chúng tôi, đó là tin tốt. Quy mô tiềm năng của thị trường này rất khó nắm bắt — nằm ở đâu đó giữa tất cả phần mềm và tất cả nỗ lực của con người — vì vậy chúng tôi mong đợi nhiều, rất nhiều người chơi và sự cạnh tranh lành mạnh ở mọi cấp độ của hệ thống.
Chúng tôi cũng kỳ vọng cả các công ty theo chiều ngang và chiều dọc sẽ thành công, với cách tiếp cận tốt nhất do thị trường cuối cùng và người dùng cuối quyết định.
Ví dụ: nếu sự khác biệt chính trong sản phẩm cuối cùng là chính AI, thì có khả năng quá trình dọc hóa (tức là kết hợp chặt chẽ ứng dụng hướng tới người dùng với mô hình do người dùng tự phát triển) sẽ thắng thế. Trong khi đó, nếu AI là một phần của bộ tính năng đuôi dài, lớn hơn, thì nhiều khả năng nó sẽ xảy ra theo chiều ngang. Tất nhiên, chúng ta cũng sẽ thấy việc xây dựng nhiều hào truyền thống hơn theo thời gian — và thậm chí chúng ta có thể thấy các loại hào mới đang chiếm ưu thế.
Dù thế nào đi chăng nữa, một điều chúng tôi chắc chắn là generative AI sẽ thay đổi trò chơi. Tất cả chúng ta đều đang học các quy tắc trong thời gian thực, có rất nhiều giá trị sẽ được mở khóa và kết quả là bối cảnh công nghệ sẽ khác đi rất nhiều. Và chúng tôi ở đây vì nó!
Tất cả hình ảnh trong bài đăng này được tạo bằng Midjourney.
Nguồn: Matt Bornstein, Guido Appenzeller, and Martin Casado (a16z)