Ai sở hữu nền tảng Generative AI (AI Tạo Sinh)?


Chúng ta đang bắt đầu thấy những giai đoạn đầu tiên của hệ thống công nghệ (tech stack) xuất hiện trong generative AI.





Hàng trăm công ty khởi nghiệp mới đang đổ xô vào thị trường để phát triển các mô hình nền tảng, xây dựng các ứng dụng gốc AI và xây dựng cơ sở hạ tầng/công cụ.





Nhiều xu hướng công nghệ nóng bỏng đã được thổi phồng quá mức trước khi thị trường bắt kịp. Nhưng sự bùng nổ trí tuệ nhân tạo đã đi kèm với những lợi ích thực sự trên thị trường thực và lực kéo thực từ các công ty thực.





Các mô hình như Stable Diffusion và ChatGPT đang lập kỷ lục lịch sử về tăng trưởng người dùng và một số ứng dụng đã đạt doanh thu hàng năm 100 triệu USD chưa đầy một năm sau khi ra mắt. So sánh song song cho thấy các mô hình AI vượt trội hơn con người trong một số nhiệm vụ theo nhiều bậc độ lớn.





Vì vậy, có đủ dữ liệu ban đầu để cho thấy sự chuyển đổi lớn đang diễn ra. Điều chúng ta không biết, và điều hiện đã trở thành câu hỏi quan trọng, là: Giá trị sẽ tích lũy ở đâu trên thị trường này?





Năm ngoái, chúng tôi đã gặp gỡ hàng chục nhà sáng lập và điều hành công ty khởi nghiệp trong các công ty lớn, những người trực tiếp xử lý generative AI.





Chúng tôi quan sát thấy rằng các nhà cung cấp cơ sở hạ tầng có khả năng là những người chiến thắng lớn nhất trong thị trường này cho đến nay, thu được phần lớn tiền chảy vào lĩnh vực này.





Các công ty ứng dụng hàng đầu đang tăng doanh thu rất nhanh nhưng thường phải vật lộn với việc duy trì, khác biệt hoá sản phẩm và lợi nhuận gộp. Và hầu hết các nhà cung cấp mô hình, mặc dù chịu trách nhiệm về sự tồn tại của thị trường này, vẫn chưa đạt được quy mô thương mại lớn.





Nói cách khác, các công ty tạo ra nhiều giá trị nhất – tức là đào tạo các mô hình Generative AI và áp dụng chúng trong các ứng dụng mới – đã không nắm bắt được phần lớn giá trị đó. Việc dự đoán điều gì sẽ xảy ra tiếp theo khó hơn nhiều.





Nhưng chúng tôi nghĩ rằng điều quan trọng cần hiểu là phần nào trong đó thực sự khác biệt và có thể bảo vệ được. Điều này sẽ có tác động lớn đến cấu trúc thị trường (tức là sự phát triển của công ty theo chiều ngang so với chiều dọc) và các yếu tố thúc đẩy giá trị lâu dài (ví dụ: biên lợi nhuận và tỷ lệ giữ chân).





Cho đến nay, chúng tôi đã gặp khó khăn trong việc tìm kiếm khả năng phòng thủ có cấu trúc ở bất kỳ đâu trong hệ thống công nghệ, bên ngoài các hào kinh tế (moat) truyền thống dành cho những người đương nhiệm.





Chúng tôi vô cùng lạc quan về generative AI và tin rằng nó sẽ có tác động lớn trong ngành công nghiệp phần mềm và hơn thế nữa.





Mục tiêu của bài viết này là làm rõ động lực thị trường và bắt đầu trả lời các câu hỏi rộng hơn về các mô hình kinh doanh generative AI.





Tech stack cấp cao: Cơ sở hạ tầng, mô hình và ứng dụng





Để hiểu thị trường AI tổng quát đang hình thành như thế nào, trước tiên chúng ta cần xác định hệ thống công nghệ này hiện nay trông ra sao. Đây là quan điểm sơ bộ của chúng tôi.





Sơ bộ về tech stack Generative AI
Sơ bộ về tech stack Generative AI




Stack có thể được chia thành ba lớp:





  • Các ứng dụng tích hợp các mô hình generative AI vào một sản phẩm hướng tới người dùng, chạy các quy trình mô hình của riêng chúng (“ứng dụng đầu cuối end-to-end”) hoặc dựa vào API của bên thứ ba
  • Các mô hình cung cấp sức mạnh cho các sản phẩm AI, được cung cấp dưới dạng API độc quyền hoặc dưới dạng checkpoint nguồn mở (do đó, yêu cầu giải pháp lưu trữ)
  • Các nhà cung cấp cơ sở hạ tầng (tức là nền tảng đám mây và nhà sản xuất phần cứng) chạy các công việc đào tạo và suy luận cho các mô hình GenerativeAI.




Lưu ý: Đây không phải là bản đồ thị trường, mà là một khuôn khổ để phân tích thị trường. Trong mỗi danh mục, chúng tôi đã liệt kê một vài ví dụ về các nhà cung cấp nổi tiếng. Chúng tôi chưa thực hiện bất kỳ nỗ lực nào để trở nên toàn diện hoặc liệt kê tất cả các ứng dụng generative AI tuyệt vời đã được phát hành. Ở đây, chúng tôi cũng sẽ không đi sâu về công cụ MLOps hoặc LLMops, vốn chưa được tiêu chuẩn hóa cao.





Làn sóng đầu tiên các ứng dụng generative AI đang bắt đầu đạt quy mô, nhưng gặp khó khăn trong việc duy trì và khác biệt hoá





Làn sóng ứng dụng Generative AI đạt quy mô nhưng khó khăn trong duy trì và mở rộng
Làn sóng ứng dụng Generative AI đạt quy mô nhưng khó khăn trong duy trì và mở rộng




Trong các chu kỳ công nghệ trước đây, bình thường để xây dựng một công ty lớn, độc lập, bạn phải sở hữu khách hàng cuối cùng — dù điều đó có nghĩa là người tiêu dùng cá nhân hay khách hàng B2B. Thật hấp dẫn khi tin rằng các công ty lớn nhất về generative AI cũng sẽ là các ứng dụng dành cho người dùng cuối. Cho đến nay, chưa có gì rõ ràng rằng điều đó đúng.





Chắc chắn, sự phát triển của các ứng dụng generative AI đã rất đáng kinh ngạc, được thúc đẩy bởi tính mới tuyệt đối và rất nhiều trường hợp sử dụng. Trên thực tế, chúng tôi biết ít nhất ba danh mục sản phẩm đã vượt trên 100 triệu đô doanh thu hàng năm: tạo hình ảnh, viết quảng cáo (copywriting) và viết mã (code writing).





Tuy nhiên, chỉ tăng trưởng thôi là không đủ để xây dựng các công ty phần mềm lâu bền. Quan trọng là, tăng trưởng phải mang lại lợi nhuận — nghĩa là người dùng và khách hàng, sau khi họ đăng ký, sẽ tạo ra lợi nhuận (tỷ suất lợi nhuận gộp cao) và gắn bó lâu dài (tỷ lệ giữ chân cao).





Trong trường hợp không có sự khác biệt rõ ràng về mặt kỹ thuật, các ứng dụng B2B và B2C sẽ thúc đẩy giá trị lâu dài của khách hàng thông qua hiệu ứng mạng lưới, nắm giữ dữ liệu hoặc xây dựng các quy trình công việc ngày càng phức tạp.





Trong generative AI, những giả định đó không nhất thiết phải đúng.





Trên khắp các công ty ứng dụng mà chúng tôi đã nói chuyện, có rất nhiều tỷ suất lợi nhuận gộp — một số trường hợp cao tới 90% nhưng thường thấp tới 50-60%, chủ yếu do chi phí áp dụng mô hình.





Mức tăng trưởng đầu kênh thật đáng kinh ngạc, nhưng vẫn chưa rõ liệu các chiến lược thu hút khách hàng hiện tại có thể mở rộng hay không — chúng tôi đã thấy hiệu quả của việc trả tiền thu hút người dùng (paid acquisition) và tỷ lệ giữ chân (retention) bắt đầu sụt giảm.





Nhiều ứng dụng cũng tương đối không có sự khác biệt, vì chúng dựa trên các mô hình AI căn bản tương tự nhau và chưa phát hiện ra các hiệu ứng mạng lưới hoặc dữ liệu/quy trình công việc rõ ràng mà các đối thủ cạnh tranh khó có thể sao chép.





Vì vậy, vẫn chưa rõ ràng rằng việc bán ứng dụng cho người dùng cuối là con đường duy nhất, hoặc thậm chí là tốt nhất, để xây dựng một doanh nghiệp generative AI bền vững.





Lợi nhuận sẽ được cải thiện khi tính cạnh tranh và hiệu quả trong các mô hình ngôn ngữ tăng lên (sẽ nói thêm ở bên dưới). Tỷ lệ giữ chân sẽ tăng lên khi ‘khách du lịch’ AI rời khỏi thị trường. Và có một lập luận mạnh mẽ được đưa ra rằng các ứng dụng được tích hợp theo chiều dọc có lợi thế trong việc thúc đẩy sự khác biệt. Nhưng vẫn còn rất nhiều điều để chứng minh.





Nhìn về phía trước, một số câu hỏi lớn mà các công ty ứng dụng generative AI phải đối mặt bao gồm:





  • Tích hợp dọc (“mô hình + ứng dụng”). Sử dụng các mô hình AI như một dịch vụ (AI models as a service) cho phép các nhà phát triển ứng dụng lặp lại nhanh chóng với một nhóm nhỏ và trao đổi các nhà cung cấp mô hình khi công nghệ tiến bộ. Mặt khác, một số nhà phát triển lập luận rằng sản phẩm là mô hình và đào tạo từ đầu là cách duy nhất để tạo khả năng phòng thủ — tức là bằng cách liên tục đào tạo lại dữ liệu sản phẩm độc quyền. Nhưng nó phải trả giá bằng yêu cầu vốn cao hơn nhiều và đội ngũ sản phẩm kém linh hoạt hơn.
  • Xây dựng Tính năng vs. Ứng dụng. Các sản phẩm generative AI có nhiều hình thái khác nhau: ứng dụng dành cho máy tính để bàn, ứng dụng di động, plugin Figma/Photoshop, tiện ích mở rộng của Chrome, thậm chí cả bot Discord. Thật dễ dàng để tích hợp các sản phẩm AI nơi người dùng đã làm việc, vì giao diện người dùng nói chung chỉ là một hộp văn bản. Công ty nào trong số này sẽ trở thành công ty độc lập — và công ty nào sẽ được các công ty đương nhiệm, như Microsoft hay Google, đã tích hợp AI vào các dòng sản phẩm của họ, thâu tóm?
  • Quản lý qua chu kỳ bong bóng (hype cycle). Vẫn chưa rõ liệu sự suy giảm là vốn có trong các sản phẩm generative AI hiện tại hay đó là sản phẩm của một thị trường sơ khai. Hoặc liệu sự quan tâm ngày càng tăng đối với generative AI sẽ giảm khi chu kỳ bong bóng lắng xuống. Những câu hỏi này có ý nghĩa quan trọng đối với các công ty ứng dụng, bao gồm cả thời điểm nhấn bàn đạp để gây quỹ; đầu tư tích cực ra sao vào việc thu hút khách hàng; ưu tiên phân khúc người dùng nào; và khi nào thì tuyên bố sản phẩm phù hợp với thị trường.




Các nhà cung cấp mô hình đã phát minh ra generative AI, nhưng chưa đạt quy mô thương mại lớn





Generative AI chưa đạt đến quy mô thương mại quá lớn
Generative AI chưa đạt đến quy mô thương mại quá lớn




Cái mà chúng ta gọi là generative AI sẽ không tồn tại nếu không có công trình nghiên cứu và kỹ thuật xuất sắc được thực hiện ở những nơi như Google, OpenAI và Stability.





Thông qua các kiến trúc mô hình mới lạ và những nỗ lực to lớn để mở rộng quy mô đào tạo, tất cả chúng ta đều được hưởng lợi từ khả năng tuyệt vời của các mô hình ngôn ngữ lớn (LLM – large language model) và mô hình tạo ảnh (image-generation) hiện tại.





Tuy nhiên, doanh thu liên quan đến các công ty này vẫn còn tương đối nhỏ so với việc khả năng sử dụng và những tin đồn. Trong image-generation, Stable Diffusion đã chứng kiến sự phát triển bùng nổ của cộng đồng, được hỗ trợ bởi một hệ sinh thái gồm các giao diện người dùng, dịch vụ được lưu trữ và các phương pháp tinh chỉnh. Nhưng Stability cung cấp miễn phí các trạm kiểm soát chính của họ như một nguyên lý cốt lõi trong hoạt động kinh doanh. Trong các mô hình ngôn ngữ tự nhiên, OpenAI chiếm ưu thế với GPT-3/3.5 và ChatGPT. Nhưng cho đến nay, có tương đối ít ứng dụng sát thủ được xây dựng trên OpenAI tồn tại và giá đã từng giảm xuống.





Đây có thể chỉ là một hiện tượng tạm thời. Stability là một công ty mới chưa tập trung vào kiếm tiền. OpenAI có tiềm năng trở thành một doanh nghiệp lớn, kiếm được một phần đáng kể trong tổng doanh thu của danh mục NLP khi nhiều ứng dụng sát thủ hơn được xây dựng — đặc biệt nếu việc tích hợp chúng vào danh mục sản phẩm của Microsoft diễn ra suôn sẻ. Với việc sử dụng rất nhiều mô hình này, doanh thu quy mô lớn có thể không còn xa nữa.





...nhưng doanh thu quy mô lớn có thể sẽ không còn xa nữa
…nhưng doanh thu quy mô lớn có thể sẽ không còn xa nữa




Nhưng cũng có những lực lượng đối kháng. Các mô hình được phát hành dưới dạng nguồn mở có thể được lưu trữ bởi bất kỳ ai, kể cả các công ty bên ngoài không chịu chi phí liên quan đến đào tạo mô hình quy mô lớn (lên đến hàng chục hoặc hàng trăm triệu đô). Và không rõ liệu có bất kỳ mô hình nguồn đóng nào có thể duy trì lợi thế của chúng vô thời hạn hay không. Ví dụ: chúng tôi bắt đầu thấy các LLM được xây dựng bởi các công ty như Anthropic, Cohere và Character.ai tiến gần hơn đến các mức hiệu suất của OpenAI, được đào tạo trên các bộ dữ liệu tương tự (tức là internet) và với các kiến trúc mô hình tương tự. Ví dụ về Stable Diffusion gợi ý rằng nếu các mô hình nguồn mở đạt đủ mức hiệu suất và hỗ trợ cộng đồng, thì các giải pháp thay thế độc quyền có thể khó cạnh tranh.





Cho đến nay, có lẽ điểm rõ ràng nhất đối với các nhà cung cấp mô hình là việc thương mại hóa có khả năng gắn liền với việc lưu trữ. Nhu cầu về các API độc quyền (ví dụ: từ OpenAI) đang tăng lên nhanh chóng. Dịch vụ lưu trữ cho các mô hình nguồn mở (ví dụ: Hugging Face và Replicate) đang nổi lên như những trung tâm hữu ích để dễ dàng chia sẻ và tích hợp các mô hình — và thậm chí có một số hiệu ứng mạng gián tiếp giữa nhà sản xuất mô hình và người tiêu dùng. Ngoài ra còn có một giả thuyết mạnh mẽ rằng có thể kiếm tiền thông qua các thỏa thuận lưu trữ và tinh chỉnh với khách hàng doanh nghiệp.





Tuy nhiên, ngoài ra, có một số câu hỏi lớn mà các nhà cung cấp mô hình phải đối mặt:





  • Hàng hóa hóa. Có một niềm tin chung rằng theo thời gian, các mô hình AI sẽ hội tụ về hiệu suất. Nói chuyện với các nhà phát triển ứng dụng, rõ ràng là điều đó vẫn chưa xảy ra, với những người dẫn đầu trong cả mô hình văn bản và hình ảnh. Lợi thế của họ không dựa trên kiến trúc mô hình độc đáo, mà dựa trên yêu cầu vốn cao, dữ liệu tương tác sản phẩm độc quyền và khan hiếm tài năng AI. Điều này sẽ phục vụ như là một lợi thế lâu dài?
  • Rủi ro qua cầu rút ván. Dựa vào các nhà cung cấp mô hình là một cách tuyệt vời để các công ty ứng dụng bắt đầu và thậm chí là phát triển doanh nghiệp của họ. Nhưng có động cơ khuyến khích họ xây dựng và/hoặc lưu trữ các mô hình của riêng họ sau khi đạt đến quy mô. Và nhiều nhà cung cấp mô hình có phân phối khách hàng rất sai lệch, với một vài ứng dụng chiếm phần lớn doanh thu. Điều gì xảy ra nếu/khi những khách hàng này chuyển sang phát triển AI nội bộ?
  • Tiền có quan trọng không? Lời hứa về generative AI lớn đến mức và cũng có khả năng gây hại đến mức nhiều nhà cung cấp mô hình đã tổ chức thành các tập đoàn công ích (B corps), phát hành cổ phiếu lợi nhuận giới hạn hoặc nói cách khác là kết hợp rõ ràng lợi ích cộng đồng vào sứ mệnh của họ. Điều này hoàn toàn không cản trở nỗ lực gây quỹ của họ. Nhưng có một cuộc thảo luận hợp lý xung quanh việc liệu hầu hết các nhà cung cấp mô hình có thực sự muốn nắm bắt giá trị hay không và liệu họ có nên làm như vậy hay không.




Các nhà cung cấp hạ tầng chạm vào mọi thứ và gặt hái thành quả





Nhà cung cấp hạ tầng Generative AI chạm đâu cũng ra tiền
Nhà cung cấp hạ tầng Generative AI chạm đâu cũng ra tiền




Gần như mọi thứ trong generative AI đều đi qua GPU (hoặc TPU) được lưu trữ trên đám mây tại một thời điểm nào đó. Cho dù đối với các nhà cung cấp mô hình/phòng thí nghiệm nghiên cứu đang chạy khối lượng công việc đào tạo, các công ty lưu trữ chạy suy luận/tinh chỉnh hay các công ty ứng dụng thực hiện kết hợp cả hai – FLOPS là mạch máu của generative AI. Lần đầu tiên sau một thời gian rất dài, tiến bộ của công nghệ điện toán đột phá nhất là giới hạn điện toán đại trà.





Kết quả là, rất nhiều tiền trong thị trường generative AI cuối cùng chảy vào các công ty cơ sở hạ tầng.





Một con số rất sơ bộ: chúng tôi ước tính rằng, trung bình, các công ty ứng dụng chi khoảng 20-40% doanh thu cho việc suy luận và tinh chỉnh theo từng khách hàng. Khoản tiền này thường được thanh toán trực tiếp cho các nhà cung cấp đám mây đối với các phiên bản điện toán hoặc cho các nhà cung cấp mô hình bên thứ ba — đến lượt họ, họ chi khoảng một nửa doanh thu của họ cho cơ sở hạ tầng đám mây. Vì vậy, thật hợp lý khi đoán rằng 10-20% tổng doanh thu từ generative AI ngày nay thuộc về các nhà cung cấp đám mây.





Ngoài ra, các công ty khởi nghiệp đào tạo các mô hình của riêng họ đã huy động được hàng tỷ đô vốn đầu tư mạo hiểm — phần lớn trong số đó (lên tới 80-90% trong các vòng đầu tiên) cũng thường được chi cho các nhà cung cấp đám mây.





Nhiều công ty công nghệ đại chúng chi hàng trăm triệu mỗi năm cho việc đào tạo mô hình, với các nhà cung cấp đám mây bên ngoài hoặc trực tiếp với các nhà sản xuất phần cứng.





Về mặt kỹ thuật, đây là cái mà chúng tôi gọi là “rất nhiều tiền” — đặc biệt đối với một thị trường non trẻ.





Phần lớn trong số đó được chi cho Big 3 cloud: Amazon Web Services (AWS), Google Cloud Platform (GCP) và Microsoft Azure.





Các nhà cung cấp đám mây này cùng nhau chi hơn 100 tỷ đô la mỗi năm cho vốn đầu tư để đảm bảo họ có các nền tảng toàn diện, đáng tin cậy và cạnh tranh về chi phí nhất. Đặc biệt, trong generative AI, họ cũng được hưởng lợi từ các hạn chế về nguồn cung vì họ có quyền truy cập ưu tiên vào phần cứng khan hiếm (ví dụ: GPU Nvidia A100 và H100).





Tuy nhiên, điều thú vị là chúng ta đang bắt đầu thấy sự cạnh tranh đáng tin cậy xuất hiện.





Những người thách thức như Oracle đã xâm nhập với chi phí đầu tư lớn và khuyến khích bán hàng.





Và một số công ty khởi nghiệp, như Coreweave và Lambda Labs, đã phát triển nhanh chóng với các giải pháp nhắm mục tiêu cụ thể đến các nhà phát triển mô hình lớn. Họ cạnh tranh về chi phí, tính khả dụng và hỗ trợ cá nhân hóa. Chúng cũng hiển thị các bản tóm tắt tài nguyên chi tiết hơn (tức là các bộ chứa), trong khi các đám mây lớn chỉ cung cấp các phiên bản VM do giới hạn ảo hóa GPU.





Những người thách thức đã xuất hiện để cạnh tranh
Những người thách thức đã xuất hiện để cạnh tranh




Đằng sau hậu trường, điều hành phần lớn khối lượng công việc AI, có lẽ là người chiến thắng lớn nhất trong lĩnh vực AI tổng quát cho đến nay: Nvidia.





Công ty đã báo cáo 3,8 tỷ đô doanh thu GPU của trung tâm dữ liệu trong quý thứ ba của năm tài chính 2023, bao gồm một phần đáng kể cho các trường hợp sử dụng generative AI.





Và họ đã xây dựng những con hào vững chắc xung quanh hoạt động kinh doanh này thông qua hàng thập kỷ đầu tư vào kiến trúc GPU, một hệ sinh thái phần mềm mạnh mẽ và sử dụng rộng rãi trong cộng đồng học thuật.





Một phân tích gần đây cho thấy GPU Nvidia được trích dẫn trong các tài liệu nghiên cứu nhiều hơn 90 lần so với các công ty khởi nghiệp chip AI hàng đầu cộng lại.





Các tùy chọn phần cứng khác tồn tại, bao gồm Google Tensor Processing Units (TPU); GPU của AMD Instinct; chip AWS Inferentia và Trainium; và các công cụ tăng tốc AI từ các công ty khởi nghiệp như Cerebras, Sambanova và Graphcore. Intel, đến muộn trong cuộc chơi, cũng đang tham gia thị trường với chip Habana cao cấp và GPU Ponte Vecchio của họ.





Nhưng cho đến nay, rất ít chip mới này chiếm được thị phần đáng kể. Hai trường hợp ngoại lệ cần theo dõi là Google, công ty có TPU đã đạt được sức hút trong cộng đồng Stable Diffusion và trong một số giao dịch GCP lớn, và TSMC, công ty được cho là sản xuất tất cả các chip được liệt kê ở đây, bao gồm cả GPU Nvidia (Intel sử dụng kết hợp các fab – nhà sản xuất chip bán dẫn – riêng và TSMC để sản xuất chip của mình).





Nói cách khác, cơ sở hạ tầng là một lớp sinh lợi, lâu bền và dường như có thể phòng thủ được trong stack. Các câu hỏi lớn cần trả lời cho các công ty cơ sở hạ tầng bao gồm:





  • Nắm giữ khối lượng công việc không trạng thái (stateless). GPU Nvidia giống nhau ở bất cứ nơi nào bạn thuê chúng. Hầu hết các khối lượng công việc AI đều không trạng thái, theo nghĩa là suy luận mô hình không yêu cầu cơ sở dữ liệu hoặc bộ lưu trữ đính kèm (ngoại trừ đối với chính trọng số của mô hình). Điều này có nghĩa là khối lượng công việc AI có thể linh hoạt hơn trên các đám mây so với khối lượng công việc của ứng dụng truyền thống. Làm thế nào, trong bối cảnh này, các nhà cung cấp đám mây có thể tạo ra sự kết dính và ngăn cản khách hàng chuyển sang lựa chọn rẻ nhất?
  • Sống sót qua giai đoạn khan hiếm chip. Việc định giá cho các nhà cung cấp dịch vụ đám mây và cho chính Nvidia, đã được hỗ trợ bởi nguồn cung khan hiếm các GPU đáng mơ ước nhất. Một nhà cung cấp cho chúng tôi biết rằng giá niêm yết của A100 đã thực sự tăng kể từ khi ra mắt, điều này rất bất thường đối với phần cứng máy tính. Khi hạn chế về nguồn cung này cuối cùng được loại bỏ, thông qua việc tăng cường sản xuất và/hoặc áp dụng các nền tảng phần cứng mới, điều này sẽ tác động như thế nào đến các nhà cung cấp đám mây?
  • Một đám mây thách thức có thể vượt qua? Chúng tôi tin tưởng mạnh mẽ rằng các đám mây chiều dọc (vertical cloud) sẽ chiếm thị phần từ Big 3 với các dịch vụ chuyên biệt hơn. Trong AI cho đến nay, những người thách thức đã tạo ra lực kéo có ý nghĩa thông qua sự khác biệt kỹ thuật vừa phải và sự hỗ trợ của Nvidia – những người mà các nhà cung cấp đám mây hiện tại vừa là khách hàng lớn nhất vừa là đối thủ cạnh tranh mới nổi. Câu hỏi dài hạn là, liệu điều này có đủ để vượt qua lợi thế quy mô của Big 3?




Vậy… giá trị sẽ tích lũy ở đâu?





Tất nhiên, chúng tôi chưa biết. Nhưng dựa trên dữ liệu ban đầu mà chúng tôi có về generative AI, kết hợp với kinh nghiệm của chúng tôi với các công ty AI/ML trước đó, trực giác của chúng tôi như sau.





Ngày nay, dường như không có bất kỳ con hào (moat – hào kinh tế) có hệ thống nào trong generative AI. Khả năng cao nhất là, các ứng dụng thiếu sự khác biệt mạnh mẽ về sản phẩm vì chúng sử dụng các mô hình tương tự nhau; các mô hình phải đối mặt với sự khác biệt dài hạn không rõ ràng vì chúng được đào tạo trên các bộ dữ liệu tương tự với các kiến trúc tương tự; các nhà cung cấp đám mây thiếu sự khác biệt kỹ thuật sâu sắc vì họ chạy cùng một GPU; và ngay cả các công ty phần cứng cũng sản xuất chip của họ tại cùng một nhà máy.





Tất nhiên, còn có những con hào (moat) tiêu chuẩn khác:





  • hào quy mô (“Tôi có hoặc có thể huy động được nhiều tiền hơn bạn!”),
  • hào chuỗi cung ứng (“Tôi có GPU, bạn thì không!”),
  • hào hệ sinh thái (“Tôi có GPU, bạn thì không!” Mọi người đã sử dụng phần mềm của tôi rồi!”),
  • hào về thuật toán (“Chúng tôi thông minh hơn bạn!”),
  • hào về phân phối (“Tôi đã có đội ngũ bán hàng và nhiều khách hàng hơn bạn!”) và
  • hào về data pipeline (“Tôi’ đã thu thập thông tin trên Internet nhiều hơn bạn!”).




Nhưng không có con hào nào trong số này có xu hướng bền vững trong thời gian dài. Và còn quá sớm để biết liệu các hiệu ứng mạng trực tiếp, mạnh mẽ có đang chiếm ưu thế trong bất kỳ lớp nào của stack hay không.





Dựa trên dữ liệu có sẵn, không rõ liệu sẽ có một động lực lâu dài, được-ăn-cả trong generative AI hay không.





Điều này thật kỳ lạ. Nhưng đối với chúng tôi, đó là tin tốt. Quy mô tiềm năng của thị trường này rất khó nắm bắt — nằm ở đâu đó giữa tất cả phần mềm và tất cả nỗ lực của con người — vì vậy chúng tôi mong đợi nhiều, rất nhiều người chơi và sự cạnh tranh lành mạnh ở mọi cấp độ của hệ thống.





Chúng tôi cũng kỳ vọng cả các công ty theo chiều ngang và chiều dọc sẽ thành công, với cách tiếp cận tốt nhất do thị trường cuối cùng và người dùng cuối quyết định.





Ví dụ: nếu sự khác biệt chính trong sản phẩm cuối cùng là chính AI, thì có khả năng quá trình dọc hóa (tức là kết hợp chặt chẽ ứng dụng hướng tới người dùng với mô hình do người dùng tự phát triển) sẽ thắng thế. Trong khi đó, nếu AI là một phần của bộ tính năng đuôi dài, lớn hơn, thì nhiều khả năng nó sẽ xảy ra theo chiều ngang. Tất nhiên, chúng ta cũng sẽ thấy việc xây dựng nhiều hào truyền thống hơn theo thời gian — và thậm chí chúng ta có thể thấy các loại hào mới đang chiếm ưu thế.





Dù thế nào đi chăng nữa, một điều chúng tôi chắc chắn là generative AI sẽ thay đổi trò chơi. Tất cả chúng ta đều đang học các quy tắc trong thời gian thực, có rất nhiều giá trị sẽ được mở khóa và kết quả là bối cảnh công nghệ sẽ khác đi rất nhiều. Và chúng tôi ở đây vì nó!





Tất cả hình ảnh trong bài đăng này được tạo bằng Midjourney.





Nguồn: Matt Bornstein, Guido Appenzeller, and Martin Casado (a16z)