Đột nhiên, giới công nghệ của Thung lũng Silicon xôn xao về babyAGI. Đó là một biệt danh có vẻ vừa dễ thương vừa đáng sợ, hơi giống mogwais trong bộ phim hài kinh dị cổ điển đình đám Gremlins. Nhưng chính xác thì…
Trước hết, nó không hoàn toàn đáng sợ như thoạt tưởng.
Bất chấp cái tên, babyAGI chắc chắn không phải là viết tắt của Artificial General Intelligence (trí tuệ tổng hợp nhân tạo) và cũng không đề cập đến loại A.I nào đó là một yếu tố chính của khoa học viễn tưởng.
AGI là mục tiêu được thể hiện của một số công ty A.I, bao gồm OpenAI và DeepMind của Alphabet.
Đó là thứ mà nhà đồng sáng lập kiêm Giám đốc điều hành OpenAI, Sam Altman nói rằng mọi người có lý do chính đáng để sợ hãi, thứ mà Elon Musk đã nói khiến ông này thức trắng đêm và khiến một số người kêu gọi tạm dừng sáu tháng cho việc phát triển phần mềm A.I mạnh mẽ hơn nữa.
Nhưng AGI vẫn chưa tồn tại và có rất nhiều người trong ngành khoa học máy tính nghĩ rằng AGI là bất khả thi.
Vì vậy, babyAGI không phải là Skynet còn quấn tã. Nhưng nó vẫn là một bổ sung mới ấn tượng và quan trọng cho thế giới A.I.
BabyAGI về cơ bản là phần mềm biến GPT-4 (mô hình ngôn ngữ lớn mới nhất của OpenAI, thường chỉ xuất ra các từ) thành một trợ lý kỹ thuật số hữu ích có thể hoàn thành các tác vụ và thực hiện các hành động trên internet.
Thay vì chỉ nhận được câu trả lời bằng văn bản cho prompt từ GPT-4, với BabyAGI, bạn có thể thực hiện những việc như lập kế hoạch và tự động thực hiện chiến dịch để tăng lượt theo dõi trên Twitter của mình hoặc tạo và điều hành doanh nghiệp tiếp thị nội dung.
BabyAGI thực sự chỉ là một phiên bản phổ biến của “AutoGPT“, một danh mục phần mềm nguồn mở có thể thực hiện những việc này. Cả AutoGPT và BabyAGI chỉ mới ra đời được vài tuần, cho thấy sự đổi mới cực kỳ nhanh chóng—và những rủi ro mới không đáng kể—đang ra đời trong kỷ nguyên của LLM (mô hình ngôn ngữ lớn).
Nathan Benaich, người sáng lập công ty đầu tư mạo hiểm Air Street Capital có trụ sở tại London và là nhà đầu tư nổi tiếng giai đoạn đầu của các công ty A.I cho biết.
Chúng ta vẫn đang trong những ngày đầu của Autonomous Agents (tác tử tự trị), nhưng chắc chắn có một cơ hội thú vị ở đây.
AutoGPT đầu tiên, được gọi đơn giản là “Auto-GPT” được tạo bởi Toran Bruce Richards.
Richards là người sáng lập và là nhà phát triển hàng đầu của Signive Gravitas có trụ sở tại Edinburgh, Scotland, một công ty tìm cách sử dụng các kỹ thuật phần mềm từ ngành công nghiệp trò chơi điện tử và áp dụng nó vào các trường hợp sử dụng không liên quan đến trò chơi.
Richards đã tạo Auto-GPT và tải nó lên trang Github của anh ấy vào ngày 30 tháng 3.
Kể từ đó, nhiều nhà phát triển khác đã tạo phiên bản của riêng họ.
AutoGPT sử dụng một số giao diện lập trình ứng dụng (API) để liên kết GPT-4 với LangChain, một công cụ phần mềm nguồn mở giúp dễ dàng liên kết một loạt prompt (đầu vào mà LLM căn cứ vào phản hồi của nó) với nhau và Pinecone, một cơ sở dữ liệu vectơ có thể được sử dụng như một loại bộ nhớ cho GPT-4, cho phép nó tham chiếu lại các tài liệu bên ngoài hoặc các phản hồi trước đó của chính nó đối với các prompt.
Cách đó hàng ngàn dặm ở Seattle, Yohei Nakajima, một đối tác tại công ty đầu tư mạo hiểm giai đoạn đầu Untapped Capital, đang thử nghiệm với các công cụ generative A.I mới nhất và tạo ra thứ sẽ sớm được đặt tên là BabyAGI.
Nakajima đã nhận thấy mọi người đang cố gắng sử dụng ChatGPT của OpenAI với tư cách là “người đồng sáng lập” khởi nghiệp — tạo ý tưởng kinh doanh, viết kế hoạch kinh doanh, soạn thảo tài liệu tiếp thị — một hiện tượng được mệnh danh là “HustleGPT”. Anh ấy nghĩ rằng có thể tự động hóa toàn bộ quy trình và tạo ra một công ty hoàn toàn tự chủ do GPT-4 điều hành.
Nakajima đã tạo ra một nguyên mẫu và tweet về nó. Một người bạn đã xem bài đăng của anh ấy và đặt tên cho ý tưởng là “babyAGI”—và cái tên này cư vậy mà rộ lên.
Nakajima cho biết chỉ sau đó anh ấy mới nhận ra rằng hệ thống mà anh ấy đã tạo sẽ hoạt động tốt hơn với tư cách là một tác tử tự trị (autonomous agent) theo định hướng nhiệm vụ hơn là một nhà sáng lập công ty khởi nghiệp tự chủ (autonomous startup founder).
Nakajima cho biết anh chủ yếu là một nhà đầu tư, không phải nhà phát triển phần mềm và là người mới sử dụng Github. Vì vậy, anh ấy rất ngạc nhiên khi các nhà phát triển khác bắt đầu lấy và chạy code của mình.
BabyAGI tỏ ra đặc biệt phổ biến một phần vì mã của nó đơn giản hơn Auto-GPT của Richards—và bởi vì cái tên này hơi kỳ cục.
Phiên bản gốc của Nakajima không thực sự thực hiện các phản hồi của nó—nhưng một số nhà phát triển, bao gồm cả nhóm từ chính LangChain, hiện đã tạo ra các phiên bản của riêng họ thực sự hoạt động trên internet.
Kể từ khi anh ấy đăng nó, mọi người đã đăng trên Twitter các video quay cảnh họ sử dụng babyAGI để vận hành hoạt động tìm kiếm khách hàng tự trị cho một doanh nghiệp.
Những người khác đã sử dụng Auto-GPT để nghiên cứu sản phẩm mới và chuẩn bị cho podcast. Và một số người đã sử dụng các phiên bản để phát triển, kiểm tra và gỡ lỗi phần mềm một cách tự động.
Cho đến nay, tất cả các AutoGPT, bao gồm cả babyAGI, đều cho sử dụng miễn phí (mặc dù mỗi lần phần mềm thực hiện lệnh gọi API OpenAI, người dùng sẽ bị tính phí).
Bản chất nguồn mở của chúng có thể gây ra mối đe dọa cho một số startup nổi tiếng, được tài trợ tốt đang cố gắng tạo ra các phụ tá A.I. Chúng bao gồm Adept AI, bao gồm một số cựu OpenAI và Google trong số những người sáng lập và đã huy động được 415 triệu đô vốn đầu tư mạo hiểm cho đến nay, và Inflection AI, đồng sáng lập bởi Mustafa Suleyman, đồng sáng lập DeepMind và đồng sáng lập Linkedin, Reid Hoffmann. Nó đã nhận được 225 triệu đô vốn đầu tư mạo hiểm và được cho là đang trong quá trình cố gắng huy động thêm 675 triệu đô nữa.
Mặc dù AutoGPT không phải là AGI, nhưng chúng có một số rủi ro. Có điều, vì chúng chạy theo vòng lặp liên tục, chạy nhiều chuỗi prompt đến GPT-4, nên chúng có thể tăng số lượng các hóa đơn tới OpenAI đến chóng mặt.
Nakajima nói:
“Như với bất kỳ sản phẩm hoặc dịch vụ nào, điều quan trọng là phải hiểu chi phí của dịch vụ bạn đang sử dụng. Chúng tôi thông báo rõ ràng về rủi ro này và kêu gọi những người khác cũng làm như vậy”
Có những nguy hiểm khác nữa. AutoGPT có thể viết và thực thi mã máy tính, vì vậy chúng có thể được sử dụng để thực hiện các cuộc tấn công mạng hoặc âm mưu lừa đảo.
Chúng cũng có thể được sử dụng để phục vụ cho các nhà máy thông tin sai lệch (misinformation mill), bằng cách tạo ra nội dung sai lệch và gây hiểu lầm, đồng thời tự động điều khiển việc phổ biến nội dung đó trên các phương tiện truyền thông xã hội.
Có quá nhiều mối nguy hiểm trần tục. Nếu người dùng không cẩn thận về những gì họ yêu cầu các bot tự động làm, thì cuối cùng, chúng có thể làm điều gì đó thay cho bạn—chẳng hạn như mua hàng hoặc đặt lịch hẹn—mà người dùng không có ý định đó.
Oren Etzioni, nhà khoa học máy tính danh dự tại Đại học Washington, đồng thời là Giám đốc điều hành sáng lập của Viện Allen Trí tuệ nhân tạo ở Seattle, cho biết:
“Các LLM khá hạn chế, nhưng loại hệ thống mới này—hãy gọi chúng là các tác tử (agent) dựa trên GPT có khả năng mạnh hơn nhiều. Hơn nữa, thật dễ dàng để hình dung ra những viễn cảnh mà chúng sẽ khó kiểm soát.”
Hiện tại, ông cho biết khả năng AutoGPT phải trả phí lớn từ OpenAI là rủi ro tức thời nhất. Nhưng vì AutoGPT là một bước tiến tới các hệ thống có thể hoạt động tự động trên internet nên “sự phát triển của chúng đáng được đánh giá cẩn thận”.
Benaich nói rằng hầu hết các AutoGPT hiện có đều dựa trên các lệnh gọi API tốn kém tới OpenAI nhưng trong tương lai, có thể dựa trên các loại agent này trên các LLM nguồn mở, miễn phí có khả năng như GPT-4 hiện nay. Nhưng anh ấy nói rằng không phải tất cả các LLM đều có thể được tạo ra như nhau.
Từ đây sẽ có hai điều cực kỳ quan trọng: thứ nhất là biết các agent LLM thực sự phù hợp nhất với công việc gì và thứ hai là xem chúng thực sự mạnh mẽ như thế nào, đặc biệt là khi chúng sẽ đáp ứng được rất nhiều nhiệm vụ do được thực hiện rộng rãi có sẵn.
GAMBA Team, nguồn từ Yahoo Finance.