Google đặt cược vào AI lai tại Cloud Next: Khi trí tuệ nhân tạo có mặt ở mọi nơi

Tại sự kiện Cloud Next diễn ra ở Las Vegas, Google một lần nữa khẳng định vị thế tiên phong trong cuộc đua trí tuệ nhân tạo khi công bố hàng loạt cải tiến về hạ tầng, công cụ phát triển và kiến trúc AI. Dù không trực tiếp nhắc đến cụm từ Hybrid AI trong các thông cáo báo chí, nhưng nếu xâu chuỗi các thông báo lại, rõ ràng Google đang hướng đến một tương lai nơi AI được triển khai linh hoạt trên cả cloud công cộng, private cloud của doanh nghiệp và thậm chí là trên các thiết bị cá nhân.

Cloud Next 2024: TPU thế hệ 7 và chuẩn MCP mở đường cho Hybrid AI

Trên mặt trận hạ tầng, điểm nhấn lớn nhất là sự xuất hiện của TPU thế hệ 7 (Ironwood) – con chip do Google tự thiết kế, tối ưu cho tác vụ suy luận (inferencing). So với thế hệ trước, Ironwood mang lại hiệu suất vượt trội gấp 10 lần và hỗ trợ kết nối tốc độ cao giữa các chip.

Không dừng lại ở đó, kiến trúc AI Hypercomputer mới của Google cho phép kết nối tới 9.216 TPU vào một cụm xử lý duy nhất, mang lại hiệu suất lên tới 42.5 exaflops, cao gấp 24 lần siêu máy tính mạnh nhất hiện tại. Đây là bước tiến quan trọng cho các mô hình reasoning đa chuỗi phức tạp đang nổi lên.

Google cũng đẩy mạnh hệ sinh thái agent AI với công cụ Agent Development Kit và nền tảng Agentspace giúp nhân viên doanh nghiệp xây dựng tác nhân AI với giao diện no-code/low-code. Đặc biệt, giao thức Agent2Agent (A2A) mới ra mắt cho phép các agent từ nhiều hệ thống khác nhau giao tiếp và phối hợp hiệu quả hơn.

ADK Framework minh họa cách bạn có thể xây dựng hệ thống đa tác nhân (multi-agent systems)
ADK Framework minh họa cách bạn có thể xây dựng hệ thống đa tác nhân (multi-agent systems)

Điểm đáng chú ý nhất là Google đã chính thức hỗ trợ chuẩn Model Context Protocol (MCP) – nền tảng giúp các mô hình AI truy cập dữ liệu từ nhiều nguồn khác nhau và công bố các chức năng khả dụng theo chuẩn hóa. Điều này mở đường cho các ứng dụng AI phân tán – truy cập dữ liệu cục bộ và đám mây cùng lúc.

Chiến lược Hybrid AI được định hình rõ tại Cloud Next

Google không chỉ hỗ trợ MCP trong hạ tầng public cloud mà còn thông báo đưa Gemini, Agentspace và các công cụ AI vào môi trường private cloud thông qua Google Distributed Cloud, bắt đầu từ quý 3 năm nay. Điều này giúp doanh nghiệp kết hợp sức mạnh xử lý từ Google Cloud với dữ liệu nội bộ, giải bài toán data gravity vốn gây trở ngại cho nhiều tổ chức muốn tận dụng LLM.

Với hướng tiếp cận này, doanh nghiệp có thể chạy một phần mô hình AI trên cloud công cộng – xử lý dữ liệu phi nhạy cảm, trong khi vẫn vận hành các tác vụ AI khác trên hạ tầng nội bộ với dữ liệu độc quyền. Điều này vừa bảo mật, vừa tiết kiệm chi phí và tăng hiệu quả xử lý.

Google thậm chí còn nhấn mạnh khả năng mở rộng AI ra thiết bị cá nhân như PC, điện thoại, trong bối cảnh chip AI tích hợp ngày càng phổ biến. Viễn cảnh một hệ sinh thái AI phân tán – hoạt động trơn tru từ cloud đến thiết bị đầu cuối – đang dần thành hình.

Ngoài hạ tầng, Google cũng nâng cấp loạt tính năng AI trong bộ Workspace: từ quy trình tự động (Workflows), tính năng âm thanh trong Docs, đến phân tích dữ liệu nâng cao trong Sheets và tóm tắt tài liệu. Người dùng còn được truy cập miễn phí phiên bản mạnh nhất của Gemini AI – củng cố thêm vai trò trung tâm của AI trong trải nghiệm làm việc.

Những gì Google trình diễn tại Cloud Next không chỉ là bản cập nhật sản phẩm mà là một tầm nhìn dài hạn: AI ở mọi nơi – từ cloud đến thiết bị cá nhân – với Hybrid AI làm trụ cột. Từ TPU đến MCP, từ Agentspace đến Distributed Cloud, Google đang thiết lập bộ công cụ đầy đủ để hiện thực hóa kỷ nguyên AI phân tán hiệu quả và linh hoạt hơn bao giờ hết.

1 bình luận về “Google đặt cược vào AI lai tại Cloud Next: Khi trí tuệ nhân tạo có mặt ở mọi nơi”

Viết một bình luận