Trong bối cảnh trí tuệ nhân tạo (AI) đang gây ra những biến đổi sâu sắc trong nhiều lĩnh vực, các doanh nghiệp ngày càng cần một hạ tầng vừa tiết kiệm chi phí, vừa có khả năng phát triển và triển khai nhanh chóng. Để đáp ứng nhu cầu này, Intel đã chính thức ra mắt Xeon 6 với các nhân hiệu suất cao và bộ tăng tốc AI Gaudi 3. Hai sản phẩm này khẳng định thêm cam kết của Intel trong việc cung cấp các hệ thống AI mạnh mẽ với hiệu suất tối ưu hóa trên mỗi watt điện và tổng chi phí sở hữu thấp hơn.
Ông Justin Hotard, Phó Chủ tịch Điều hành và Tổng Giám đốc Nhóm Trung tâm Dữ liệu và Trí tuệ Nhân Tạo tại Intel, cho biết: “Nhu cầu gia tăng đối với AI đang dẫn đến một sự chuyển mình lớn trong ngành trung tâm dữ liệu. Ngành công nghệ hiện đang yêu cầu đa dạng hóa hơn nữa về phần cứng, phần mềm và các công cụ phát triển. Với Xeon 6 tích hợp P-core và bộ tăng tốc AI Gaudi 3, Intel đang hỗ trợ một hệ sinh thái mở để giúp các doanh nghiệp cải thiện triển khai mọi ứng dụng, từ hiệu suất xử lý, hiệu quả sử dụng điện cho đến bảo mật.”
Intel Xeon 6 với P-core và bộ tăng tốc AI Gaudi 3
Intel giới thiệu các cải tiến công nghệ mới cho hạ tầng AI thông qua hai sản phẩm vừa ra mắt trong lĩnh vực trung tâm dữ liệu:
Vi xử lý Intel Xeon 6 với P-core: Được thiết kế nhằm đáp ứng nhu cầu sức mạnh tính toán cao trong khi tiết kiệm điện năng, Xeon 6 cung cấp hiệu suất gấp đôi so với phiên bản trước. Dòng vi xử lý mới này có nhiều nhân hơn, băng thông bộ nhớ tăng gấp đôi và khả năng tăng tốc AI tích hợp sẵn trong từng nhân. Bộ vi xử lý này được tối ưu hóa để phục vụ cho các yêu cầu về hiệu suất AI từ các thiết bị ở biên mạng cho đến trung tâm dữ liệu và môi trường đám mây. Nhờ vào sự hợp tác chiến lược với Intel, Google Cloud có thể cung cấp các giải pháp đạt hiệu năng cao và linh hoạt, bao gồm cả việc tích hợp Intel Xeon 6 với P-core trong tương lai.
Bộ tăng tốc AI Intel Gaudi 3: Được tối ưu hóa cho các mô hình generative AI quy mô lớn, Gaudi 3 sở hữu 64 nhân xử lý Tensor (TPC) và 8 động cơ nhân ma trận để tăng cường khả năng tính toán của mạng thần kinh sâu. Bộ tăng tốc AI của Intel đi kèm với 128 gigabyte bộ nhớ HBM2e phục vụ cho việc huấn luyện và suy luận, cùng với 24 cổng Ethernet 200 Gigabit cho khả năng mở rộng mạng. Gaudi 3 cũng cho phép tương thích tốt với framework PyTorch và các mô hình transformer, diffuser tiên tiến từ Hugging Face. IBM và Intel đang làm việc cùng nhau để cung cấp dịch vụ Gaudi 3 nhằm hỗ trợ khách hàng tối ưu hóa tiềm năng của AI. Qua sự hợp tác này, Intel và IBM hướng tới mục tiêu giảm chi phí tổng thể trong việc áp dụng và mở rộng quy mô AI, đồng thời nâng cao khả năng xử lý.
Tăng cường các hệ thống AI với nhiều lợi ích từ tổng chi phí sở hữu
Việc áp dụng AI ở quy mô lớn yêu cầu doanh nghiệp xem xét nhiều yếu tố, chẳng hạn như khả năng linh hoạt của các tùy chọn triển khai nhằm đáp ứng nhu cầu thực tế, mức độ cạnh tranh về hiệu suất so với chi phí và khả năng sử dụng của công nghệ AI. Hệ thống hạ tầng x86 mạnh mẽ cùng với hệ sinh thái mã nguồn mở phong phú của Intel hỗ trợ các doanh nghiệp phát triển các hệ thống AI mang lại giá trị cao, tối ưu hóa tổng chi phí sở hữu và hiệu suất tiêu thụ điện năng. Đặc biệt, 73% số máy chủ sử dụng GPU để tăng tốc đều lựa chọn Intel Xeon làm bộ xử lý chính.
Intel hợp tác với các nhà sản xuất thiết bị gốc hàng đầu như Dell Technologies và Supermicro để đồng thiết kế các hệ thống phù hợp với nhiều nhu cầu cụ thể của khách hàng nhằm nâng cao hiệu quả trong việc triển khai AI.
Thu hẹp khoảng cách từ nguyên mẫu cho đến thành phẩm qua các nỗ lực hợp tác đồng thiết kế
Việc chuyển đổi các giải pháp Gen AI từ nguyên mẫu sang hệ thống sẵn sàng cho sản xuất đối mặt với nhiều thách thức liên quan đến giám sát thời gian thực, xử lý lỗi, ghi lại hoạt động, bảo mật và khả năng mở rộng. Intel đang tìm cách giải quyết những thách thức này thông qua việc hợp tác thiết kế với các nhà sản xuất gốc (OEM) và đối tác để cung cấp các giải pháp tạo sinh tăng cường truy xuất (RAG) một cách ổn định và đáng tin cậy, sẵn sàng cho sản xuất.
Các giải pháp này được xây dựng trên Nền tảng Mở dành cho AI cấp Doanh nghiệp (OPEA), kết hợp các dịch vụ con dựa trên OPEA vào một hệ thống RAG có khả năng mở rộng, tối ưu hóa cho các hệ thống AI chạy trên Xeon và Gaudi. Hệ thống này được thiết kế nhằm giúp các doanh nghiệp dễ dàng tích hợp các ứng dụng từ Kubernetes, Red Hat OpenShift AI và Red Hat Enterprise Linux AI.
Mở rộng khả năng truy xuất các ứng dụng AI cấp doanh nghiệp
Danh mục Tiber của Intel cung cấp những giải pháp hỗ trợ doanh nghiệp trong việc đối phó với các thách thức liên quan đến khả năng truy cập, chi phí, độ phức tạp, bảo mật, tiết kiệm năng lượng và khả năng mở rộng trong các môi trường AI, điện toán đám mây và thiết bị biên. Intel Tiber™ Developer Cloud hiện tại đang cung cấp các hệ thống thử nghiệm của Intel Xeon 6 để doanh nghiệp có thể đánh giá và kiểm tra công nghệ. Hơn nữa, một số khách hàng sẽ được tiếp cận sớm với Intel Gaudi 3 để xác nhận các phương án triển khai mô hình AI, khi mà các cụm Gaudi 3 sẽ bắt đầu được triển khai trong quý tới cho quá trình sản xuất quy mô lớn.
Nhiều dịch vụ mới sẽ được giới thiệu, trong đó nổi bật là SeekrFlow, một nền tảng AI toàn diện từ Seekr nhằm phát triển các ứng dụng AI tin cậy. Các bản cập nhật phần mềm mới nhất bao gồm phiên bản mới nhất của Synpase, các notebook Jupyter đã được cài đặt PyTorch 2.4 và Intel oneAPI, cùng với các công cụ AI 202.2 sẽ cung cấp các tính năng tăng tốc AI mới và hỗ trợ cho các bộ vi xử lý Xeon 6.
Theo Intel.vn