Cisco và NVIDIA ra mắt Cisco Secure AI Factory giúp doanh nghiệp triển khai và bảo mật AI linh hoạt hơn
Kiến trúc Cisco Secure AI Factory do Cisco hợp tác cùng NVIDIA cho phép doanh nghiệp triển khai và vận hành trí tuệ nhân tạo (AI) ở quy mô lớn, từ trung tâm dữ liệu đến môi trường sản xuất tại nhà máy, đồng thời bảo đảm hiệu năng vận hành tối ưu và các tiêu chuẩn an toàn, bảo mật.
Hôm 16-3-2026, trong khuôn khổ sự kiện AI toàn cầu NVIDIA GTC 2026 tổ chức tại San Jose (bang California, Mỹ), Tập đoàn công nghệ Cisco đã công bố sự mở rộng đáng kể cho giải pháp Secure AI Factory kết hợp cùng NVIDIA, mang đến cho khách hàng một khuôn khổ triển khai AI trên toàn bộ hạ tầng – từ các trung tâm dữ liệu đến các môi trường biên nơi dữ liệu được tạo và các quyết định được đưa ra. Theo đó, các doanh nghiệp, nhà cung cấp neocloud (loại hình hạ tầng đám mây thế hệ mới, chuyên cung cấp GPU và tài nguyên tính toán hiệu năng cao cho các ứng dụng AI), sovereign cloud (đám mây chủ quyền) và các nhà cung cấp dịch vụ hiện có thể đưa AI từ giai đoạn thử nghiệm (pilot) sang triển khai ở quy mô sản xuất mà không cần phải ghép nối các hệ thống rời rạc. Giải pháp này giúp rút ngắn thời gian triển khai từ vài tháng xuống còn vài tuần, đồng thời tích hợp các yếu tố bảo mật ngay khi bắt đầu.
Ông Chuck Robbins, Chủ tịch kiêm Tổng Giám đốc Cisco, cho biết: “Phần lớn các tổ chức đều nhận thấy tiềm năng của AI trong việc chuyển đổi hoạt động kinh doanh, tuy nhiên vẫn đang tìm cách triển khai công nghệ này một cách an toàn và ở quy mô lớn. Thông qua hợp tác với NVIDIA, chúng tôi đang giải quyết thách thức này bằng một kiến trúc thiết lập mới với tiêu chuẩn cao hơn về hiệu năng, đồng thời giúp việc triển khai, vận hành và bảo mật hạ tầng AI trở nên đơn giản hơn.”
Bên cạnh đó, ông Jensen Huang, Nhà sáng lập kiêm Tổng Giám đốc NVIDIA, chia sẻ: “Các nhà máy AI (AI factory) đang thúc đẩy quá trình chuyển đổi trong mọi ngành công nghiệp, và yếu tố bảo mật cần được tích hợp ở mọi lớp – từ phần cứng đến phần mềm – nhằm bảo vệ dữ liệu, ứng dụng và hạ tầng. NVIDIA và Cisco đang cùng xây dựng nền tảng hạ tầng AI an toàn từ lõi đến biên (core-to-edge), giúp doanh nghiệp tự tin mở rộng năng lực AI.”

AI ở khắp mọi nơi, không chỉ nằm ở trung tâm dữ liệu
Hoạt động suy luận AI (AI inference) ngày càng diễn ra tại chính nơi dữ liệu được tạo ra và các quyết định cần được đưa ra ngay lập tức — từ khu vực điều trị trong bệnh viện cho đến việc phân tích video theo thời gian thực tại nhà máy, nhằm bảo đảm an toàn cho người lao động. Thực tế này đang định hình lại cách xây dựng hạ tầng công nghệ, khi các tác vụ suy luận AI cần được vận hành ngay tại chỗ — gần hơn với dữ liệu, thiết bị và thời điểm cần đưa ra quyết định.
- Thúc đẩy chuyển đổi tạibiêncủa doanh nghiệp: Việc hỗ trợ GPU NVIDIA RTX PRO 4500 Blackwell Server Edition trên các nền tảng Cisco UCS và Cisco Unified Edge giúp doanh nghiệp vận hành các khối lượng công việc AI quan trọng ngay tại biên, mà không cần hạ tầng phần cứng quy mô trung tâm dữ liệu tiêu tốn nhiều năng lượng và không gian.
- Thúc đẩy chuyển đổi tại biên của nhà cung cấp dịch vụ: Cisco công bố thiết kế tham chiếu Cisco AI Grid với NVIDIA, kết hợp sức mạnh của Cisco Mobility Services Platform (Nền tảng Dịch vụ Di động Cisco) cùng GPU NVIDIA RTX PRO Blackwell Series. Giải pháp này cho phép các nhà cung cấp dịch vụ tận dụng hạ tầng mạng hiện có để cung cấp các dịch vụ quản lý cho ứng dụng AI tại biên, với độ tin cậy đạt chuẩn nhà mạng và bảo đảm yêu cầu về chủ quyền dữ liệu.
Nâng cao hiệu năng và hiệu quả vận hành cho các nhà máy AI với quy mô lớn
Tiếp nối các hệ thống mới ra mắt gần đây, được trang bị Cisco Silicon One G300 cho kiến trúc scale-out (mở rộng theo chiều ngang) và P200 cho kiến trúc scale-across (mở rộng đa hệ thống/ kết nối nhiều cụm hạ tầng), Cisco tiếp tục nâng cao hiệu năng hạ tầng, đồng thời đơn giản hóa và tăng tốc quá trình triển khai.
- Hiệu năng thế hệ mới: Các bộ chuyển mạch tốc độ cao mới nhất của Cisco được thiết kế để đáp ứng những khối lượng công việc AI đòi hỏi cao nhất, bao gồm mẫu Cisco N9100 mới với băng thông 102,4Tbps, được trang bị chip chuyển mạch Ethernet NVIDIA Spectrum-6. Được bổ sung vào dòng N9100 800G, hiện thiết bị này đã được thương mại hóa rộng rãi, sử dụng chip chuyển mạch Ethernet NVIDIA Spectrum-4.
- Triển khai nhanh chóng: Cisco Nexus Hyperfabric, hiện là một phần của Cisco Nexus One, sẽ hỗ trợ các bộ chuyển mạch Cisco N9000 Series, bao gồm dòng N9100 sử dụng chip Ethernet NVIDIA Spectrum-X. Nhờ đó, các tổ chức có thể đơn giản hóa quá trình tích hợp hạ tầng vốn phức tạp với nhiều nhà cung cấp, đồng thời chuyển sang giải pháp toàn diện (full-stack), và rút ngắn thời gian triển khai và giảm gánh nặng vận hành cho đội ngũ CNTT.
Các khách hàng đang xây dựng nhà máy AI (AI Factory) quy mô lớn hiện có hai lộ trình triển khai đã được kiểm chứng để lựa chọn: một nhà máy AI dựa trên kiến trúc tham chiếu tuân thủ chương trình NVIDIA Cloud Partner (NCP), và một Cisco Cloud Reference Architecture được xây dựng trên nền tảng Cisco Silicon One, tuân theo cùng các nguyên tắc thiết kế.
Bảo mật được tích hợp ở mọi lớp
Trong bối cảnh các mô hình AI ngày càng trở thành tài sản có giá trị cao và các tác nhân AI ngày càng hoạt động tự chủ hơn, có khả năng thực hiện hành động, đưa ra quyết định và tương tác với các tác nhân khác, yếu tố bảo mật không thể chỉ được xem xét sau cùng. Cisco đang tích hợp các cơ chế bảo vệ ngay trong kiến trúc Secure AI Factory kết hợp cùng NVIDIA nhằm bảo vệ hệ thống trước cả các mối đe dọa từ bên ngoài lẫn những hành vi bất thường từ các AI agent, bao gồm:
- Bảo vệ hạ tầng AI: Mức độ an toàn của AI phụ thuộc trực tiếp vào phần cứng vận hành nó – và các tác nhân tấn công hiểu rất rõ điều này. Cisco Hybrid Mesh Firewall cung cấp các chính sách bảo mật nhất quán trên nhiều điểm thực thi khác nhau, từ các bộ chuyển mạch mạng, các tác nhân trên khối lượng công việc cho đến nhiều thành phần khác. Phạm vi bảo vệ rộng hơn đồng nghĩa với việc giảm thiểu các lỗ hổng mà kẻ tấn công có thể khai thác. Hiện nay, Cisco đang mở rộng giải pháp Cisco Hybrid Mesh Firewall nhằm cho phép thực thi chính sách bảo mật trên các DPU NVIDIA BlueField được tích hợp trong các máy chủ GPU NVIDIA kết nối với hạ tầng Cisco Nexus One. Nhờ đó, các mối đe dọa có thể được chặn ngay ở cấp độ máy chủ trước khi tiếp cận dữ liệu của tổ chức. Kết quả là các khối lượng công việc AI có thể được bảo vệ từ bên trong hệ thống, mà không ảnh hưởng đến hiệu năng vận hành.
- Bảo mật tác nhân AI: Cisco AI Defense cung cấp các năng lực bảo mật cho mô hình AI, kiểm thử lỗ hổng tự động, đồng thời bổ sung các cơ chế rào chắn bảo vệ, được thiết kế riêng cho các tác nhân AI hoạt động tại edge thông qua tích hợp với NVIDIA NeMo Guardrails, một thành phần của bộ phần mềm NVIDIA AI Enterprise. Điều này giúp các nhà phát triển AI và đội ngũ bảo mật chủ động ứng phó với các mối đe dọa mới, đồng thời duy trì sự tin cậy đối với các hệ thống AI. Trong bối cảnh sự triển khai AI ngày càng mang tính phân tán, các tác nhân tại các điểm edge thường tương tác với các tác nhân ở lõi hệ thống để hoàn thành tác vụ và thực thi quy trình. AI Defense, với vai trò là một phần của Cisco Secure AI Factory kết hợp với NVIDIA, nay được mở rộng nhằm bảo mật cả các tương tác agent-to-agent (A2A) này.
Cisco tăng cường bảo mật cho quá trình phát triển tác nhân AI trong doanh nghiệp
Tiếp nối cam kết tích hợp bảo mật vào mọi lớp của hạ tầng AI cũng như agentic workforce (lực lượng lao động tác nhân AI), Cisco cũng công bố Cisco AI Defense sẽ hỗ trợ và bảo mật các môi trường chạy OpenShell của NVIDIA – một phần của NVIDIA Agent Toolkit – thông qua việc bổ sung các cơ chế kiểm soát và rào chắn bảo vệ nhằm quản lý hoạt động của các tác nhân AI và các hành động do chúng thực hiện.
Thông qua việc liên tục giám sát và xác thực mọi công cụ cũng như hành động mà một tác nhân AI thực hiện, Cisco AI Defense giúp các doanh nghiệp có thể tự tin triển khai các tác nhân để quản lý các quy trình và tác vụ quan trọng mà vẫn đảm bảo an toàn bảo mật. Sự tích hợp này giúp thu hẹp khoảng cách giữa đổi mới công nghệ và rủi ro, cho phép các tổ chức tin tưởng rằng các hệ thống tự động của mình có thể vận hành ổn định và an toàn.
Chia sẻ từ các đối tác
- Ông Alex Nataros, Giám đốc Công nghệ (CTO), Cirrascale Cloud Services:“Là một đơn vị hàng đầu trong lĩnh vực giải pháp điện toán hiệu năng cao, Cirrascale rất hào hứng với việc Cisco giới thiệu dòng bộ chuyển mạch N9100 mới dựa trên NVIDIA Spectrum-6, qua đó mở rộng danh mục kiến trúc tham chiếu tuân thủ chương trình NCP của NVIDIA với dung lượng ấn tượng 102.4T và mặt phẳng quản lý hợp nhất (unified management plane) thông qua Nexus One. Những cải tiến này, cùng với sự linh hoạt của NX-OS và SONiC, cho phép chúng tôi mở rộng hạ tầng AI một cách liền mạch trong khi vẫn duy trì sự đơn giản trong vận hành. Việc ra mắt bộ chuyển mạch Spectrum-4 51.2T cũng giúp nâng cao khả năng cung cấp các giải pháp AI tiên tiến cho khách hàng của chúng tôi với hiệu năng và độ tin cậy vượt trội.”
- Ông Andrew Leece, Đồng sáng lập kiêm Giám đốc Vận hành (COO) của Sharon AI: “Sharon AI kỳ vọng vào việc triển khai dòng bộ chuyển mạch Cisco N9100, với dung lượng 102.4T cùng giải pháp Nexus Hyperfabric được quản lý trên nền tảng đám mây thông qua Nexus One. Việc tuân thủ kiến trúc tham chiếu NCP cùng với sự sẵn có của bộ chuyển mạch N9100 dựa trên Spectrum-4 với dung lượng 51.2T sẽ giúp chúng tôi mở rộng hạ tầng AI với hiệu năng và hiệu quả vượt trội. Bên cạnh đó, các bộ chuyển mạch N9300 dựa trên Silicon One G300 mang lại sự linh hoạt để đáp ứng các nhu cầu ngày càng thay đổi của khách hàng. Việc triển khai hạ tầng AI trọn gói thông qua Nexus One cũng giúp đơn giản hóa đáng kể hoạt động vận hành và rút ngắn thời gian hiện thực hóa giá trị cho các sáng kiến của chúng tôi.”
- Ông Jeff Fonke, Giám đốc Thực hành – Giải pháp và Kiến trúc Toàn cầu, World Wide Technology: “Khách hàng của World Wide Technology từ lâu đã tin tưởng Cisco trong lĩnh vực mạng doanh nghiệp, và danh mục giải pháp mạng AI mạnh mẽ của Cisco đang mở rộng niềm tin đó sang các khối lượng công việc AI. Danh mục này mang đến cho khách hàng nhiều lựa chọn và sự linh hoạt để xây dựng hạ tầng AI phù hợp, với các bộ chuyển mạch sử dụng Cisco Silicon One hoặc chip chuyển mạch Ethernet NVIDIA Spectrum-X, đạt hiệu năng lên tới 102,4Tbps, vận hành trên NX-OS hoặc SONiC, và được quản lý tập trung thông qua nền tảng Nexus One. Chúng tôi rất hào hứng với những bước tiến này, giúp mang lại khả năng mở rộng và hiệu năng cần thiết cho kỷ nguyên của các hệ thống tác nhân AI.”
- Bà Mary Johnston Turner, Lãnh đạo Toàn cầu về Hạ tầng và Dịch vụ Trung tâm Dữ liệu và Kỹ thuật số, IDC: “Khi các tổ chức dần vượt qua giai đoạn thử nghiệm AI, thách thức lớn nhất hiện nay không còn là ‘AI có thể làm được gì’ mà là ‘làm thế nào để vận hành AI một cách an toàn và ở quy mô lớn’. Ngành công nghệ đang bước vào một thời điểm then chốt, khi các khối lượng công việc AI — đặc biệt là suy luận theo thời gian thực — cần được đưa đến gần hơn với nguồn dữ liệu tại edge, nhưng vẫn phải tránh tạo ra các dữ liệu cô lập mới về bảo mật hay hạ tầng. Sự hợp tác giữa Cisco và NVIDIA được thiết kế nhằm mang đến cho khách hàng sự linh hoạt và nhiều lựa chọn hơn khi mở rộng hạ tầng AI, đồng thời giúp họ vượt qua những thách thức tích hợp phức tạp.”
T.H.W.
Có tham khảo thông tin từ nguồn do Cisco cung cấp.










