AMD Instinct MI300 Chi tiết xuất hiện, ra mắt trong 2 siêu máy tính Exaflop El Capitan

(Nguồn: Marco Chiappetta)

Bản năng MI300 của AMD đang được định hình là một con chip đáng kinh ngạc với các lõi CPU và GPU và một khối bộ nhớ tốc độ cao khổng lồ được kết hợp với nhau trên cùng một bộ xử lý, nhưng các chi tiết vẫn còn ít. Giờ đây, chúng tôi đã thu thập một số thông tin chi tiết mới từ bài thuyết trình về Siêu máy tính quốc tế (ISC) 2023, trong đó phác thảo siêu máy tính El Capitan hai exaflop sắp ra mắt sẽ được cung cấp bởi Instinct MI300. Chúng tôi cũng tìm thấy các chi tiết khác trong bài phát biểu quan trọng của CTO Mark Papermaster của AMD tại ITF World 2023, một hội nghị do gã khổng lồ nghiên cứu imec tổ chức (bạn có thể đọc cuộc phỏng vấn của chúng tôi với Papermaster tại đây).

Siêu máy tính El Capitan sẵn sàng trở thành siêu máy tính nhanh nhất thế giới khi nó hoạt động vào cuối năm 2023, chiếm vị trí dẫn đầu từ Frontier do AMD cung cấp. Instinct MI300 mạnh mẽ của AMD sẽ cung cấp năng lượng cho máy và các chi tiết mới bao gồm bản đồ cấu trúc liên kết cài đặt MI300, hình ảnh về phòng thí nghiệm Austin MI300 của AMD và hình ảnh về các cánh quạt mới sẽ được sử dụng trong siêu máy tính El Capitan. Chúng tôi cũng sẽ đề cập đến một số diễn biến mới khác xung quanh việc triển khai El Capitan.

Xin nhắc lại, Instinct MI300 là một APU trung tâm dữ liệu kết hợp tổng cộng 13 bộ ba, nhiều bộ ba trong số đó được xếp chồng lên nhau 3D, để tạo ra một gói chip duy nhất với 24 lõi CPU Zen 4 được hợp nhất với công cụ đồ họa CDNA 3 và tám bộ nhớ HBM3 với tổng dung lượng 128GB. Nhìn chung, con chip này nặng tới 146 tỷ bóng bán dẫn, khiến nó trở thành con chip lớn nhất mà AMD đưa vào sản xuất. Chín khuôn điện toán, là sự kết hợp giữa CPU và GPU 5nm, được xếp chồng lên nhau 3D trên bốn khuôn nền 6nm, là các bộ xen kẽ hoạt động xử lý bộ nhớ và lưu lượng I/O, cùng các chức năng khác.

Bài phát biểu quan trọng về ITF World của Papermaster tập trung vào mục tiêu “30×25” của AMD nhằm tăng hiệu quả sử dụng năng lượng lên gấp 30 lần vào năm 2025 và cách điện toán hiện đang bị kiểm soát bởi hiệu quả sử dụng năng lượng khi Định luật Moore chậm lại. Chìa khóa cho sáng kiến ​​đó là Instinct MI300 và phần lớn lợi ích của nó đến từ cấu trúc liên kết hệ thống được đơn giản hóa mà bạn thấy ở trên.

Như bạn có thể thấy trong trang trình bày đầu tiên, một nút được hỗ trợ bởi Instinct MI250 có các CPU và GPU riêng biệt, với một CPU EPYC duy nhất ở giữa để điều phối khối lượng công việc.

Ngược lại, Instinct MI300 chứa bộ xử lý EPYC Genoa thế hệ thứ tư 24 lõi tích hợp bên trong gói, do đó loại bỏ một CPU độc lập khỏi phương trình. Tuy nhiên, cấu trúc liên kết tổng thể vẫn giữ nguyên, loại bỏ CPU độc lập, cho phép cấu trúc liên kết tất cả với tất cả được kết nối đầy đủ với bốn phần tử. Loại kết nối này cho phép tất cả các bộ xử lý nói chuyện trực tiếp với nhau mà không cần CPU hoặc GPU khác đóng vai trò trung gian để chuyển tiếp dữ liệu đến các phần tử khác, do đó giảm độ trễ và độ biến thiên. Đó là một điểm khó khăn tiềm ẩn với cấu trúc liên kết MI250. Bản đồ cấu trúc liên kết MI300 cũng chỉ ra rằng mỗi chip có ba kết nối, giống như chúng ta đã thấy với MI250. Các trang trình bày của Papermaster cũng đề cập đến các bộ xen kẽ tích cực tạo thành khuôn đế là ‘khuôn đế vải vô cực thế hệ thứ tư.”

Như bạn có thể thấy trong phần còn lại của các slide này, MI300 đã đặt AMD trên con đường rõ ràng để vượt mục tiêu hiệu quả 30X25 đồng thời vượt xa xu hướng sức mạnh của ngành. Chúng tôi cũng đã đưa vào một số hình ảnh về silicon Instinct MI300 mà chúng tôi đã tận mắt nhìn thấy, nhưng bên dưới, chúng tôi sẽ xem MI300 trông như thế nào bên trong một lưỡi dao thực tế sẽ được lắp đặt ở El Capitan.

Bản năng AMD MI300 ở El Capitan

Tại ISC 2023, Bronis R. de Supinski, CTO của Phòng thí nghiệm quốc gia Lawrence Livermore (LLNL), đã nói về việc tích hợp APU Instinct MI300 vào siêu máy tính El Capitan. Cơ quan An ninh Hạt nhân Quốc gia (NNSA) sẽ sử dụng El Capitan để tiếp tục sử dụng công nghệ hạt nhân cho mục đích quân sự.

Như bạn có thể thấy trong hình ảnh đầu tiên trong album trên, Supinski đã cho thấy một lưỡi kiếm duy nhất cho hệ thống El Capitan. Lưỡi dao này do nhà cung cấp hệ thống HPE sản xuất, có bốn thẻ Instinct MI300 làm mát bằng chất lỏng trong khung máy 1U mỏng. Supinksi cũng đưa ra một hình ảnh về phòng thí nghiệm Austin của AMD, nơi họ đang làm việc với silicon MI300, do đó cho thấy rằng các chip này là có thật và đang được thử nghiệm — một điểm quan trọng cần được thực hiện khi xem xét một số sai lầm gần đây với các hệ thống do Intel cung cấp.

Supinksi thường gọi MI300 là “MI300A”, nhưng chúng tôi không chắc đó là mẫu tùy chỉnh cho El Capitan hay số sản phẩm chính thức hơn.

Supinski cho biết con chip này đi kèm với Infinity Cache nhưng không chỉ định dung lượng khả dụng. Supinski cũng nhiều lần trích dẫn tầm quan trọng của một tầng bộ nhớ, lưu ý cách không gian bộ nhớ hợp nhất đơn giản hóa việc lập trình, vì nó làm giảm sự phức tạp của việc di chuyển dữ liệu giữa các loại máy tính khác nhau và các nhóm bộ nhớ khác nhau.

Supinski lưu ý rằng MI300 có thể chạy ở một số chế độ khác nhau, nhưng chế độ chính bao gồm một miền bộ nhớ duy nhất và miền NUMA, do đó cung cấp bộ nhớ truy cập thống nhất cho tất cả các lõi CPU và GPU. Điểm nổi bật quan trọng là bộ nhớ kết hợp bộ nhớ cache giúp giảm chuyển động dữ liệu giữa CPU và GPU, vốn thường tiêu thụ nhiều năng lượng hơn so với bản thân quá trình tính toán, do đó giảm độ trễ và cải thiện hiệu suất cũng như hiệu quả sử dụng năng lượng. Supinksi cũng cho biết việc chuyển mã từ siêu máy tính Sierra sang El Capitan tương đối dễ dàng.

Phần còn lại của các slide của Supinski bao gồm thông tin mà AMD đã tiết lộ, bao gồm các dự đoán hiệu suất gấp 8 lần hiệu suất AI và 5 lần hiệu suất trên mỗi watt của MI250X.

HPE đang xây dựng hệ thống El Capitan dựa trên kiến ​​trúc Shasta và kết nối mạng Slingshot-11 của nó. Đây là cùng một nền tảng cung cấp năng lượng cho cả hai siêu máy tính exascale khác của DOE, Frontier, siêu máy tính nhanh nhất thế giới và Aurora thường bị trì hoãn được cung cấp bởi silicon của Intel.

NNSA đã phải xây dựng thêm cơ sở hạ tầng để vận hành đồng thời siêu máy tính Sierra và El Capitan. Công việc đó bao gồm tăng cường khả năng cung cấp điện dành riêng cho điện toán từ 45 MW lên 85 MW. Thêm 15 MW điện cho hệ thống làm mát đã được nâng cấp lên 28.000 tấn bằng cách bổ sung một tháp giải nhiệt 18.000 tấn mới. Điều đó mang lại cho địa điểm tổng công suất 100 MW, nhưng El Capitan dự kiến ​​sẽ tiêu thụ dưới 40 MW, mặc dù giá trị thực tế có thể vào khoảng 30 MW — con số cuối cùng sẽ không được biết cho đến khi triển khai.

El Capitan sẽ là Hệ thống Công nghệ Tiên tiến (ATS) đầu tiên sử dụng Phần mềm Hệ điều hành Tri-lab tùy chỉnh (TOSS) của NNSA, một ngăn xếp phần mềm đầy đủ được xây dựng trên RHEL.

Chương trình lưu trữ thỏ của El Capitan

LLNL đang sử dụng các hệ thống ‘EAS3’ nhỏ hơn để chứng minh phần mềm sẽ được triển khai trên El Capitan khi nó đi vào hoạt động vào cuối năm nay. LLNL đã thử nghiệm các mô-đun Rabbit mới sẽ lưu trữ rất nhiều ổ SSD để lưu trữ cục bộ gần nút. Ở trên, bạn có thể xem sơ đồ khối của các nút này nhưng lưu ý rằng chúng không sử dụng bộ tăng tốc MI300 — thay vào đó, chúng có bộ xử lý máy chủ EPYC tiêu chuẩn cho các tác vụ phân tích dữ liệu và điều phối lưu trữ. Các nút nhanh này dường như đóng vai trò là bộ đệm liên tục hấp thụ một lượng lớn dữ liệu đến một cách nhanh chóng, sau đó dữ liệu này sẽ được chuyển sang hệ thống lưu trữ số lượng lớn chậm hơn.

Dòng thời gian MI300 của AMD Instinct

Với sự phát triển tiếp tục theo một nhịp điệu có thể dự đoán được, rõ ràng là El Capitan đang được tiến hành để đi vào hoạt động vào cuối năm nay. MI300 tạo ra một con đường mới cho các dịch vụ điện toán hiệu suất cao của AMD, nhưng AMD cho chúng tôi biết những chip MI300 xuất sắc này sẽ đắt và tương đối hiếm — đây không phải là sản phẩm có số lượng lớn, vì vậy chúng sẽ không được triển khai rộng rãi như EPYC CPU trung tâm dữ liệu Genoa. Tuy nhiên, công nghệ sẽ lọc thành nhiều biến thể ở các yếu tố hình thức khác nhau.

Con chip này cũng sẽ cạnh tranh với Siêu chip Grace Hopper của Nvidia, là sự kết hợp giữa GPU Hopper và CPU Grace trên cùng một bo mạch. Những con chip này dự kiến ​​​​sẽ đến trong năm nay. Các CPU Grace dựa trên Neoverse hỗ trợ tập lệnh Arm v9 và các hệ thống đi kèm với hai chip được hợp nhất với công nghệ kết nối NVLink-C2C mới mang nhãn hiệu của Nvidia. Ngược lại, phương pháp của AMD được thiết kế để mang lại hiệu suất năng lượng và thông lượng vượt trội, vì việc kết hợp các thiết bị này thành một gói duy nhất thường cho phép thông lượng giữa các thiết bị cao hơn so với khi kết nối với hai thiết bị riêng biệt như Grace Hopper.

MI300 cũng được cho là để cạnh tranh với Falcon Shores của Intel, một con chip ban đầu được thiết kế để có một số ô tính toán khác nhau với lõi x86, lõi GPU và bộ nhớ trong nhiều cấu hình có thể. Intel gần đây đã trì hoãn chúng đến năm 2025 và xác định lại các chip chỉ có kiến ​​trúc GPU và AI — giờ đây chúng sẽ không có lõi CPU. Trên thực tế, điều đó khiến Intel không có đối thủ cạnh tranh trực tiếp cho Instinct MI300.

Với ngày bật nguồn El Capitan đang đến rất nhanh và danh tiếng của AMD về việc hoàn thành các siêu máy tính đúng hạn, chúng ta có thể mong đợi AMD sẽ sớm bắt đầu chia sẻ nhiều thông tin hơn về các APU Instinct Mi300 của mình. AMD sẽ tổ chức sự kiện phát trực tiếp Trung tâm dữ liệu thế hệ tiếp theo và Công nghệ AI của công ty vào ngày 13 tháng 6 và chúng tôi hy vọng sẽ tìm hiểu thêm ở đó. Chúng tôi chắc chắn sẽ mang đến cho bạn thông tin mới nhất về sự kiện đó khi nó đến.

Microsoft Build 2023 Đưa AI vào Mọi thứ, Thêm Chế độ Dev cho Windows 11

Hội nghị nhà phát triển Build của Microsoft là tất cả về AI. Triển lãm năm 2023, diễn ra cả trực tuyến và trực tiếp, được chú ý bởi AI, Bing Chat và các công cụ mới dành cho nhà phát triển sử dụng Windows, GitHub và Windows Terminal. Mọi thay đổi dù lớn hay nhỏ đều được trí tuệ nhân tạo chạm đến.

Có rất nhiều bước phát triển cho đám mây, chẳng hạn như AI trong Azure, cũng như một hệ thống phân tích mới mà Microsoft gọi là Fabric. Tuy nhiên, đây là những thông báo về AI mà Microsoft đang thực hiện tại Build mà bạn có nhiều khả năng sẽ sớm thấy xuất hiện trên các công cụ mà mình sử dụng:

Plugin trí tuệ nhân tạo

Tại Build, Microsoft cho biết họ sẽ sử dụng tiêu chuẩn plugin giống như các đối tác của họ tại OpenAI sử dụng cho ChatGPT. Điều này sẽ cho phép các nhà phát triển tạo các plugin có thể tương tác giữa ChatGPT, Bing Chat, Dynamics 365 Copilot và Microsoft 365 Copilot.

Microsoft cũng thông báo hỗ trợ các plugin mới cho Bing Chat. Các tiện ích bổ sung mới được công bố bao gồm các tiện ích bổ sung dành cho Instacart, Kayak, Redfin, Zillow, Klarna và nhiều tiện ích bổ sung khác, cùng với OpenTable và WolframAlpha. Giám đốc truyền thông Frank Shaw nói với báo chí rằng với tư cách là một phần của Microsoft 365 Copilot, sẽ có hơn 50 phần bổ trợ được công bố tại Build, bao gồm từ Atlassian, Adobe, Thomas Reuters và Mural, với “hàng nghìn” phần bổ trợ tính đến thời điểm Copilot đạt mức khả dụng rộng rãi .

Phi công phụ đến Edge, Windows 11

Microsoft đang đưa một số tính năng Copilot (hiện đang ở bản xem trước riêng tư trong MIcrosoft 365) lên trình duyệt Edge.

Microsoft 365 Copilot đã sử dụng các mô hình ngôn ngữ lớn để trả lời các yêu cầu từ các ứng dụng Microsoft 365 như Excel, Word, Teams, Outlook và PowerPoint. Giờ đây, Copilot cũng sẽ hoạt động với Edge, vì vậy mọi người sẽ có thể sử dụng AI kết hợp với trình duyệt web của họ. Có lẽ họ sẽ nhận được một tệp PDF mở trong trình duyệt và người dùng có thể yêu cầu Edge tóm tắt nó.

(Nguồn: Microsoft)

Windows 11 sẽ sử dụng Bing Chat cùng với các plugin của bên thứ ba và của chính Microsoft. Windows Copilot sẽ cho phép mọi người thay đổi cài đặt, mở ứng dụng hoặc thực hiện các hành động khác với AI, đồng thời trộn Bing Chat để trả lời các câu hỏi từ web. Nó sẽ có thể được đỗ sang một bên trong một bảng điều khiển để dễ dàng truy cập.

Tại Google I/O, Google đã thảo luận về các tính năng sẽ bí mật đánh dấu hình ảnh và video do AI tạo ra để chúng có thể được xác định như vậy. Tại Build, Microsoft đang làm theo với khả năng “xuất xứ phương tiện” được thêm vào Bing Image Creator và Microsoft Designer.

Công nghệ của Microsoft sẽ sử dụng các kỹ thuật mã hóa để “đánh dấu và ký nội dung do AI tạo ra với siêu dữ liệu về nguồn gốc của nó.” Công ty cho biết chữ ký này sẽ tuân theo các tiêu chuẩn do Liên minh xác thực và xác thực nội dung (C2PA) đặt ra, trong đó Microsoft là người đồng sáng lập. Microsoft cho biết họ sẽ bắt đầu bằng việc hỗ trợ “các định dạng hình ảnh và video chính” khi sáng kiến ​​này được triển khai trong “những tháng tới”.

Microsoft Store có một trung tâm AI

Cửa hàng Microsoft sẽ tràn ngập AI. Microsoft Store sẽ có một phần dành riêng cho các ứng dụng và trải nghiệm AI. Các nhà phát triển có thể gửi các ứng dụng tập trung vào AI của họ để được giới thiệu.

AI cũng đang đến để xem xét các bản tóm tắt. Các bài đánh giá trong cửa hàng ứng dụng sẽ được quét bởi AI, sẽ biên dịch chúng và tóm tắt lại. Ngoài ra, các nhà phát triển sẽ có thể lấp đầy danh sách của họ bằng các đề xuất từ ​​khóa do AI tạo để cải thiện tối ưu hóa công cụ tìm kiếm.

nhà phát triển

Ngoài các công cụ AI của mình, Microsoft cũng nhân đôi Windows như một công cụ dành cho các nhà phát triển với một tính năng mới có tên Dev Home. Có sẵn ở dạng xem trước, nó cho phép người dùng thiết lập máy, kết nối với GitHub và xây dựng bảng điều khiển cũng như các tiện ích mở rộng khác, cũng như sử dụng tiện ích GitHub và theo dõi hiệu suất của CPU và GPU.

(Nguồn: Microsoft)

Microsoft cũng đang thêm cấu hình WinGet vào Trình quản lý gói Windows, đảm nhiệm việc thiết lập và theo Microsoft, giảm thời gian thiết lập từ vài ngày xuống chỉ còn vài giờ. Tệp cấu hình của WinGet sẽ đảm bảo bạn có được phiên bản phù hợp của gói phần mềm và khung.

Ngoài ra còn có một ổ lưu trữ mới, Dev Drive, mà Mifcrosoft cho biết dựa trên Hệ thống tệp đàn hồi (ReFS) và cải thiện 30% thời gian xây dựng, một phần là do “chế độ hiệu suất” trong Windows Defender. Microsoft đã không nói nhiều về chế độ mới này, ngoài việc “chế độ hiệu suất mới này an toàn hơn cho khối lượng công việc của nhà phát triển hơn là loại trừ thư mục hoặc quy trình, cung cấp giải pháp cân bằng bảo mật với hiệu suất.

Nhưng tất nhiên, các công cụ dành cho nhà phát triển cũng đang được AI xử lý. Windows Terminal đang nhận hỗ trợ cho GitHub Copilot X và sẽ có thể sử dụng “trải nghiệm trò chuyện thử nghiệm” để sử dụng ngôn ngữ cả nội tuyến và trong trò chuyện để tìm hiểu thêm về lỗi, nhận đề xuất và thực hiện các tác vụ trong Terminal. Microsoft cho biết họ cũng muốn thêm AI kiểu GitHub Copilot vào các công cụ dành cho nhà phát triển khác, chẳng hạn như WinDBG.

Chúng tôi có thể sẽ tìm hiểu thêm về tất cả các tính năng này trong các bài phát biểu quan trọng của Microsoft Build. Giám đốc điều hành Satya Nadella sẽ bắt đầu chương trình hôm nay lúc 9:00 sáng theo giờ PT / 12 giờ trưa theo giờ ET.

SSD Adata Project NeonStorm có hệ thống làm mát bằng nước độc lập và hai quạt

Adata đã tiết lộ một SSD PCIe Gen5 NVMe mới chắc chắn nổi bật so với đám đông. Tất nhiên, hiện tại chúng ta đã quen với việc xây dựng các bộ làm mát hoạt động đi kèm với các thành phần lưu trữ này, nhưng Project NeonStorm của Adata chắc chắn là một trong những sản phẩm rực rỡ nhất mà chúng tôi từng thấy. Ổ SSD M.2 mang nhãn hiệu XPG mới này có giải pháp làm mát bằng nước độc lập được bắt vít ở trên cùng – với hai quạt nhỏ làm mát chất lỏng tuần hoàn và do đó giảm thiểu khả năng SSD bị tiết lưu.

Khi chúng tôi tiếp cận Computex, ngày càng có nhiều công ty chuẩn bị tài liệu tiếp thị của họ và chúng tôi đang thoáng thấy những món quà mà họ có trong cửa hàng. Thông cáo báo chí của Adata khá dài; như bạn có thể mong đợi, nó có một số giải pháp SSD mới (và những thứ khác). Các ổ đĩa mới đáng chú ý nhất là Project NeonStorm nổi bật và Legend 970, cả hai đều sử dụng giao diện PCIe Gen5 x4 để có tốc độ truyền nhanh nhất trên các nền tảng mới nhất của AMD và Intel.

(Nguồn: Adata)

Project NeonStorm bổ sung một hệ thống làm mát bằng chất lỏng khép kín hình hộp cho thiết bị lưu trữ hệ số dạng M.2 2280 của Adata, làm mát trực tiếp bộ điều khiển SSD và NAND. Trong các hình ảnh được cung cấp, bạn có thể thấy rằng thiết kế dường như có các ống đồng và có một bong bóng nhỏ gợi ý rằng cấu trúc chứa đầy chất lỏng.

Chúng tôi không thể nhìn thấy các quạt đôi được tích hợp trong thiết bị này, vì vậy nếu CotCowLand đúng, thì chúng phải được lắp ở phía xa của bộ làm mát, khuất tầm nhìn. Nhờ những quạt này, AiO của SSD này không yêu cầu kết nối với vòng làm mát hệ thống lớn hơn. Các con số về hiệu suất do Adata chia sẻ rất ấn tượng, với thiết bị mang nhãn hiệu XPG này được cho là cung cấp tốc độ đọc và ghi tuần tự lần lượt là 14.000 và 12.000 MB/s.

(Nguồn: Adata)

SSD Legend 970 Gen5 của Adata có thiết kế thông thường hơn. Tuy nhiên, chuyên gia về bộ nhớ và lưu trữ cho biết nó cải thiện trên thiết bị Legend thế hệ trước bằng cách sử dụng các lá nhôm ép đùn và quạt lớn hơn (có nghĩa là nhiều quạt?). Theo Adata, Legend 970 có tốc độ đọc và ghi tuần tự lần lượt là 10.000 và 10.000 MB/s.

Tại triển lãm Computex, Adata sẽ trưng bày hai ổ SSD PCIe Gen5 nói trên và nhiều bộ lưu trữ, bộ nhớ, khung máy, nguồn điện và máy tính xách tay khác. Nếu bạn đang ở Computex và cần tăng cường một chút năng lượng, bạn cũng có thể muốn xem thử kẹo cao su thể thao điện tử mới mang nhãn hiệu XPG và que sô cô la.

Thông số kỹ thuật đầy đủ của RX 7600 bị rò rỉ: Lên đến 2.625 MHz ở 165W, được liệt kê với giá hơn 300 đô la

Radeon RX 7600 sẽ được ra mắt vào ngày 25 tháng 5 để cạnh tranh với các card đồ họa tốt nhất. Phần lớn thông số kỹ thuật của card đồ họa RDNA 3 đã bị rò rỉ; tuy nhiên, hãng tin HD Tecnología của Argentina đã chia sẻ một bảng thông số kỹ thuật để giúp điền vào một số chỗ trống. Mặc dù các thông số kỹ thuật có vẻ chính xác, nhưng một số muối được khuyến nghị khi tiêu hóa thông tin.

Hiện tại, có khá nhiều bí mật mở rằng AMD sẽ sử dụng silicon Navi 33 để cung cấp năng lượng cho Radeon RX 7600. Navi 33, được sản xuất tại TSMC với nút quy trình 6nm, là cùng loại silicon bên trong một số card đồ họa RDNA 3 di động của AMD, chẳng hạn như Radeon RX 7600M hoặc Radeon RX 7700S. Ngoài ra, đó là một khuôn tương đối nhỏ với kích thước 204 mm², khiến nó nhỏ hơn 14% so với Navi 23 bên trong Radeon RX 6600. Tuy nhiên, Navi 33 chứa nhiều bóng bán dẫn hơn khoảng 20% ​​so với Navi 23.

Giống như người tiền nhiệm của nó, Radeon RX 7600 hỗ trợ chuẩn PCIe 4.0. Mặc dù có đầu nối PCIe 4.0 x16 trên card đồ họa, nhưng nó bị giới hạn ở x8 bằng điện. Các hình ảnh kết xuất bị rò rỉ đã tiết lộ Radeon RX 7600 tham chiếu với thiết kế nhỏ gọn có kích thước chưa đến 21cm, biến card đồ họa thành một lựa chọn chắc chắn cho các hệ thống nhỏ gọn.

Radeon RX 7600 sẽ tận dụng khuôn mẫu Navi 33 đầy đủ. Do đó, card đồ họa sẽ có 32 Đơn vị tính toán hoặc 2.048 Bộ xử lý luồng. Để so sánh, con số này cao hơn 14% so với Radeon RX 6600. Điều đó cũng bao gồm thêm 14% Bộ gia tốc tia trên Radeon RX 7600. RDNA 2 không có bộ gia tốc AI, vì vậy không có sự so sánh nào về khía cạnh đó.

Về tốc độ xung nhịp, Radeon RX 7600 tham chiếu có xung nhịp trò chơi 2.250 MHz và xung nhịp boost 2.625 MHz. Đó là mức tăng tương ứng 10% và 5% so với Radeon RX 6600. Hãy nhớ rằng các con số độ chính xác đơn (FP32) và độ chính xác một nửa (FP16) là những thước đo khủng khiếp để đo hiệu suất chơi trò chơi. Để có một ý tưởng chung về sự nâng cấp giữa các thế hệ, Radeon RX 7600 mang lại hiệu suất FP32 và FP16 cao hơn gần gấp 3 lần so với Radeon RX 6600.

Các điểm chuẩn chung bị rò rỉ đã chứng minh rằng Radeon RX 7600 nhanh hơn tới 34% so với Radeon RX 6600. Tuy nhiên, Radeon RX 7600 tương tự chỉ mang lại hiệu suất cao hơn từ 5% đến 16% so với Radeon RX 6650 XT. Radeon RX 7600 sẽ hoạt động tương tự như GeForce RTX 4060 về hiệu suất rasterization nhưng chậm hơn card đồ họa của Nvidia một vài bước khi nói đến tính năng dò tia. Tuy nhiên, chờ đợi đánh giá của chúng tôi để chứng thực các con số sẽ là tốt nhất.

Thông số kỹ thuật AMD Radeon RX 7600

Vuốt để cuộn theo chiều ngang
Card đồ họa Ngành kiến ​​​​trúc Quy trình sản xuất Số lượng bóng bán dẫn Kích thước chết Đơn vị tính toán Máy gia tốc tia Máy gia tốc AI Bộ xử lý luồng Đồng hồ trò chơi (MHz) Tăng xung nhịp (MHz) Đỉnh FP32 (TFLOPS) Đỉnh FP16 (TFLOPS) Tỷ lệ lấp đầy kết cấu cao nhất (GT/s) ROP Tốc độ lấp đầy điểm ảnh cao nhất (GP/s) Bộ nhớ đệm vô cực (MB) Ký ức Tốc độ bộ nhớ (Gbps) Giao diện bộ nhớ Băng thông bộ nhớ w/ Infinity Cache (GB/s) Giao diện PCIe Tổng công suất bảng (W)
Radeon RX 7600* hướng 33 6nm 13,3 tỷ 204 mm² 32 32 64 2.048 2.250 2.625 21,75 43,5 339,8 64 169,9 32 (Thế hệ thứ 2) 8GB GDDR6 18 128-bit 476.9 PCIe 4.0×8 165
Radeon RX6600 hướng 23 7nm 11,1 tỷ 237 mm² 28 28 không áp dụng 1.792 2.044 2.491 8,93 17,86 279 64 159,4 32 (Thế hệ thứ nhất) 8GB GDDR6 14 128-bit 412.9 PCIe 4.0×8 132

* Thông số kỹ thuật chưa được xác nhận.

Về bộ nhớ, Radeon RX 7600 duy trì việc sử dụng bộ nhớ GDDR6 và giao diện bộ nhớ 128 bit được sử dụng trên Radeon RX 6600. Tuy nhiên, AMD đã trang bị cho Radeon RX 7600 chip nhớ 18 Gbps thay vì biến thể 14 Gbps trên Radeon RX 6600. Radeon RX 7600 cho băng thông bộ nhớ lý thuyết tối đa lên tới 288 GB/giây, nhiều hơn 29% so với Radeon RX 6600.

Radeon RX 7600 và Radeon RX 6600 có cùng 32 MB bộ nhớ cache vô cực, nhưng bộ nhớ cache trên Radeon RX 7600 là thế hệ thứ 2 được cho là mang lại hiệu suất chơi game cao hơn. Do đó, băng thông bộ nhớ hiệu dụng trên Radeon RX 7600, khi tính đến Infinity Cache, chỉ cao hơn 16% so với Radeon RX 6600.

Radeon RX 7600 được cho là có 165W TBP, tăng 25% so với Radeon RX 6600. Đây là mức tăng đáng chú ý nhưng không ảnh hưởng đến thiết kế nguồn của card đồ họa. Một đầu nối nguồn PCIe 8 chân duy nhất là đủ cho nguồn điện bên ngoài, ngay cả trong trường hợp các kiểu máy xuất xưởng được ép xung nặng.

Rõ ràng, điều duy nhất chúng ta không biết về Radeon RX 7600 là MSRP. Canada Computers & Electronics trước đây đã liệt kê một vài card đồ họa Radeon Rx 7600 tùy chỉnh nhưng đã nhanh chóng gỡ bỏ danh sách. Tuy nhiên, nhà bán lẻ Canada đã có Gigabyte Radeon RX 76600 8GB Gaming OC, XFX Speedster SWFT 210 AMD Radeon RX 7600 Core và XFX Speedster QICK 308 AMD Radeon RX 7600 Black với giá lần lượt là 315 USD, 311 USD và 304 USD. Mặc dù giá phần cứng của Canada thường cao hơn, nhưng các thẻ giá rất gần với MSRP $299 của GeForce RTX 4060. Do đó, thật hợp lý khi AMD có thể ra mắt Radeon RX 7600 với cùng mức giá MSRP như đối thủ cạnh tranh của mình, trong khi các mẫu tùy chỉnh có một mức phí bảo hiểm nhỏ.

Thangs.com và Printables.com công bố dịch vụ đăng ký mô hình 3D

thangs.comPrintables.com, hai trang web chia sẻ tệp in 3D phổ biến, đã công bố khởi chạy các chương trình thành viên trả phí để hỗ trợ tài chính cho các nhà thiết kế. Mặc dù cả hai thông báo đều được đưa ra trên Twitter trong vòng một giờ, nhưng Thangs.com đã đánh bại Prusa Research bằng một chương trình thành viên và hơn một chục nhà thiết kế đã đăng ký.

(Nguồn: Phần cứng của Tom)

Printables vẫn đang giải quyết các vấn đề và sẽ khởi động chương trình của nó vào tháng Sáu. Nó đã công bố chương trình để nhận phản hồi vào phút cuối từ toàn bộ cộng đồng – bao gồm cả tên mà dịch vụ thành viên sẽ nhận được.

Hai công ty dường như đã đi đến cùng một kết luận một cách độc lập. Một: các nhà thiết kế xứng đáng có cơ hội kiếm sống bằng công việc họ yêu thích. Hai: Patreon rất tệ đối với máy in 3D. Patreon là dịch vụ hàng đầu dành cho những người sáng tạo muốn được người hâm mộ trả tiền trực tiếp. Nó cung cấp cho khách hàng một cách để thu tiền và đăng nội dung hoặc video bằng văn bản, nhưng không cung cấp dịch vụ lưu trữ tệp. Các nghệ sĩ 3D sử dụng Patreon buộc phải sử dụng dịch vụ của bên thứ 3 như Dropbox để phân phối các tệp mô hình của họ.

Ondřej Stříteský, giám đốc dự án tại Prusa Research, cho biết trong một bài viết trên blog “Một trong những nghệ sĩ trong cuộc gọi của chúng tôi đã đề cập rằng đôi khi họ mất nhiều thời gian hơn để xuất bản mô hình của mình và quản lý tất cả những điều này hơn là thực sự tạo mô hình cho nó.

Cả hai dịch vụ sẽ cho phép các nhà thiết kế cung cấp một số tầng trả phí, các mô hình chỉ đăng ký và một loạt các đặc quyền dành riêng cho thành viên. Nhà thiết kế có thể chọn chính xác những gì họ muốn cung cấp trên một trong hai trang web. Họ cũng có thể tiếp tục cung cấp các mô hình miễn phí.

Bản mô phỏng dịch vụ mới của Printables và ảnh chụp màn hình trang thành viên của CM Design trên Thangs. (Nguồn: Phần cứng của Tom)

Dennis DeMeyere, người đồng sáng lập Thangs và là Giám đốc Công nghệ và Sản phẩm, cho biết trong một cuộc phỏng vấn rằng dịch vụ của công ty ông cũng có thể bảo vệ khỏi hành vi trộm cắp tài sản trí tuệ. Ông giải thích rằng thuật toán tìm kiếm 3D của Thang có thể giám sát trang web và cảnh báo cho các nhà thiết kế nếu các mô hình của họ đang được tải lại lên các nền tảng khác. “Thuật toán 3D đó là bằng sáng chế cốt lõi của chúng tôi và rất khó để đánh lừa (mặc dù không có gì là hoàn hảo). Đó là nơi khả năng tìm kiếm của chúng tôi thực sự giúp ích cho các nhà thiết kế.”

Cả hai công ty đều đồng ý rằng khả năng khám phá là một trở ngại lớn đối với các nhà thiết kế 3D, những người có thể cần đăng liên tục lên mạng xã hội để đưa tác phẩm của họ đến với người hâm mộ. Printables và Thangs có kế hoạch làm cho việc chuyển đổi đó trở nên dễ dàng, vì những người ủng hộ đã có mặt trên các trang web đang tìm kiếm các tệp stl tuyệt vời để in.

Cách tiếp cận của Thang đối với khả năng khám phá đơn giản hơn, với cả mô hình đăng ký và miễn phí kết hợp với nhau trong tìm kiếm. Người dùng đã có tùy chọn để lọc ra các mô hình trả phí, vì Thangs tạo một mạng lưới trên toàn bộ trang web cho các mô hình 3D có sẵn.

Tìm kiếm trên Thangs hiển thị mô hình chỉ đăng ký của TheLightSPD. (Nguồn: Phần cứng của Tom)

Printables đang đi theo một hướng khác và muốn giữ cho tìm kiếm của họ không chứa các tệp mà bạn không thể truy cập. Bạn sẽ chỉ thấy các tệp trả phí nếu bạn đã là người đăng ký – những người không ủng hộ sẽ phải truy cập trang hồ sơ của nhà thiết kế để kiểm tra các tệp bị khóa.

Cả hai công ty đã công bố phí hành chính của họ, trong đó Thắng giảm 8% và Printables dự kiến ​​giảm 10%. Các khoản phí này không bao gồm phí giao dịch từ các dịch vụ thanh toán.

DeMeyere cho biết chương trình Thành viên mới phù hợp với phí của Patreon và rẻ hơn nhiều đối với các nhà thiết kế so với hầu hết các thị trường 3D. Nó cũng sẽ tiết kiệm thời gian của các nhà thiết kế. “Ví dụ: họ không cần phải quản lý thủ công tất cả các thành viên của mình mỗi ngày và sau đó trả tiền cho kế hoạch kinh doanh của Dropbox hoặc Google Drive. Vì vậy, cuối cùng họ tiết kiệm được chi phí đáng kể và thành thật mà nói, nếu bạn phỏng vấn hàng chục nhà thiết kế trên Patreon, họ sẽ nói với bạn rằng điểm khó khăn số một là thêm và xóa thủ công các thành viên khỏi Dropbox hoặc Google Drive của họ mỗi ngày. Đó là điều duy nhất mà mọi người đều phàn nàn. Với chúng tôi, chúng tôi có khả năng đó của Google Drive và nó được cung cấp miễn phí và hoàn toàn tự động.”

Cả Thangs và Printables sẽ tiếp tục tổ chức các cuộc thi dành cho người dùng trang web. Thangs tổ chức một cuộc thi tính điểm hàng tuần, nơi người chiến thắng được chọn dựa trên số lượt tải lên, tải xuống, lượt thích và người theo dõi duy nhất mà họ đã đạt được trong tuần. 25 người chiến thắng mỗi tuần nhận được thẻ quà tặng Matterhackers hoặc Jakes 3D, với giá trị từ $100 đến $30. Printables tổ chức các cuộc thi theo chủ đề cả hàng tuần và dài hạn hơn với những người chiến thắng do nhóm Prusa lựa chọn dựa trên thành tích và mức độ phổ biến. Những người chiến thắng cạnh tranh cho Prusamemeter, máy in và dây tóc. Prusameters là một phần của hệ thống phần thưởng Printables, nơi người dùng có thể kiếm được dây tóc và máy in miễn phí bằng cách đăng lên trang web với tư cách là nhà thiết kế và nhà sản xuất.

Nếu bạn quan tâm đến việc tham gia Chương trình thành viên Thangs.com, hãy truy cập trang Tư cách thành viên để tham gia danh sách chờ. Các nhà thiết kế mới đang được giới thiệu mỗi ngày. Nếu bạn muốn tham gia chương trình Closed Beta cho Printables, hãy gửi email info@prusa3d.com với “Truy cập sớm các bản in” trong dòng chủ đề và bao gồm một liên kết đến danh mục đầu tư của bạn. Prusa Research đang tìm kiếm một số nhà thiết kế để thử nghiệm nền tảng này trước khi ra mắt vào cuối tháng 6.

Cách quản lý và chia sẻ tệp trực tuyến bằng NordLocker

Với NordLocker, bạn có thể lưu trữ, quản lý và chia sẻ các tệp riêng lẻ. Tìm hiểu làm thế nào với hướng dẫn từng bước này.

Ảnh: Thapana_Studio/Adobe Stock

Nếu bạn đang tìm kiếm một nơi an toàn để lưu trữ, quản lý và chia sẻ tệp trên đám mây, thì một tùy chọn là NordLocker.

Với tài khoản NordLocker miễn phí hoặc trả phí, bạn có thể bảo mật bộ nhớ đám mây của mình bằng cả mật khẩu thông thường và mật khẩu chính. Sau khi tải lên các tệp bạn muốn lưu trữ, bạn có thể di chuyển, đổi tên, xóa và tải xuống bất kỳ tệp nào. Ngoài ra, giờ đây bạn có thể dễ dàng chia sẻ tệp với người khác bằng cách tạo liên kết đến tệp đó và gửi mã bảo mật. Đây là cách nó hoạt động.

Chuyển đến:

Kế hoạch định giá của NordLocker

NordLocker cung cấp một số gói cá nhân và doanh nghiệp với các mức giá và tính năng khác nhau.

  • Miễn phí: Gói miễn phí giới hạn bạn ở 3GB dung lượng lưu trữ trực tuyến và cung cấp hỗ trợ qua email.
  • Riêng tư: Có giá 7,99 đô la một tháng hoặc 35,88 đô la một năm, gói Cá nhân cung cấp cho bạn 500 GB dung lượng lưu trữ với sự hỗ trợ ưu tiên 24/7.
  • Điểm cộng cá nhân: Ở mức 19,99 đô la một tháng hoặc 83,88 đô la một năm, gói Personal Plus phân bổ 2TB dung lượng lưu trữ.
  • Việc kinh doanh: Với 12,99 đô la một tháng hoặc 107,88 đô la một năm, gói Doanh nghiệp cung cấp cho bạn 500 GB dung lượng lưu trữ với quyền kiểm soát truy cập thông qua gói quản trị viên và các tính năng khác liên quan đến doanh nghiệp.
  • Kinh doanh cộng: Với mức giá 18,99 đô la một tháng hoặc 179,88 đô la một năm, gói Business Plus cung cấp các tính năng giống như gói Business nhưng cấp cho bạn 2TB dung lượng lưu trữ trực tuyến.

Mỗi gói đều cung cấp mã hóa đầu cuối, vì vậy dữ liệu của bạn được bảo vệ khi truyền, khi lưu trữ và khi bạn chia sẻ dữ liệu đó. Các tệp được mã hóa có thể lớn tới 8GB.

NHÌN THẤY: Chính sách sử dụng phần mềm (TechRepublic Premium)

Cách đăng nhập hoặc đăng ký tài khoản NordLocker

Nếu bạn đã có tài khoản với NordLocker, hãy duyệt đến trang chủ, nhấp vào liên kết Đăng nhập ở trên cùng và đăng nhập bằng thông tin đăng nhập của bạn.

Nếu bạn chưa có tài khoản, hãy đến trang Đăng ký. Nhập địa chỉ email của bạn và trả lời email xác minh. Tiếp theo, hãy tạo mật khẩu tài khoản của bạn, rồi tạo một mật khẩu chính để bảo mật hơn nữa các tệp của bạn (Hình A).

Hình A

Đăng nhập vào tài khoản NordLocker của bạn bằng mật khẩu chính của bạn.

Cách tạo tủ khóa trong NordLocker

Nếu bạn đang sử dụng NordLocker lần đầu tiên, bạn sẽ cần tạo một tủ khóa để lưu trữ an toàn các tệp trực tuyến của mình. Bạn có thể tạo bao nhiêu tủ khóa tùy ý, mỗi tủ chứa các loại tệp khác nhau.

Nhấp vào nút để Tạo tủ khóa. Nhập tên cho tủ khóa, sau đó bấm Tạo (Hình B).

Hình B

Tạo tủ khóa mới trong NordLocker.

Thêm các tập tin

Tiếp theo, thêm các tệp bạn muốn lưu trữ trong tủ khóa của mình. Kéo và thả chúng từ PC của bạn vào cửa sổ khóa hoặc nhấp vào nút Tải tệp lên và chọn chúng từ File Explorer (Hình C).

Hình C

Thêm tệp vào tủ khóa trống trong NordLocker.

Tạo thư mục

Các tập tin tải lên được mã hóa tự động. Bạn có thể sắp xếp các tệp trong tủ khóa bằng cách tạo một thư mục.

Nhấp vào nút Thư mục mới ở trên cùng. Đặt tên cho thư mục của bạn, rồi bấm vào Tạo (Hình dung).

Hình dung

Tạo một thư mục mới trong NordLocker.

Cách quản lý tệp trong NordLocker

Nhấp vào một tập tin cụ thể để xem nó. Để quản lý tệp, hãy nhấp vào biểu tượng dấu chấm lửng của tệp đó và chọn một hành động từ menu thả xuống sau:

  • Di chuyển để di chuyển tệp vào một thư mục cụ thể.
  • Đổi tên để đặt tên mới cho tệp.
  • Xóa bỏ để loại bỏ các tập tin.
  • Tải xuống để tải một bản sao của tệp về máy tính của bạn.
  • Tải như ZIP để tải xuống bản sao nén của tệp (Hình E).

Hình E

Chọn từ nhiều tùy chọn khi quản lý một tệp trong NordLocker.

Bạn cũng có thể chạy một số lệnh nhất định trên nhiều tệp bằng cách chọn hai hoặc nhiều tệp và chọn một hành động từ thanh công cụ trên cùng:

  • Tải xuống hoặc Tải như ZIP để tải các tệp đã chọn xuống PC của bạn.
  • Di chuyển để di chuyển chúng vào một thư mục cụ thể.
  • Xóa bỏ để loại bỏ chúng (Hình F).

Hình F

Chọn nhiều tệp trong NordLocker để di chuyển, tải xuống hoặc xóa.

Cách chia sẻ tệp trong NordLocker

Một trong những tùy chọn mới nhất với NordLocker là khả năng chia sẻ bản sao của tệp với người khác. Đối với điều này, hãy nhấp vào biểu tượng dấu chấm lửng bên cạnh tệp bạn muốn chia sẻ và chọn Chia sẻ bản sao. Bấm vào nút Tạo liên kết để tạo liên kết truy cập tệp (Hình G).

Hình G

Nhấp vào Tạo liên kết để tạo liên kết có thể chia sẻ tới các tệp trong NordLocker.

Đáp lại, NordLocker hiển thị một liên kết đến tệp cũng như mã bảo mật cần thiết để truy cập tệp.

Nhấp vào nút Sao chép để sao chép liên kết, sau đó, thực hiện tương tự đối với mã bảo mật (Hình H). Tiếp theo, bạn sẽ cần gửi liên kết đến tệp và mã bảo mật cho bất kỳ ai mà bạn muốn chia sẻ tệp.

Hình H

Sao chép liên kết tệp NordLocker và mã bảo mật.

NordLocker khuyên bạn nên sử dụng các phương pháp riêng biệt để chia sẻ liên kết tệp và mã bảo mật. Lưu ý rằng những người bạn muốn truy cập tệp không cần tài khoản NordLocker của riêng họ.

Sau khi truy cập vào liên kết, người nhận hoặc những người nhận của bạn phải nhập mã bảo mật để có quyền truy cập rồi nhấp vào Tiếp tục (hình tôi).

hình tôi

Nhập mã bảo mật để xem tệp NordLocker.

Tên của tệp xuất hiện trong NordLocker nơi người đó có thể xem trực tuyến hoặc tải xuống thiết bị của họ. Theo mặc định, liên kết sẽ hết hạn sau hai tuần.

Intel công bố FPGA Agilex 7 M-Series có hỗ trợ R-Tile, PCIe 5.0 và CXL 2.0

Intel hôm nay đã công bố dòng sản phẩm FPGA (FPGA) thuộc dòng Agilex 7 M-Series, tăng gấp đôi so với nút chế tạo SuperFin 10nm được hồi sinh. Trích dẫn nhu cầu thị trường ngày càng tăng đối với các giải pháp FPGA với tư cách là bộ đồng xử lý cho Mạng, Trung tâm dữ liệu, Điện toán hiệu năng cao (HPC) Điện toán đám mây và các ứng dụng khác, Intel hứa hẹn sẽ tăng tính linh hoạt (chủ yếu là do bản chất có thể lập trình vốn có của FPGA) và khả năng mở rộng quy mô cao hơn bao giờ hết. FPGA Agilex 7 của Intel giới thiệu một chiplet mới như là một phần của kiến ​​trúc đa khuôn không đồng nhất của họ, R-Tile, chịu trách nhiệm cung cấp các công nghệ kết nối mới nhất – cụ thể là hỗ trợ PCIe 5.0 và CXL – trong các khối IP được mã hóa cứng, được tăng tốc phần cứng .

FPGA Agilex 7 của Intel được chế tạo trên công nghệ SuperFin 10 nm của công ty. Một số khối IP khác nhau được đặt trên đỉnh một bộ xen kẽ và được kết nối thông qua EMIB của Intel. R-Tile mới và các khả năng PCIe 5.0 và CXL 2.0 của nó hoàn toàn khép kín trong một chiplet duy nhất. (Nguồn: Tập đoàn Intel)

Chiplet R-Tile không đồng nhất mới là ngôi sao của màn trình diễn của Intel, cho phép nó khẳng định danh hiệu dòng FPGA duy nhất có chứng nhận cho tốc độ dữ liệu PCI-SIG 5.0 x16 đầy đủ. Xilinx, hiện đã được sáp nhập vào AMD, sẽ là một ví dụ về một nhà phát triển FPGA hàng đầu khác, do đó, có cảm giác về một cuộc đua giành chiến thắng cho Intel ở đây.

Thật thú vị, Intel dường như đang tăng gấp đôi sự tách biệt giữa các sản phẩm FPGA và CPU. Có lẽ đó là kết quả của quá trình xâm nhập tích hợp sớm hơn, trong đó chỉ còn lại những câu chuyện ma silicon. AMD dường như tự tin hơn nhiều rằng họ đã phá được vụ án: công ty dường như đang tìm cách kết hợp các khả năng của FPGA vào các CPU EPYC của công ty vào đầu năm nay. Bây giờ, điều đó không củng cố sự khác biệt giữa cả hai công ty – AMD cũng có thể đang xem xét tích hợp giống như chiplet, cho dù theo chiều dọc thông qua xếp chồng 3D hoặc bằng cách kết hợp IP dành riêng cho FGPA trong một chip riêng biệt.

Ý tưởng chung về FPGA là tính linh hoạt vốn có của chúng, cho phép các nhà phát triển nhanh chóng lặp lại các khối xử lý và sắp xếp mạch để điều chỉnh FPGA cho các khối lượng công việc cụ thể hiện có. Là phần cứng chuyên dụng hơn, FPGA có thể được sử dụng để tăng tốc khối lượng công việc không phụ thuộc vào CPU, do đó giải phóng các tài nguyên CPU có giá trị cho các tác vụ cụ thể của chúng (chẳng hạn như tạo ra VM trong cài đặt dựa trên đám mây) thay vì khai thác mức năng lượng thấp hơn của chúng hiệu quả (chi phí cho khả năng xử lý tổng quát của họ).

Về cơ bản, R-Tile của Intel mang các khối IP được tăng tốc phần cứng chịu trách nhiệm xử lý các giao thức PCIe 5.0 và CXL 1.1/2.0 vào dòng FPGA Agilex 7 của mình. Điều đó sẽ mang lại những cải tiến đáng kể về hiệu suất năng lượng và thông lượng dữ liệu, đây là những yếu tố quan trọng để giảm Tổng chi phí sở hữu (TCO) cho các cài đặt hiệu suất cao. Nhưng với những lựa chọn này, luôn có sự đánh đổi: Intel đang bổ sung thêm một khối phần cứng có chức năng cố định khác vào một sản phẩm mà mong muốn nằm ở chỗ nó có thể lập trình được. có thể lập trình Rốt cuộc, khu vực chết là câu thần chú của người mua FPGA.

Nó cũng đề cập rằng với tư cách là một sản phẩm, R-Tile đang nói cụ thể “Tôi ở đây để giảm tải cho CPU của bạn đồng thời mang lại hiệu suất cao hơn”. Nhưng một câu trả lời khác cho nhu cầu đó không phải là chuyển các chức năng của CPU sang FPGA; nó chỉ đơn thuần là tăng số lượng tài nguyên CPU có sẵn. Và điều đó có thể được thực hiện với nhiều CPU hơn (điều này có thể hợp lý đối với một số trình cài đặt) hoặc các lõi CPU bổ sung. Rốt cuộc, Agilex 7 M-Series của Intel được bán riêng cho Xeons có thể mở rộng thế hệ thứ 4 của Intel, và đó không phải là những vị vua số lượng lõi dưới bất kỳ hình thức nào.

Intel đặt cược rằng những câu hỏi trên đều có câu trả lời và hãng biết câu trả lời: đó là lý do tại sao hãng giới thiệu Agilex 7. Câu trả lời của Intel là người tiêu dùng muốn loại bỏ chi phí hoạt động của CPU bằng cách chuyển nó sang một gói FPGA. Họ muốn hiệu suất/watt tốt nhất có thể (một trong những yếu tố đóng góp nhiều nhất vào chi phí TCO cao), vì vậy họ sẽ chuyển mọi thứ đến nơi nhanh nhất. May mắn thay, động thái này mang lại lợi ích cho Intel theo những cách khác. Đối với công ty, đó là vấn đề về hiệu quả của chính nó – và như vậy, là vấn đề về chi phí.

Đó là nơi mà cầu kết nối nhiều khuôn nhúng (EMIB) của Intel thực sự tỏa sáng. Với vai trò là “keo dính” giữ các khối xử lý khác nhau lại với nhau, EMIB cho phép Intel phân tách thêm các khối IP ở cấp độ sản xuất, tăng hiệu suất khuôn và giảm tổng chi phí trên mỗi tấm wafer (và kết quả là chi phí trên mỗi chip).

Đối với người tiêu dùng, về mặt lý thuyết, nó cũng giúp giảm chi phí: Giấc mơ của Intel (và của ngành) là có thể kết hợp và kết hợp các khối IP phần cứng khác nhau (từ cùng một nhà cung cấp hoặc thậm chí nhiều nhà cung cấp và quy trình sản xuất), nghĩa là khách hàng chỉ cần trả tiền đối với silicon mà họ sẽ thực sự sử dụng, với thông số kỹ thuật mà họ sẽ thực sự sử dụng. Theo một nghĩa nào đó, điều này sẽ biến mọi con chip thành một FPGA.

Với tất cả những điều đó, có thể Agilex 7 với R-Tile ngày nay là một sản phẩm FPGA mới cũng như là một mặt hàng chủ lực mới trên danh mục Dịch vụ đúc của Intel (IFS). Dù bằng cách nào, nó cũng đưa Intel đi theo hướng mà họ muốn – và cần – đi. Và đó chỉ là kinh doanh tốt.

Cyberpunk 2077 có thể thêm Bộ khử nhiễu Nvidia mới để cải thiện chất lượng hình ảnh

@CapFrameX trên Twitter báo cáo rằng Cyberpunk 2077 có thể sẽ bổ sung hỗ trợ cho bộ nhớ đệm bức xạ thần kinh thời gian thực của Nvidia cho công nghệ theo dõi đường dẫn (NRC) trong tương lai gần. Điều này sẽ cải thiện đáng kể chất lượng hình ảnh của tính năng tăng tốc RT mới của Cyberpunk 2077 và giảm nhiễu trong một số hiệu ứng Truy tìm đường dẫn của trò chơi.

NRC là một công nghệ tương đối mới của Nvidia đã được công bố vào năm 2021. Khía cạnh quan trọng của công nghệ này là nó được cung cấp bởi một mạng nơ-ron để ước tính trường bức xạ trong một đường dẫn theo dõi đường dẫn. Theo Nvidia, công nghệ AI này thích ứng với các cảnh đang diễn ra với một phương pháp đào tạo hoạt động trong quá trình kết xuất.

AI có thể xử lý các cảnh hoàn toàn động và không đưa ra các phỏng đoán có căn cứ về ánh sáng, hình học hoặc vật liệu của cảnh. Mô hình AI cũng có khả năng tự đào tạo và có thể mô phỏng quá trình vận chuyển số lần thoát vô hạn sau khi đào tạo chỉ với một vài cập nhật số lần thoát.

Để chứng minh, Nvidia đã chia sẻ một video và một hình ảnh trong bản trình bày gốc trình bày chi tiết các ưu điểm của NRC so với theo dõi đường dẫn thông thường không có bộ lọc khử nhiễu và ReSTIR (một loại bộ khử nhiễu khác). Ở cả hai định dạng phương tiện, NRC vượt trội so với ReSTIR ở mức rất đáng chú ý và cung cấp mức chất lượng hình ảnh rất gần với hình ảnh tham chiếu.

(Nguồn: Nvidia)

Đáng buồn thay, việc bổ sung NRC đảm bảo chi phí hiệu suất xấp xỉ 2,6 mili giây ở 1080p, theo Nvidia. Do đó, đây không phải là bản nâng cấp chất lượng miễn phí so với tính năng theo dõi đường dẫn thuần túy không có bộ khử nhiễu. Tuy nhiên, Nvidia chứng minh rằng NRC nhanh hơn ReSTIR khoảng 9% đến 23%, vì vậy sẽ có lợi thế hơn.

Chúng tôi không biết NRC sẽ hoạt động như thế nào trong Cyberpunk 2077, nhưng chúng tôi có thể đánh giá một cách an toàn rằng nó sẽ cải thiện đáng kể chất lượng hình ảnh tổng thể của trò chơi trong chế độ RT Overdrive và làm cho một số hiệu ứng ánh sáng rõ ràng hơn với ít hiện vật hơn. Ngoài ra, nếu Cyberpunk 2077 hiện đang sử dụng ReSTIR làm bộ khử nhiễu hiện tại, chúng ta cũng có thể mong đợi tốc độ khung hình được cải thiện tốt nếu trò chơi chuyển sang NRC.

Không xì hơi xung quanh: Thương mại thuốc do AI tạo ra gây ra tai họa đầy hơi

Một vài tuần trước, chúng tôi đã báo cáo về quảng cáo bánh pizza Pepperoni Hugspot vui nhộn được tạo bằng các công cụ AI, bao gồm ChatGPT cho tập lệnh, Runway ML Gen-2 cho các video clip và ElevenLabs cho phần lồng tiếng. Giờ đây, tác giả, người nắm giữ Pizza Later, đã trở lại với quảng cáo cho một loại thuốc hư cấu có tên là FlatuLess, đúng như tên gọi của nó.

Như với quảng cáo cuối cùng của họ, Pizza Later đã tạo ra các yếu tố khác nhau trong các chương trình khác nhau và sử dụng Adobe After Effects để ghép chúng lại với nhau. Ngoài ra, người sáng tạo đã cho chúng tôi biết qua email rằng họ đã sử dụng bộ lọc Red Giant VHS để mang lại cho video một phong cách cổ điển.

Đoạn quảng cáo giới thiệu cho người xem về FlatuLess, “một loại thuốc đặc biệt không có xì hơi.” Cùng với hình ảnh những người do AI tạo ra đang sống cuộc sống tốt nhất của họ (có lẽ là sau khi dùng thuốc), chúng ta được thưởng thức một bản nhạc piano du dương và lời tường thuật được viết bằng ngữ pháp rất khó hiểu, nghe như được dịch từ một ngôn ngữ khác sang tiếng Anh.

Tuy nhiên, nếu bạn đã từng sử dụng ChatGPT, Google Bard hoặc bất kỳ chatbot AI nào khác, bạn có thể thắc mắc, “Tại sao bot lại viết bằng tiếng Anh hỏng?” Rốt cuộc, hầu hết các chatbot đều thực sự giỏi trong việc xây dựng các câu ngữ pháp. Theo mặc định, họ sẽ không bao giờ đưa ra những thứ như “FlatuLess hoạt động bên trong cơ thể bạn, làm giảm khí và mang lại sự tự tin tốt cho cuộc sống.”

Tôi đã hỏi Pizza Later về những cấu trúc khó hiểu và họ đã giới thiệu chúng tôi với một người bạn có biệt danh DakisDead và đã giúp đỡ bằng cách sử dụng Google Bard để viết kịch bản. Dak nói với chúng tôi rằng anh ấy đã cố tình thiết kế các lời nhắc để có được những loại công trình này.

Dak cho biết: “AI rất giỏi trong việc tạo ra những lượt duyệt ban đầu bằng những lời nhắc như ‘tiếng Anh hỏng’ hoặc ‘thêm lỗi ngữ pháp'”. “Sau khi giảm, một lời nhắc như ‘bao gồm các mạo từ xác định’ sẽ khiến đầu ra có thể đọc được.”

Dak cũng nói với chúng tôi rằng phải mất nhiều lần thử mới có được đầu ra từ chatbot, điều này thực sự rất buồn cười. Ví dụ: ở cuối video, kịch bản đề cập đến một bác sĩ là “nhà ảo thuật y học”. Dak cho biết anh ấy đã sử dụng một lời nhắc như “đề xuất 10 từ thay thế khác nhau cho từ ‘bác sĩ’, khiến chúng trở nên ngớ ngẩn” để có được kết quả đó.

Giống như trong quảng cáo Pepperoni Hugspot ban đầu, những người xuất hiện trong quảng cáo FlatuLess trông giống như họ sống ở trung tâm của thung lũng kỳ lạ. Nhiều người trong số họ có đôi mắt chết lúng túng hoặc các bộ phận cơ thể không phù hợp với thực tế theo một cách nào đó.

(Nguồn: Tương lai)

Mặc dù chúng tôi đã có một tràng cười sảng khoái khi xem video này (và hy vọng bạn cũng vậy), nhưng có một số vấn đề nghiêm trọng cần rút ra liên quan đến tình trạng hiện tại của AI. Rõ ràng là AI rất giỏi trong việc tạo ra âm nhạc và giọng nói đầy cảm xúc của con người. Thật khó để nói kịch bản có “hay” hay không, bởi vì những người sáng tạo đã cố tình thiết kế nó nghe thật gượng gạo.

Tuy nhiên, một lĩnh vực mà AI không thể đánh lừa được ai là trong việc tạo văn bản thành video được sử dụng cho phần trực quan của quảng cáo. Ví dụ: Pizza Later đã sử dụng Runway ML Gen-2, cực kỳ ấn tượng nhưng tạo ra các clip chỉ dài 4 hoặc 5 giây và có những vấn đề khó xử, chẳng hạn như các vật thể trộn lẫn vào nhau hoặc mắt và miệng dị dạng trên người. Gần đây, chúng tôi đã thử nghiệm Runway ML Gen-2 và rất hào hứng với tiềm năng của nó, nhưng nó sẽ không sớm khiến các diễn viên thực thụ mất việc.

Ví dụ, trong khung hình này, có vẻ như những người được cho là đang đốt lửa trại đang tự đốt lửa.

(Nguồn: Tương lai)

Cũng cần lưu ý rằng Pizza Later và Dak đã phải làm rất nhiều công việc của con người để thực hiện quảng cáo. Nó yêu cầu tạo nội dung và tập lệnh từ năm chương trình AI khác nhau và ghép tất cả các phần đó lại với nhau. Không đời nào họ có được thứ gì đó có độ dài và chất lượng như vậy bằng cách yêu cầu một bot “Hãy quảng cáo hài hước cho một loại thuốc xì hơi.”

Cánh tay robot được điều khiển bằng chuyển động cơ bắp thông qua tín hiệu EMG

Nếu bạn đã mơ về một tương lai tối thượng được vận hành bằng máy móc với những người máy khổng lồ và bộ đồ máy móc do cơ thể con người điều khiển, thì bạn chắc chắn sẽ rất hào hứng với dự án này từ Ultimate Robots. Nhóm đã tạo ra một Cánh tay robot có thể được điều khiển bằng cách sử dụng chuyển động của cơ nhờ PCB cảm biến tín hiệu EMG của chúng, uMyo. Nó cũng tận dụng một trong những bo mạch vi điện tử yêu thích của chúng tôi — Arduino.

Dự án này được thiết kế như một minh chứng đơn giản về những gì mô-đun cảm biến uMyo có thể đạt được. Nó được trang bị ba PCB uMyo riêng biệt để phát hiện chuyển động từ người đeo một cách chính xác. Mỗi ngón tay trên cánh tay robot có hai gân. Chúng được kết nối với một bánh xe được vận hành bởi một servo. Servo xác định xem có cuộn hoặc mở các ngón tay hay không.

Viên ngọc sáng của sáng tạo này là cảm biến uMyo. Đó là một thiết bị mã nguồn mở được thiết kế để đeo cho người dùng nhập liệu. Nó có thể truyền dữ liệu không dây, vì vậy người đeo không nên lo lắng về việc dây cáp buộc họ vào thiết bị đầu ra. Theo Ultimate Robotics, uMyo có thể phát hiện tín hiệu từ các nhóm cơ khác nhau, bao gồm cánh tay, như trong dự án này, chân, cơ mặt và cơ thân.

Hai cảm biến uMyo được đặt ở khuỷu tay để theo dõi tín hiệu cơ ngón tay. Cảm biến thứ ba được sử dụng ở cổ tay để theo dõi chuyển động của cơ ngón tay cái. Các tín hiệu được truyền đến Arduino, sử dụng mô-đun nRF24 để nhận tín hiệu không dây. Sau đó, Arduino xử lý đầu vào để gửi lệnh đến các servo thông qua bảng điều khiển PCA9685, khiến cánh tay robot di chuyển theo phản ứng.

Không chỉ cảm biến uMyo là mã nguồn mở mà phần mềm được sử dụng trong dự án cánh tay rô-bốt này cũng vậy. Nhóm đã rất tử tế khi chia sẻ mọi thứ trên GitHub cho bất kỳ ai quan tâm đến việc tìm hiểu mã nguồn.

Để xem xét kỹ hơn về dự án này, hãy xem phân tích uMyo chính thức do Ultimate Robotics tải lên tại Hackaday. Nhóm đã chia sẻ rất nhiều thông tin chi tiết về cách thức hoạt động của nó và những gì đi vào PCB. Bạn có thể tìm thêm thông tin về cánh tay robot trên Reddit và xem nó hoạt động qua YouTube.

Dell mang đến nhiều sản phẩm đám mây hơn dưới sự bảo trợ của APEX

APEX Navigator cho Kubernetes, v.v., tham gia vào dòng dịch vụ phần mềm kết hợp và đa đám mây của Dell.

Hình ảnh: mrinal/Adobe Stock

Dell đã cấu hình lại một số dịch vụ đa đám mây và kết hợp của mình dưới tên thương hiệu APEX như một phần của bộ thông báo tại Dell Technologies World vào ngày 22 tháng 5. Sự thay đổi này nhằm đáp ứng nhu cầu của khách hàng đối với dịch vụ lưu trữ kết hợp và đa đám mây quy mô lớn, Sam Grocott cho biết, phó chủ tịch cấp cao phụ trách tiếp thị sản phẩm của Dell Technologies, trong buổi họp báo trước buổi họp báo cho sự kiện này.

Chuck Whitten, đồng giám đốc điều hành của Dell Technologies, cho biết: “Giờ đây, Dell APEX mở rộng phạm vi danh mục đầu tư của chúng tôi để mang đến cho khách hàng nhiều tự do hơn về công nghệ để hỗ trợ các doanh nghiệp theo nhu cầu của họ.

Chuyển đến:

Từ đám mây đến mặt đất và ngược lại

APEX SaaS hiện có của Dell đã chuyển sang bao gồm một số dịch vụ mới để hỗ trợ lưu trữ đám mây từ trung tâm dữ liệu đến biên. Các dịch vụ đa đám mây trước đây được gọi là Dự án Alpine hiện sẽ hoạt động dưới cùng một biểu ngữ với Bộ lưu trữ APEX cho Đám mây công cộng. Caitlin Gordon, phó chủ tịch quản lý dự án của Dell Technologies cho biết, điều này mang khối lưu trữ tệp và khối được xác định bằng phần mềm của Dell lên đám mây công cộng.

Đăng ký mới giải quyết các dịch vụ đám mây từ ba hướng:

  • Mặt đất lên mâyhoặc đưa phần mềm khách hàng đang sử dụng trong trung tâm dữ liệu của họ lên đám mây công cộng
  • đám mây xuống đấthoặc đưa các mô hình vận hành đám mây từ các nhà cung cấp khác nhau vào trung tâm dữ liệu
  • APEX dưới dạng dịch vụ và thay đổi ưu đãi đăng ký

Các bổ sung hoặc cải tiến cho danh mục sản phẩm APEX của Dell bao gồm:

  • Nền tảng đám mây Dell APEX
  • Bộ lưu trữ Dell APEX cho Đám mây công cộng
  • Dell APEX Navigator dành cho Lưu trữ Multicloud và Kubernetes
  • Máy tính Dell APEX
  • Dell APEX PC-as-a-Service
  • Dell Technologies và Databricks cộng tác trên bộ lưu trữ đối tượng Dell với Nền tảng Lakehouse của Databricks

Về cơ bản, các dịch vụ lưu trữ bảo vệ dữ liệu của Dell đang được chuyển sang dòng sản phẩm này và được tăng cường với một số khả năng tương tác.

Dell cho biết các nền tảng đám mây APEX sẽ mang lại những lợi ích sau:

  • Mở rộng và tối ưu hóa hệ sinh thái đám mây tại chỗ của khách hàng.
  • Kết hợp các nền tảng chung và tự động hóa.
  • Cung cấp trải nghiệm nhà phát triển và vận hành đơn giản, quen thuộc, phù hợp với các nhóm nhỏ hoặc không chuyên biệt.
  • Mở rộng dữ liệu và ứng dụng trên các môi trường nhiều đám mây.
  • Cung cấp sự tuân thủ và quản trị nhất quán.

APEX cung cấp cho khách hàng muốn chuyển sang đám mây một sự lựa chọn của các nhà cung cấp đám mây. Chẳng hạn, khách hàng “từ mặt đất đến đám mây” sử dụng Nền tảng đám mây APEX hiện có thể chọn giữa Microsoft Azure, Red Hat OpenShift và VMware.

Dave McGraw, phó chủ tịch kỹ thuật giải pháp đối tác, văn phòng của CTO, VMware cho biết: “VMware và Dell Technologies có một hồ sơ theo dõi về các giải pháp và đổi mới được thiết kế chung kéo dài gần hai thập kỷ. “Việc giới thiệu Nền tảng đám mây Dell APEX dành cho VMware mở rộng các tùy chọn triển khai đa đám mây VMware của khách hàng, mang đến nhiều lựa chọn và tính linh hoạt hơn để hiện đại hóa các ứng dụng đồng thời hợp lý hóa các hoạt động đa đám mây.”

“Microsoft và Dell đang đơn giản hóa việc quản lý đám mây lai bằng một giải pháp tích hợp mang đến cho khách hàng các hoạt động nhất quán trên đám mây công cộng Azure cũng như môi trường tại chỗ và biên của họ,” Bernardo Caldas, phó chủ tịch công ty, Azure Edge PM, Microsoft, cho biết trong một bài báo. giải phóng.

Hỗ trợ từ mặt đất đến đám mây cho Kubernetes và hơn thế nữa

Hai dịch vụ SaaS mới đã được thêm vào khía cạnh “ground to cloud” của APEX Navigator: APEX Navigator cho Multicloud Storage và APEX Navigator cho Kubernetes. Cả hai đều là tài sản lưu trữ đám mây công cộng có thể triển khai và giám sát mọi loại lưu trữ và mọi đám mây công cộng. Các sản phẩm Dell SaaS này cũng có thể được kết nối với một API khi cần thiết khi khách hàng có các công cụ giám sát của riêng họ.

Cái sau bao gồm tính di động của ứng dụng gốc trên đám mây, khám phá nội dung và lưu trữ cho bất kỳ ai sử dụng nội dung lưu trữ của Dell với Kubernetes.

Gordon cho biết: “Với sự phát triển của phần mềm gốc trên đám mây và Kubernetes, ngày càng có nhiều khối lượng công việc được thực hiện trong môi trường gốc trên đám mây.

NHÌN THẤY: Kiểm tra so sánh trực tiếp của chúng tôi về Dell APEX và HPE GreenLake

Tính khả dụng của APEX-as-a-service

APEX Block và File Storage cho AWS, APEX PC-as-a-Service, APEX Compute, và bộ lưu trữ đối tượng Dell và kết nối Databricks Lakehouse Platform hiện khả dụng, với một số hạn chế về địa lý. Cụ thể, PC-as-a-Service và Compute có thể được sử dụng ở Bắc Mỹ, Châu Âu và Châu Á Thái Bình Dương.

Trong nửa cuối năm 2023, Dell dự kiến ​​sẽ bổ sung Nền tảng đám mây APEX (toàn cầu), Bộ lưu trữ khối APEX cho Microsoft Azure (toàn cầu), Bộ điều hướng APEX cho Bộ lưu trữ đa đám mây (bắt đầu ở Hoa Kỳ với các kế hoạch mở rộng) và Bộ điều hướng APEX cho Kubernetes ( Mỹ, Anh, Pháp và Đức).

Các đối thủ cạnh tranh với dịch vụ phần mềm của Dell

SaaS lai và đa đám mây và quản lý cạnh của Dell cạnh tranh với HPE GreenLake, IBM Cloud, Cisco+ của Cisco Systems, Cơ sở hạ tầng đám mây của Oracle, v.v. Nó cũng đã từng cạnh tranh với Microsoft Azure và VMware trong quá khứ.

Tuyên bố miễn trừ trách nhiệm: Dell đã trả tiền vé máy bay, chỗ ở và một số bữa ăn cho tôi cho sự kiện Dell Technologies World được tổ chức từ ngày 22 đến ngày 25 tháng 5 tại Las Vegas.

Intel cung cấp 10.000 lưỡi siêu máy tính Aurora, điểm chuẩn chống lại Nvidia và AMD

(Nguồn: Intel)

Với hai exaflop hiệu năng, siêu máy tính Aurora do Intel cung cấp được kỳ vọng sẽ đánh bại siêu máy tính Frontier do AMD cung cấp, hiện là siêu máy tính nhanh nhất thế giới và dẫn đầu danh sách Top 500 siêu máy tính nhanh nhất. Tuy nhiên, do Intel liên tục chậm trễ trong việc cung cấp phần cứng, Aurora vẫn chưa gửi điểm chuẩn cho ủy ban Top 500 nên không công bố danh sách hôm nay. Intel đã chia sẻ thông tin chi tiết mới về hệ thống ngày hôm nay và thông báo tại hội nghị ISC rằng họ đã cung cấp ‘hơn’ 10.000 lưỡi hoạt động cho siêu máy tính Aurora — nhưng với lời cảnh báo rằng đây không phải là thật sự lưỡi cần thiết để triển khai đầy đủ. Chúng tôi sẽ bao gồm các chi tiết dưới đây.

Tuy nhiên, Intel cho biết hệ thống này sẽ hoạt động đầy đủ vào cuối năm nay và chia sẻ điểm chuẩn với Aurora đối đầu trực tiếp với các siêu máy tính do AMD và Nvidia cung cấp, khẳng định lợi thế hiệu suất gấp 2 lần so với GPU MI250X của AMD và tăng 20% ​​so với H100 của Nvidia GPU.

Intel cho biết họ đã cung cấp silicon cho ‘hơn’ 10.000 lưỡi — cả chip Sapphire Rapids Xeon thế hệ thứ tư và GPU Ponte Vecchio — cho Cơ sở Điện toán Lãnh đạo Argonne (ALCF).

Tuy nhiên, Aurora được thiết kế để hoạt động với chip Sapphire Rapids “Xeon Max” được trang bị HBM của Intel, vốn đã bị trì hoãn vĩnh viễn. Do những sự chậm trễ đó, Intel ban đầu đã bắt đầu vận chuyển ALCF chip Sapphire Rapids không phải HBM và cơ sở này bắt đầu cung cấp cho Aurora Rapids Sapphire không phải HBM tiêu chuẩn như một biện pháp ngăn chặn khoảng cách.

Intel hiện đang cung cấp chip Xeon Max được trang bị HBM nhanh hơn cho ALCF, nhưng không phải tất cả 10.000 lưỡi mà hãng quảng cáo khi được phân phối đều có chip Max bên trong. Chúng tôi đã hỏi Intel và đại diện của công ty đã xác nhận rằng không phải tất cả các cánh quạt đều được trang bị silicon Xeon Max cuối cùng. Công ty cho chúng tôi biết rằng khoảng 75% lưỡi dao chứa phiên bản Xeon Max cuối cùng của silicon. Có lẽ, đó là nút cổ chai đang ngăn hệ thống gửi điểm chuẩn cho danh sách Top500.

Hệ thống bao gồm 166 giá đỡ với 64 lưỡi dao trên mỗi giá đỡ, tổng cộng là 10.624 lưỡi dao, do đó, ‘hơn’ 10.000 lưỡi dao được phân phối có khả năng đủ để hệ thống hoạt động — chỉ là không đạt hiệu suất tối đa.

Intel cũng chia sẻ thêm thông số kỹ thuật của siêu máy tính Aurora, bao gồm thông số kỹ thuật chi tiết mà bạn có thể xem trong slide bên trên. Với 21.248 CPU và 63.744 GPU Ponte Vecchio, Aurora sẽ đáp ứng hoặc vượt hai exaflop hiệu suất khi hoạt động trực tuyến hoàn toàn trước cuối năm nay. Hệ thống này cũng có bộ nhớ DDR5 10,9 petabyte (PB), 1,36 PB HBM được gắn vào CPU, 8,16 PB bộ nhớ GPU và 230 PB dung lượng lưu trữ cung cấp băng thông 31 TB/s (các chi tiết thú vị khác được bao gồm trong trượt ở trên).

Intel cũng tiết lộ rằng Aurora sẽ bắt đầu thực thi khối lượng công việc AI tổng quát trên một loạt khối lượng công việc. Mô hình ngôn ngữ lớn ‘Aurora GPT’ sẽ theo định hướng khoa học và có 1 nghìn tỷ tham số với nền tảng Megatron và DeepSpeed. Intel cung cấp bản tóm tắt dự án như sau:

“Các mô hình AI tổng quát cho khoa học này sẽ được đào tạo về văn bản chung, mã, văn bản khoa học và dữ liệu khoa học có cấu trúc từ sinh học, hóa học, khoa học vật liệu, vật lý, y học và các nguồn khác. Các mô hình kết quả (với tối đa 1 nghìn tỷ tham số) sẽ được sử dụng trong nhiều ứng dụng khoa học, từ thiết kế phân tử và vật liệu đến tổng hợp kiến ​​thức từ hàng triệu nguồn để đề xuất các thí nghiệm mới và thú vị trong sinh học hệ thống, hóa học polyme và vật liệu năng lượng, khoa học khí hậu và vũ trụ học. được sử dụng để đẩy nhanh việc xác định các quá trình sinh học liên quan đến ung thư và các bệnh khác và đề xuất các mục tiêu cho thiết kế thuốc.”

Intel cũng giới thiệu một số điểm chuẩn từ hệ thống Sunspot, một phiên bản hai giá đỡ nhỏ hơn của Aurora với tổng số 128 nút. Intel đã so sánh hiệu suất của Sunspot với các con số ngoại suy đại diện cho siêu máy tính Polaris ‘có kích thước tương tự’ với GPU Nvidia A100 và siêu máy tính Crusher được cung cấp bởi GPU MI250X của AMD. Thật không may, Intel đã không cung cấp các ghi chú kiểm tra hoặc chi tiết về các cấu hình này, vì vậy hãy xem xét kết quả với nhiều điều hơn bình thường.

Trong thử nghiệm một nút duy nhất trong khối lượng công việc dự đoán lò phản ứng, Intel tuyên bố hệ thống của họ nhanh hơn 45% so với đối thủ Nvidia và nhanh hơn 12% so với hệ thống AMD. Chuyển sang các chỉ số về khả năng mở rộng, Intel tuyên bố rằng bằng cách chuẩn hóa số lượng tổng số GPU được sử dụng trong các hệ thống thử nghiệm thành 96 GPU (các nút AMD và Nvidia có bốn GPU mỗi nút, trong khi hệ thống Intel có sáu GPU trên mỗi nút), Sunspot cung cấp hơn hai lần hiệu suất của cả hệ thống AMD và Nvidia trong khối lượng công việc Monte Carlo. Đối với 90 nút trong khối lượng công việc NWChemEx, Intel tuyên bố nó nhanh hơn 72% so với hệ thống Solaris 90 nút do Nvidia cung cấp.

Siêu máy tính Aurora được công bố lần đầu tiên vào năm 2015, với ngày hoàn thành được dự đoán là vào năm 2018. Khi đó, hệ thống này được thiết kế để sử dụng bộ xử lý Knights Hill sau đó đã bị hủy bỏ. Kể từ đó, hệ thống đã trải qua nhiều lần thiết kế lại và lên lịch lại, với Aurora mới được công bố vào năm 2019 với một exaflop về hiệu suất sẽ được phân phối vào năm 2021. Tuy nhiên, một lần lên lịch lại khác vào cuối năm 2021 tuyên bố rằng hệ thống sẽ phân phối hai exaflop sau khi hoàn thành, nghĩa là bây giờ dự kiến ​​​​vào cuối năm nay.

Con đường dài và quanh co vẫn tiếp tục, nhưng cuối cùng có vẻ như ít nhất là điểm cuối đã hiện ra trước mắt. Intel cho chúng tôi biết họ sẽ cung cấp tất cả các bộ xử lý Xeon Max để sớm hoàn thiện hệ thống và hệ thống sẽ hoàn thiện và gửi điểm chuẩn Top 500 đầu tiên trước cuối năm nay.

RTX 4060 sẽ sử dụng Ada Lovelace Die cấp nhập cảnh của Nvidia

Theo một bài đăng trên Twitter của @Zed__Wang, RTX 4060 8GB của Nvidia sẽ sử dụng khuôn GPU Ada Lovelace cấp đầu vào của công ty được gọi là AD107, thay vì khuôn AD106 lớn hơn từ RTX 4060 Ti. Điều này sẽ không ảnh hưởng đến thông số kỹ thuật chính thức của GPU, nhưng thực tế là RTX 4060 có thể được sử dụng trên khuôn AD107 cho thấy Nvidia đang tập trung vào việc tăng hiệu quả sử dụng năng lượng thế hệ này trên các GPU tầm trung và cấp thấp.

Quyết định sử dụng AD107 bên trong RTX 4060 của Nvidia không phải là rò rỉ hay tin đồn, trên thực tế, Nvidia đã trực tiếp nói với chúng tôi rằng họ sẽ chính thức sử dụng khuôn AD107 trong GPU tầm trung mới của mình. Do đó, đây sẽ là sản phẩm loại RTX xx60 đầu tiên hoạt động trên khuôn cấp thấp. Các thế hệ GPU RTX tầm trung trước đây như 3060 và 2060 hoạt động trên khuôn GA106 hoặc TU106, cao hơn một bậc so với các GPU tương đương cấp đầu vào kết thúc bằng số 7.

(Nguồn: @Zed__Wang)

Chúng tôi tin rằng GPU sẽ sử dụng khuôn AD107 được kích hoạt đầy đủ. Do đó, sẽ không có mẫu GPU nào khác vượt qua RTX 4060 với thông số kỹ thuật tốt hơn trên cùng một khuôn, bao gồm số lượng lõi, cấu hình bus bộ nhớ, ROP và bộ đệm. Có thể có “RTX 4060 Super” với TDP và xung nhịp cao hơn, nhưng sẽ không có GPU nào khác có thông số kỹ thuật vật lý cao hơn trên khuôn này.

Vuốt để cuộn theo chiều ngang
Thông số kỹ thuật GPU Nvidia 60 lớp
Card đồ họa RTX4060 RTX 3060
Ngành kiến ​​​​trúc AD107 GA106
Công nghệ xử ký TSMC 4N Samsung 8N
Bóng bán dẫn (Tỷ) 18,9 12,0
Kích thước khuôn (mm^2) 158,7 276
Tin nhắn 24 28
Lõi GPU (Shader) 3072 3584
lõi căng 96 112
Lõi RT 24 28
Tăng xung nhịp (MHz) 2460? 1777
Tốc độ VRAM (Gbps) 17 15
VRAM (GB) số 8 12
Chiều rộng đường truyền VRAM 128 192
Bộ đệm L2 24 3
ROP 32 48
TMU 96 112
TFLOPS FP32 (Tăng tốc) 15 12.7
TFLOPS FP16 (FP8) 121 (242) 102 (thưa thớt)
Băng thông (GBps) 272 (453 hiệu quả) 360
TGP (watt) 115 170
Ngày ra mắt tháng 7 năm 2023 Tháng hai 2021
Giá ra mắt $299 $329

Để tham khảo, thông số kỹ thuật của RTX 4060 bao gồm 3072 lõi CUDA, 24 SM, 96 lõi Tensor, 24 lõi RT, bộ đệm L2 24 MB, 48 ROP, 96 TMU và bus 128 bit. Ngoài ra, xung nhịp tăng tốc được đánh giá ở mức 2460 MHz và GPU sẽ có mục tiêu công suất là 115W.

AD107 mang lại cho Nvidia một số lợi thế với RTX 4060; một là GPU sẽ rẻ hơn để sản xuất vì nó sẽ hoạt động trên khuôn GPU nhỏ nhất và dễ sản xuất nhất trong gia đình Ada Lovelace. Một điều nữa là Nvidia có thể giảm tải sản xuất cho một GPU khác chết trong tương lai nếu cần cải thiện năng suất. Ví dụ: Nvidia có thể chọn tận dụng cả AD107 và AD106 cho vanilla RTX 4060 trong tương lai để nâng cao năng suất và giảm lãng phí đối với các khuôn AD106 có khả năng bị hỏng không thể sử dụng với tất cả các lõi được bật.

Đối với những người đam mê và game thủ, thật không may khi thấy RTX 4060 được điều chỉnh theo khuôn AD107, với tiềm năng hiệu suất mà nó có thể có với khuôn AD106 lớn hơn của Nvidia. Nhưng ít nhất chúng ta đang có được một GPU cực kỳ hiệu quả, dễ cấp nguồn và làm mát.

Intel nói về Falcon Shores Flub, hợp nhất lộ trình Habana Gaudi

Ban đầu, Intel đã lên kế hoạch cho các chip Falcon Shores của mình có cả lõi GPU và CPU bên trong, tạo ra ‘XPU’ đầu tiên của công ty dành cho điện toán hiệu năng cao. Tuy nhiên, thông báo bất ngờ cách đây vài tháng rằng họ sẽ chuyển sang thiết kế chỉ có GPU và trì hoãn sản xuất chip đến năm 2025 đã khiến các nhà quan sát trong ngành bị sốc — điều này khiến Intel không thể cạnh tranh với bộ xử lý Instinct MI300 của AMD và bộ xử lý Grace Hopper của Nvidia, cả hai đều có tính năng kết hợp. Thiết kế CPU + GPU.

Hôm nay, Intel đã cung cấp một số lý do có phần đáng ngờ đằng sau quyết định cắt giảm các kế hoạch của mình đối với Falcon Shores để biến nó thành sản phẩm kế thừa duy nhất GPU cho dòng GPU Xeon Max. Intel cũng đã phác thảo một số chi tiết ban đầu về thiết kế Falcon Shores chỉ dành cho GPU mới của mình, mà chúng tôi sẽ đề cập sâu hơn bên dưới.

Intel cũng đã ban hành một lộ trình HPC và AI mới không cho thấy sự kế thừa của bộ xử lý Gaudi3 — thay vào đó, Gaudi và GPU hợp nhất với GPU Falcon Shores khi nó tiếp quản chip HPC và AI ra mắt của Intel. Intel nói với chúng tôi rằng họ ‘có kế hoạch tích hợp sản phẩm Habana và AXG [GPU] lộ trình,’ nhưng các chi tiết của sự tích hợp là rất ít.

Kiến trúc điện toán Gaudi thay đổi đáng kể so với GPU tiêu chuẩn, do đó, có vẻ như kiến ​​trúc điện toán của nó không thể được tích hợp hoàn toàn vào GPU. Do đó, Intel có thể kết hợp các phần nhỏ hơn của thiết kế Gaudi, như giao diện mạng hoặc các khối IP khác, vào GPU của mình. Chúng tôi được biết rằng Jeff McVeigh, Phó chủ tịch kiêm Tổng giám đốc của Nhóm Máy tính tăng tốc của Intel, sẽ cung cấp thêm thông tin chi tiết vào hôm nay. Xin nhắc lại, Intel đã trả 2 tỷ đô la cho Habana Labs và loại bỏ các sản phẩm từ thương vụ mua lại Nervana trị giá 350 triệu đô la để tập trung vào chip Gaudi.

(Nguồn: Intel)

Intel đã chia sẻ một số chi tiết cơ bản về thiết kế Falcon Shores mới, thiết kế này sẽ tiếp tục tập trung vào khối lượng công việc HPC và AI nhưng sẽ sử dụng lõi GPU. Các XPU Falcon Shores tập trung vào HPC được thiết kế cho các ứng dụng siêu máy tính với kế hoạch hợp nhất cả công nghệ CPU và GPU thành một gói chip kết hợp và kết hợp, nhưng giờ đây chúng sẽ xuất hiện lần đầu tiên dưới dạng kiến ​​trúc chỉ GPU vào năm 2025.

Falcon Shores sẽ sử dụng chuyển mạch ethernet tiêu chuẩn, giống như kiến ​​trúc Gaudi tập trung vào AI của Intel, dung lượng bộ nhớ HBM3 không xác định và “I/O được thiết kế để mở rộng quy mô”, có khả năng cho thấy rằng Falcon Shores sẽ đi kèm với các tùy chọn dung lượng bộ nhớ khác nhau. Intel nói rằng Falcon sẽ đi kèm với HBM3 lên tới 288GB và tổng thông lượng bộ nhớ là 9,8 TB/s. Theo dự kiến, nó sẽ hỗ trợ các loại dữ liệu nhỏ hơn, như FP8 và BF16.

Bản phác thảo cơ bản của thiết bị cũng bao gồm giao diện lập trình dựa trên GPU phổ biến, OneAPI, cho phép khả năng tương thích rộng rãi với các CPU và kiến ​​trúc khác. Intel cũng liệt kê hỗ trợ CXL như một điểm khác biệt chính, điều này đưa chúng ta đến lý do đằng sau việc lấy các lõi CPU khỏi gói Falcon Shores.

(Nguồn: Intel)

Intel nói rằng mục tiêu ban đầu của họ là kết hợp các lõi CPU và GPU vào cùng một gói Falcon Shores là quá sớm. Như được hiển thị trong slide trên, Intel nói rằng sự kết hợp tối ưu giữa lõi CPU và GPU đã thay đổi theo thời gian khi khối lượng công việc phát triển và công ty mong đợi những thay đổi nhanh chóng và triệt để hơn đối với tỷ lệ CPU/GPU tối ưu sẽ xảy ra cùng với sự bùng nổ của AI và LLM tổng hợp vào không gian HPC. Do đó, Intel cho biết họ không cảm thấy đã đến lúc phải khóa khách hàng vào các tỷ lệ CPU và GPU cụ thể.

Tuy nhiên, như đã trình bày ở trên, kế hoạch ban đầu cho Falcon Shores đã bao gồm khả năng điều chỉnh tỷ lệ CPU/GPU bằng cách thả một số ô CPU hoặc GPU khác nhau vào thiết kế bốn ô, do đó cho phép nó định cấu hình hỗn hợp tối ưu cho khối lượng công việc khác nhau. Bên cạnh đó, theo thiết kế, các siêu máy tính tiên tiến nhất là những thiết kế chuyên dụng cao cho nhiệm vụ hiện tại và việc điều chỉnh phần mềm cho kiến ​​trúc chỉ đơn giản là một phần thông thường trong công việc vận hành siêu máy tính. Những yếu tố này ngụ ý rằng tỷ lệ CPU/GPU không phải là lý do duy nhất khiến Intel loại bỏ lõi CPU khỏi thiết kế.

Intel cũng chỉ ra việc cho phép khách hàng của mình sử dụng nhiều loại CPU khác nhau, hợp lý sẽ bao gồm chip x86 của AMD và chip Arm của Nvidia, với thiết kế GPU của họ, do đó không khóa khách hàng trong việc chọn lõi x86 của Intel thay vì các công ty khác. Tuy nhiên, một lần nữa, các kế hoạch ban đầu của Intel cũng bao gồm các biến thể chỉ có GPU và CPU của Falcon Shores, vì vậy lý do cơ bản này cũng có vẻ không thuyết phục.

Intel cho biết họ sẽ tận dụng giao diện CXL để cho phép khách hàng của mình tận dụng một kiến ​​trúc có thể kết hợp, có thể kết hợp các tỷ lệ CPU/GPU khác nhau trong các thiết kế tùy chỉnh của họ. Tuy nhiên, giao diện CXL chỉ cung cấp thông lượng 64 GB/giây giữa các phần tử, trong khi các thiết kế CPU+GPU tùy chỉnh như Grace Hopper của Nvidia có thể cung cấp thông lượng bộ nhớ lên tới 1 TB/giây giữa CPU và GPU. Điều đó mang lại cả lợi thế về hiệu suất và hiệu quả so với triển khai CXL cho nhiều loại khối lượng công việc — đặc biệt là khối lượng công việc AI ngốn băng thông bộ nhớ. Đó là chưa kể đến các kết nối vốn có độ trễ thấp hơn giữa các phần tử và các lợi thế khác, chẳng hạn như mật độ hiệu suất cao hơn.

Điều đó có nghĩa là mặc dù ý tưởng của Intel về một kiến ​​trúc có thể kết hợp tốt hơn đối với một số khối lượng công việc, nhưng nó có thể sẽ không thể cạnh tranh với MI300 của AMD hoặc Grace của Nvidia về sức mạnh, chi phí hoặc hiệu suất đối với một số ứng dụng nhất định.

Tương tự như vậy, quyết định làm chậm nhịp phát hành GPU của Intel không phải là lý tưởng vì họ sẽ phải tận dụng các sản phẩm cũ hơn để cạnh tranh với các kiến ​​trúc tiên tiến hơn nhiều cho HPC, như Siêu chip Grace của Nvidia và APU exascale sắp ra mắt của AMD, Instinct MI300, cả hai đều ra mắt vào 2023.

Bất chấp lý do thay đổi mục tiêu của Intel, thật khó để không thấy việc Intel định nghĩa lại Falcon Shores thành một sản phẩm chỉ dành cho GPU do công ty thiếu một điểm uốn kiến ​​trúc sẽ khiến họ gặp bất lợi trong cạnh tranh trong tương lai.

Cooler Master công bố PC Sneaker X với giá 5.999 đô la vào tháng 7

Chúng tôi đã chứng kiến ​​​​sự ra mắt của Cooler Master về hệ thống PC Sneaker X được yêu thích hay không thích tại CES vào đầu năm nay. Cuối cùng, công ty đã công bố phát hành thiết kế PC cao cấp độc đáo này. Nó sẽ ra mắt vào tháng 7 với giá từ 5.999 USD. Trong khi đó, Cooling X, một thiết kế tháp PC truyền thống hơn nhiều với hệ thống làm mát bằng chất lỏng tích hợp đầy đủ, sẽ được phát hành vào tháng 6 với giá từ 6.999 USD.

Jimmy Sha, Giám đốc điều hành của Cooler Master cho biết: “Tôi rất vui khi Cooling X và Sneaker X, hai chiếc máy tính để bàn đột phá thể hiện cam kết của chúng tôi trong việc thúc đẩy ranh giới của sự đổi mới và thiết kế đang được phổ biến rộng rãi. Sha tiếp tục nói về nhu cầu đa dạng của thị trường và tính cá nhân.

(Nguồn: Tương lai)

Sneaker X được coi là một chiếc PC thời trang mang đến sự kết hợp giữa sự sang trọng và hiệu suất. Nó chắc chắn là phong cách, nhưng liệu nó có phong cách hay không vẫn còn là điều gây tranh cãi. Ngoài ra, kích thước vật lý (diện tích) của PC này có nghĩa là sẽ không dễ dàng cất giấu trên hoặc dưới bàn nếu bạn cảm thấy mệt mỏi với sự hiện diện của nó. Kích thước thực của nó là 25,6 x 12,0 x 25,6 inch (650 x 306 x 651 mm). Bạn có thể cảm nhận được mức độ lớn của thiết kế Sneaker X này từ các bức ảnh CES 2023 của chúng tôi, nơi mọi người có mặt (ở trên).

Mặc dù khá cồng kềnh về mặt vật lý, nhưng Sneaker X sử dụng một số thành phần PC tiêu chuẩn nhỏ gọn nhất, chẳng hạn như: nền tảng bo mạch chủ ITX mini, bộ nguồn SFX và chỉ có chỗ cho một ổ đĩa 2,5 inch, nhưng các thành phần mạnh mẽ của nó cần được làm mát. hệ thống với bộ tản nhiệt 360mm. Hơn nữa, Cooler Master đã đảm bảo có đủ chỗ để nâng cấp GPU (hỗ trợ GPU lên tới 304 x 137 x 61mm).

(Nguồn: Cool Master)

Cooler Master sẽ sản xuất các hệ thống Sneaker X với ba phối màu. Tại CES 2023, chúng ta đã thấy phiên bản màu đỏ, nhưng cũng sẽ có phiên bản màu xanh và hồng.

Mặc dù hiện tại đã có ngày phát hành và giá cho Sneaker X, nhưng các thông số kỹ thuật của CPU và GPU lạnh vẫn chưa được cung cấp (và điều tương tự cũng đúng với Cooler X). Sẽ phải có một số thành phần mạnh mẽ trong những chiếc máy này để biện minh cho giá chào bán, cả hai đều trên 5.000 đô la.

Vuốt để cuộn theo chiều ngang
Hàng 0 – Ô 0 Giày thể thao X

làm mát X

Hàng 1 – Ô 0 Phong cách riêng biệt, sức mạnh vượt trội: Một thiết kế độc đáo thách thức tính thẩm mỹ của PC truyền thống Công nghệ làm mát vô song: Sử dụng sáng tạo các tấm bên làm khoang làm mát bằng chất lỏng để tản nhiệt vượt trội
Hàng 2 – Ô 0 Hiệu suất và khả năng tương thích được tối ưu hóa: Hỗ trợ các thế hệ CPU Intel và AMD mới nhất Nhỏ gọn và di động: Tay cầm kiểu dáng đẹp để vận chuyển dễ dàng
Hàng 3 – Ô 0 Làm mát vượt trội cho chơi game đỉnh cao: Hệ thống làm mát bằng nước độc đáo cho chức năng đỉnh cao Linh kiện cao cấp: CPU và GPU làm mát bằng chất lỏng cho hiệu suất cao nhất
Hàng 4 – Ô 0 Giá cả và tính khả dụng: 5.999 đô la Mỹ, có sẵn vào đầu tháng 7 Giá cả và tính khả dụng: 6.999 đô la Mỹ, có sẵn vào cuối tháng 6

Tại CES 2023, chúng tôi lo ngại rằng Cooling X sẽ có các thành phần của AMD đã trở thành ‘thế hệ cuối cùng’ với kiến ​​trúc Zen 3 và RDNA 2 của họ. AMD Ryzen 9 5950X và AMD Radeon 6800XT khó có thể được coi là không đủ sức mạnh, nhưng với mức giá yêu cầu, Cooler Master đã phải nâng cấp các thành phần đã đề cập trước đó này. Thông cáo báo chí mới nhất cho biết hệ thống này đã được nâng cấp lên CPU Zen 4 AMD Ryzen 9 7950X và Ada Lovelace Nvidia GeForce RTX 4080. Các thông số kỹ thuật chính khác của Cooling X mà chúng tôi được biết là nó có tối đa 64GB DDR5-5600 RAM, bộ lưu trữ PCIe Gen4 NVMe M.2 lên đến 4TB và PSU Cooler Master V850 SFX Gold.

(Nguồn: Cool Master)

Một cách phù hợp, lý do tồn tại của Cooler Master Cooling X là hệ thống làm mát bằng chất lỏng, được thiết kế để chế ngự cả CPU và GPU. Chất làm mát chạy qua cả hai tấm bên có gờ. Việc tích hợp thùng máy/bộ làm mát này sẽ giúp các kỹ sư của Cooler Master biến Cooling X trở thành một chiếc PC khá nhỏ gọn, với kích thước 14,63 x 10,47 x 5,88 inch (266 x 149,4 x 371,6 mm, 14,8 lít). Tuy nhiên, nếu bạn đang nghĩ đến việc mang nó đi khắp nơi, thì nó khá đặc và nặng 38,1 pound.

(Nguồn: Cool Master)

Mặc dù thật tốt khi Cooler Master đã xoay sở để sắp xếp ngày phát hành cho hai chiếc PC dựng sẵn ở trên, nhưng những người thích sự táo bạo và kỳ lạ có thể đang chờ đợi Shark X. có lẽ là sản phẩm ấn tượng nhất trong dòng PC CES 2023 của Cooler Master và chúng tôi vẫn đang chờ đợi nó.

Exit mobile version