Содержание

Nvidia с кратким обзором Grace CPU Superchip, своего 144-ядерного монстра

Nvidia делится интересными кусочками о Grace CPU Superchip.

Nvidia предоставила немного новой информации о грядущем супер-чипе Grace CPU Superchip, мощном 144-ядерном серверном процессоре, разработанном для ускорения рабочих нагрузок ИИ, а также высокопроизводительных вычислений.

В преддверии своей презентации на Hot Chips 34 компания сообщила, что процессор выпускается на специализированной версии 4-нанометрового техпроцесса TSMC, настроенного под уникальные характеристики продуктов компании.

Зелёная команда также опубликовала показатели энергоэффективности своего интерконнекта NVLink-C2C («моста», который делает возможным 2-процессорный супер-чип), который, как утверждается, потребляет в пять раз меньше энергии, чем интерфейс PCIe 5.0, обеспечивает при этом пропускную способность до 900 Гб/с, среди прочего.

Grace CPU Superchip

Представленный ранее в этом году на GTX 2022 Superchip Grace CPU Superchip состоит из двух процессоров Grace, соединенных вместе по высокоскоростному мосту NVLink, аналогично M1 Ultra от Apple.

Результатом становится 144-ядерный монстр с пропускной способностью памяти в 1 Тб/с и встроенной кэш-памятью 396 Мб, который, по утверждению Nvidia станет самым быстрым процессором на рынке рабочих нагрузок, начиная с искусственного интеллекта и заканчивая высокопроизводительными вычислениями.

Появился новый тип центров обработки данных – фабрики искусственного интеллекта, которые обрабатывают и уточняют горы данных для формирования интеллекта», — сообщает генеральный директор Nvidia, Дженсен Хуанг, в первой презентации чипа.

«Grace CPU Superchip предлагает высочайшую производительность, пропускную способность памяти и программные платформы Nvidia в одном чипе и будет блистать в качестве процессора мировой инфраструктуры искусственного интеллекта».

И пока остается неясным, когда новый супер-чип станет доступен широко, Nvidia недавно сообщила, что он будет представлен в ряду новых готовых серверов, которые будут запущены в первой половине 2023 года. Новые системы – от таких компаний, как Asus, Gigabyte, Supermicro и других – будут основаны на четырех новых эталонных конструкциях 2U, представленных Nvidia на Computex 2022.

Каждый из четырех дизайнов предназначен для определенного сценария использования, от облачных игр к цифровому копированию, высокопроизводительным вычислениям и работе искусственного интеллекта. Nvidia заявляет, что партнеры легко смогут модифицировать свои проекты, чтобы «быстро раскрутить материнские платы, используя существующие системные архитектуры».

Выход Nvidia на серверный рынок ещё сильней ускорит развитие чипов на базе ARM, которые, как ожидается, съедят львиную долю архитектуры x86, на которой основаны современные Intel Xeon и AMD EPYC.

Внедрение чипов на базе Arm в центрах обработки данных также было обусловлено разработкой специализированных микросхем на основе ARM среди облачных провайдеров и других веб-гигантов. Серия Graviton, разработанная AWS, оказалась очень успешной, китайский производитель AliBaba работает над новым 128-ядерным процессором и, по слухам, Microsoft и Meta также работают над собственными чипами.

«На протяжении многих лет многие стартапы пытались внедрить ARM в центры обработки данных. Сначала основная ценность этого решения заключалось в низком энергопотреблении, но операторам центров обработки данных гораздо важней производительность. Речь идет о том, чтобы вместить в серверную стойку максимально больше вычислительного ресурса», — рассказал Крис Берджи, старший вице-президент инфраструктуры ARM, ранее в этом году для TechRadar Pro.

«Благодаря ARM поставщики облачных услуг обнаружили, что они могут выполнять больше вычислений, потому что могут задействовать больше ядер в целом. И мы пока лишь на вершине айсберга».