$74.8 €88.64

Последние новости

01.05.2026, 15:51 «Русское море» возглавило топ самой продаваемой рыбной продукции в России

01.05.2026, 14:10 Принт в главной роли: 4 бренда Московской недели моды, где рисунок ткани становится высказыванием

30.04.2026, 19:23 Инфраструктура и долговой рынок как точки роста: итоги конференции «Перспектива с Цифрой»

30.04.2026, 18:56 Hisense поднимает моду и культуру с культовой кампанией в честь «Дьявол носит Prada 2» в кинотеатрах 1 мая

30.04.2026, 18:09 CGTN — О чем свидетельствует сильный старт 15-го пятилетнего плана Китая

30.04.2026, 09:56 УК «САМПА» провела тренинг по коммерческому мерчендайзингу для арендаторов ТРЦ «Лапландия»

29.04.2026, 13:27 Определены 120 финалистов Всероссийского инженерного конкурса

29.04.2026, 13:46 Tyga установил статус «1win VIP» в своих социальных сетях

28.04.2026, 22:37 В России завершился второй сезон Всероссийской Олимпиады школьников по предпринимательству

27.04.2026, 21:09 Президент Самия получила отчет следственной комиссии; призывает к национальному оздоровлению, подотчетности и реформам

ВСЕ НОВОСТИ

Supermicro начала выпуск трех решений SuperCluster на базе NVIDIA для генеративного ИИ 

Технологии

 

Supermicro, Inc., поставщик комплексных ИТ-решений для ИИ, облака, хранилищ данных и 5G/Edge, представил новое оборудование для ускорения развертывания генеративного ИИ. Решения Supermicro SuperCluster могут быть использованы в качестве основных компоновочных блоков инфраструктуры больших языковых моделей (LLM) настоящего и будущего.

Три мощных решения Supermicro SuperCluster теперь предлагаются для рабочих нагрузок генеративного ИИ. Системы с жидкостным охлаждением высотой 4U или с воздушным охлаждением высотой 8U специально спроектированы и сконструированы для высокопроизводительного обучения LLM-моделей, а также для анализа больших объемов данных большими пакетами с использованием LLM-моделей. Третье решение SuperCluster с системами Supermicro NVIDIA MGX с воздушным охлаждением высотой 1U оптимизировано для анализа данных в облачном масштабе.

«В эпоху ИИ вычислительные мощности стали измеряться кластерами, а не просто количеством серверов, и с нашими расширенными глобальными производственными мощностями в 5000 стоек в месяц мы можем поставлять нашим клиентам полные кластеры для генеративного ИИ быстрее, чем когда-либо прежде, — сказал Чарльз Лян (Charles Liang), президент и генеральный директор Supermicro. — Кластер из 64 узлов позволяет использовать 512 графических процессоров NVIDIA HGX H200 с 72 ТБ памяти HBM3e через пару наших масштабируемых компоновочных блоков для кластеров с матрицами коммутации NVIDIA Quantum-2 InfiniBand и Spectrum-X Ethernet с пропускной способностью 400 Гбит/с. Решения SuperCluster компании Supermicro в сочетании с программным обеспечением NVIDIA AI Enterprise идеально подходят для корпоративных и облачных инфраструктур, предназначенных для обучения современных LLM-моделей с триллионами параметров. Взаимосвязанные графические процессоры, центральные процессоры, память, хранилище данных и сетевые средства при развертывании для большого числа узлов в стойках образуют основу современного ИИ. Решения SuperCluster от Supermicro служат основными компоновочными блоками для быстро развивающихся генеративного ИИ и LLM-моделей».

«Новейшие технологии NVIDIA, используемые в графических и центральных процессорах, сетевых системах и программном обеспечении, позволяют производителям систем ускорить выполнение ряда рабочих нагрузок ИИ следующего поколения для глобальных рынков, — сказал Каустуб Сангани (Kaustubh Sanghani), вице-президент по управлению продуктами, отвечающий в NVIDIA за графические процессоры. — Используя ускоренную вычислительную платформу NVIDIA с продуктами на основе архитектуры Blackwell, Supermicro прелагает необходимые клиентам самые современные серверные системы, которые можно легко развернуть в центрах обработки данных».

Системы Supermicro высотой 4U с 8 графическими процессорами NVIDIA HGX H100/H200 имеют плотность вдвое выше, чем у систем высотой 8U с воздушным охлаждением, за счет использования жидкостного охлаждения, что приводит к снижению энергопотребления и совокупной стоимости владения (TCO) центра обработки данных. Эти системы рассчитаны на поддержку графических процессоров следующего поколения на основе архитектуры NVIDIA Blackwell. Распределительный блок охлаждения (CDU) и коллектор (CDM) компании Supermicro являются основными артериями для подведения охлажденной жидкости к специальным холодным пластинам Supermicro, непосредственно соприкасающимся с микросхемами (D2C), что позволяет поддерживать оптимальную температуры графических и центральных процессоров для достижения максимальной производительности. Эта технология охлаждения позволяет экономить до 40 % всей потребляемой центром обработки данных электроэнергии и уменьшить занимаемое центром обработки данных пространство.

 

Системы с 8 графическими процессорами NVIDIA HGX H100/H200 идеально подходят для обучения генеративного ИИ. Взаимосвязанные через NVIDIA® NVLink® графические процессоры с высокой пропускной способностью и большим объемом памяти являются ключевым фактором для экономичной работы LLM-моделей. Решение Supermicro SuperCluster образует огромный массив ресурсов графических процессоров, действующий как единый суперкомпьютер для ИИ.

Если нужно выполнить с нуля обучение огромной базовой модели с использованием набора данных с триллионами маркеров или построить инфраструктуру для анализа данных с помощью LLM-модели облачного масштаба, топология сети «ствол и листья» с неблокируемой матрицей сети 400 Гбит/с позволяет легко масштабировать кластер от 32 до тысяч узлов. Благодаря полностью интегрированному жидкостному охлаждению надежные процессы тестирования Supermicro позволяют тщательно проверить эксплуатационную эффективность и экономичность систем перед отправкой.

Конструкция систем Supermicro NVIDIA MGX с процессорами NVIDIA GH200 Grace Hopper Superchip может служить основой будущих кластеров для ИИ, которая позволит решить основную проблему для генеративного ИИ: обеспечить пропускную способность и объем памяти графических процессоров, необходимые для работы больших языковых моделей (LLM) с большими наборами анализируемых данных и снижения эксплуатационных расходов. Кластер из 256 узлов позволяет создать мощную систему облачного масштаба для анализа больших объемов данных, развертывание и масштабирование которой не представляет сложности.