суббота, 20 февраля 2021 г.

Samsung разрабатывает первую в отрасли память с высокой пропускной способностью и возможностями для AI-вычислений



Samsung Electronics объявляет о разработке первой в отрасли памяти с высокой пропускной способностью (HBM), интегрированной с вычислительной мощностью искусственного интеллекта (AI) —HBM-PIM. Новая архитектура обработки (PIM) позволяет использовать возможности AI для ускорения обработки больших объёмов данных в ЦОД, систем высокопроизводительных вычислений (HPC) и при использовании мобильных приложений с поддержкой искусственного интеллекта.
«Инновационная память HBM-PIM — первое в отрасли программируемое решение PIM, адаптированное для задач различных уровней сложности с использованием AI, таких как высокопроизводительные вычисления, обучение и логические процессы. Мы планируем развивать эту технологию за счёт дальнейшего сотрудничества с поставщиками AI-решений, чтобы создавать ещё более совершенные продукты на базе PIM», — отметил Квангил Парк, старший вице-президент по планированию продуктов памяти в Samsung Electronics.
«Я рад видеть, что Samsung решает проблемы пропускной способности и большого энергопотребления памяти для высокопроизводительных вычислений и искусственного интеллекта. Конструкция HBM-PIM продемонстрировала впечатляющую производительность и прирост эффективности при работе с важными типами AI-вычислений, поэтому мы с нетерпением ждём возможности оценить её способность решать дополнительные задачи, представляющие интерес для Аргоннской национальной лаборатории», — прокомментировал Рик Стивенс, заместитель директора Аргоннской национальной лаборатории Министерства энергетики США по вычислениям, окружающей среде и естественным наукам о жизни.
Большинство современных вычислительных систем основаны на архитектуре фон Неймана, использующей отдельные блоки процессора и памяти для выполнения миллионов сложных задач при обработке данных. Такой подход к последовательной обработке требует, чтобы данные постоянно перемещались туда и обратно, что приводит к замедлению работы системы, особенно при обработке постоянно растущих объёмов информации.
Вместо этого HBM-PIM передаёт вычислительную мощность непосредственно туда, где хранятся данные, поскольку оптимизированный для DRAM AI-движок помещён в каждый банк памяти (подблок хранения), обеспечивая параллельную обработку и минимизируя перемещение данных. С решением Samsung HBM2 Aquabolt новая архитектура способна вдвое повысить производительность системы при снижении энергопотребления более чем на 70%. HBM-PIM также не требует каких-либо изменений в аппаратном или программном обеспечении, что позволяет ускорить её интеграцию в существующие системы.
Документ Samsung о HBM-PIM будет представлен на Международной конференции по твердотельным схемам (ISSCC) 22 февраля. В настоящее время память Samsung HBM-PIM тестируется ведущими партнёрами по AI-решениям в ускорителях искусственного интеллекта. Ожидается, что эта работа будет завершена в первой половине 2021 года.

Samsung Develops Industry’s First High Bandwidth Memory with AI Processing Power

Samsung Electronics, the world leader in advanced memory technology, today announced that it has developed the industry’s first High Bandwidth Memory (HBM) integrated with artificial intelligence (AI) processing power — the HBM-PIM. The new processing-in-memory (PIM) architecture brings powerful AI computing capabilities inside high-performance memory, to accelerate large-scale processing in data centers, high performance computing (HPC) systems and AI-enabled mobile applications.
Kwangil Park, senior vice president of Memory Product Planning at Samsung Electronics stated, “Our groundbreaking HBM-PIM is the industry’s first programmable PIM solution tailored for diverse AI-driven workloads such as HPC, training and inference. We plan to build upon this breakthrough by further collaborating with AI solution providers for even more advanced PIM-powered applications.”
Rick Stevens, Argonne’s Associate Laboratory Director for Computing, Environment and Life Sciences commented, “I’m delighted to see that Samsung is addressing the memory bandwidth/power challenges for HPC and AI computing. HBM-PIM design has demonstrated impressive performance and power gains on important classes of AI applications, so we look forward to working together to evaluate its performance on additional problems of interest to Argonne National Laboratory.”
Most of today’s computing systems are based on the von Neumann architecture, which uses separate processor and memory units to carry out millions of intricate data processing tasks. This sequential processing approach requires data to constantly move back and forth, resulting in a system-slowing bottleneck especially when handling ever-increasing volumes of data.
Instead, the HBM-PIM brings processing power directly to where the data is stored by placing a DRAM-optimized AI engine inside each memory bank — a storage sub-unit — enabling parallel processing and minimizing data movement. When applied to Samsung’s existing HBM2 Aquabolt solution, the new architecture is able to deliver over twice the system performance while reducing energy consumption by more than 70%. The HBM-PIM also does not require any hardware or software changes, allowing faster integration into existing systems.
Samsung’s paper on the HBM-PIM has been selected for presentation at the renowned International Solid-State Circuits Virtual Conference (ISSCC) held through Feb. 22. Samsung’s HBM-PIM is now being tested inside AI accelerators by leading AI solution partners, with all validations expected to be completed within the first half of this year.