Показаны сообщения с ярлыком HBM2. Показать все сообщения
Показаны сообщения с ярлыком HBM2. Показать все сообщения

четверг, 11 января 2018 г.

Samsung приступил у выпуску Aquabolt — самых быстрых микросхем памяти HBM2 объёмом 8Гб




Сегодня в официальном пресс-релизе Samsung сообщил о старте массового выпуска 2-го поколения микросхем памяти High Bandwidth Memory-2 (HBM2) объёмом 8Гб. Отмечается, что это самые быстрые микросхемы HBM2, доступные в настоящее время на рынке. Они обеспечивают скорость 2,4 Гбит/с в расчёте на вывод. Новые чипы получили название Aquabolt.
Микросхемы Samsung Aquabolt работают при напряжении питания 1,2В. По скорости они на 50% превосходят микросхемы Samsung HBM2 первого поколения объёмом 8Гб, которые демонстрировали показатель 1,6 Гбит/с в расчёте на вывод при напряжении питания 1,2 В. Производитель уточняет, что при напряжении питания 1,35В микросхемы Samsung HBM2 первого поколения демонстрируют скорость 2,0 Гбит/с.
4 новые микросхемы обеспечивают пропускную способность 1,2ТБ/с. В каждой из них упаковано 8 кристаллов плотностью 8Гбит каждый. Между собой кристаллы связаны более чем 5000 соединений TSV. При этом по сравнению с памятью HBM2 первого поколения удалось уменьшить искажения сигналов и улучшить отвод тепла. Кроме того, добавлен дополнительный нижний защитный слой, повысивший прочность микросхемы.
Память Samsung Aquabolt предназначена для суперкомпьютеров, систем искусственного интеллекта и графических ускорителей.

Samsung Starts Producing 8-Gigabyte High Bandwidth Memory-2 with Highest Data Transmission Speed

The new HBM2, Aquabolt™, features today’s highest DRAM performance levels, for use in next-generation supercomputers, AI solutions and graphics systems

Samsung Electronics, the world leader in advanced memory technology, today announced that it has started mass production of its 2nd-generation 8-gigabyte (GB) High Bandwidth Memory-2 (HBM2) with the fastest data transmission speed on the market today. The new solution, Aquabolt™, which is the industry’s first HBM2 to deliver a 2.4 gigabits-per-second (Gbps) data transfer speed per pin, should accelerate the expansion of supercomputing and the graphics card market.
“With our production of the first 2.4Gbps 8GB HBM2, we are further strengthening our technology leadership and market competitiveness,” said Jaesoo Han, executive vice president, Memory Sales & Marketing team at Samsung Electronics. “We will continue to reinforce our command of the DRAM market by assuring a stable supply of HBM2 worldwide, in accordance with the timing of anticipated next-generation system launches by our customers.”
Samsung’s new 8GB HBM2 delivers the highest level of DRAM performance, featuring a 2.4Gbps pin speed at 1.2V, which translates into a performance upgrade of nearly 50 percent per each package, compared to the company’s 1st-generation 8GB HBM2 package with its 1.6Gbps pin speed at 1.2V and 2.0Gbps at 1.35V.
With these improvements, a single Samsung 8GB HBM2 package will offer a 307 gigabytes-per-second (GBps) data bandwidth, achieving 9.6 times faster data transmission than an 8 gigabit (Gb) GDDR5 chip, which provides a 32GBps data bandwidth.* Using four of the new HBM2 packages in a system will enable a 1.2 terabytes-per-second (TBps) bandwidth., which will improve overall system performance by as much as 50 percent, compared to a system that uses a 1.6Gbps HBM2.
Samsung’s new Aquabolt significantly extends the company’s leadership in driving the growth of the premium DRAM market. Moreover, Samsung will continue to offer leading-edge HBM2 solutions, to succeed its 1st-generation HBM2, Flarebolt™, and its 2nd-generation, Aquabolt, as it further expands the market over the next several years.
To achieve Aquabolt’s unprecedented performance, Samsung has applied new technologies related to TSV design and thermal control. A single 8GB HBM2 package consists of eight 8Gb HBM2 dies, which are vertically interconnected using over 5,000 TSVs (Through Silicon Via’s) per die. While using so many TSVs can cause collateral clock skew, Samsung succeeded in minimizing the skew to a very modest level and significantly enhancing chip performance in the process.
In addition, Samsung increased the number of thermal bumps between the HBM2 dies, which enables stronger thermal control in each package. Also, the new HBM2 includes an additional protective layer at the bottom, which increases the package’s overall physical strength.
In accommodating the growing need for high-performance HBM2 DRAM, Samsung will supply Aquabolt to its global IT customers at a stable pace, and continue to rapidly advance its memory technology in conjunction with leading OEMs throughout a wide array of fields including supercomputing, artificial intelligence, and graphics processing.

* Editor’s Note:
[HBM2 and GDDR5 data bandwidth calculation]
-An 8GB HBM2 package’s data bandwidth: 2.4Gbps per pin x 1024bit bus = 307.2GBps
Using four HBM2 packages in a system: 307.2GBps x 4 = 1228.8GBps = approximately 1.2TBps
-A 8Gb GDDR5 die’s data bandwidth: 8Gbps per pin x 32bit bus = 32GBps

Note: All brand, product, service names and logos are trademarks and/or registered trademarks of their respective owners and are hereby recognized and acknowledged. Aquabolt and Flarebolt are trademarks of Samsung Electronics Co., Ltd.

среда, 26 июля 2017 г.

Samsung осуществляет массовые поставки модулей памяти HBM2 компании AMD


На прошлой неделе представители Samsung заявили, что корпорация увеличивает объёмы производства микросхем памяти типа HBM2 объёмом 8Гб для "удовлетворения растущих потребностей рынка" и что Samsung является единственным в мире поставщиком микросхем HBM2 такого объёма.
Однако не было обнародовано никаой информации относительно заказчиков указанной продукции.
Как стало известно сегодня, именно Samsung будет снабжать графические процессоры AMD Vega памятью HBM2. Более того, других поставщиков пока не предвидится, хотя соотечественники из компании SK Hynix тоже предлагают память этого типа.
В своё время разработку памяти HBM первого поколения AMD и SK Hynix осуществляли совместными усилиями, результатом чего стало появление видеокарт Radeon R9 Fury X, Radeon R9 Fury и Radeon R9 Nano на базе графического процессора AMD Fiji. Тем не менее, при создании графических решений Vega компания AMD отдала предпочтение продукции Samsung. Память типа HBM2 также устанавливается и на ускорители вычислений NVIDIA Tesla V100 с архитектурой Volta, поэтому AMD является далеко не единственным потребителем решений от южнокорейского техногиганта. Но, судя по всему, именно выход относительно массовой видеокарты Radeon RX Vega подтолкнул Samsung к увеличению объёмов выпуска необходимого ассортимента микросхем HBM2.

среда, 19 июля 2017 г.

Samsung форсирует выпуск чипов памяти HBM2 объёмом 8 ГБ






Samsung заявил об увеличении объёмов производства памяти HBM2 (High Bandwidth Memory-2) объёмом 8Гб вследствие роста спроса на эту категорию продукции вендора. HBM2 применяется в широком перечне приложений, включая искусственный интеллект, высокопроизводительные компьютеры, производительные графические решения, сетевые системы и корпоративное серверное оборудование.
Отмечается, что память Samsung HBM2 ёмкостью 8Гб обеспечивает высокую производительность, надёжность и энергоэффективность. В ней применяется множество запатентованных технологических решений. Чип памяти HBM2 объёмом 8Гб состоит из восьми 8-гигабитных HBM2-матриц и буферной матрицы в нижней части стека, которые все вертикально связаны между собой при помощи технологии TSV (Through Silicon Via).
Каждый слой включает более 5 тыс. соединений TSV, а весь чип Samsung HBM2 объёмом 8 ГБ – более 40 тыс. соединений. Использование столь большого количества соединений, включая запасные, обеспечивает высокую производительность и обеспечивает возможность переключения потоков данных на разные соединения TSV в случае возникновения задержек передачи. Память HBM2 разработана таким образом, чтобы избежать перегрева выше определённой температуры, что обеспечивает высокую надёжность.
Память HBM2 впервые была представлена в июне 2016 года. Она обеспечивала пропускную способность передачи данных на уровне 256 ГБ/с, что в 8 раз превосходит возможности чипов памяти GDDR5 DRAM (32 Гб/с). Благодаря удвоению ёмкости чипов с 4Гб до 8Гб удалось повысить производительность и энергоэффективность систем.
Samsung ожидает, что объём производства памяти HBM2 объёмом 8Гб составит более 50% производства всей памяти HBM2 в первой половине следующего года.

Samsung Increases Production of Industry’s Fastest DRAM ─ 8GB HBM2, to Address Rapidly Growing Market Demand

With 256GB/s memory bandwidth, Samsung’s 8GB HBM2 offers the highest DRAM performance for the most data-intensive, high-performance applications

Samsung Electronics, the world leader in advanced memory technology, today announced that it is increasing the production volume of its 8-gigabyte (GB) High Bandwidth Memory-2 (HBM2) to meet growing market needs across a wide range of applications including artificial intelligence, HPC (high-performance computing), advanced graphics, network systems and enterprise servers.
“By increasing production of the industry’s only 8GB HBM2 solution now available, we are aiming to ensure that global IT system manufacturers have sufficient supply for timely development of new and upgraded systems,” said Jaesoo Han, executive vice president, Memory Sales & Marketing team at Samsung Electronics. “We will continue to deliver more advanced HBM2 line-ups, while closely cooperating with our global IT customers.”
Samsung’s 8GB HBM2 delivers the highest level of HBM2 performance, reliability and energy efficiency in the industry, underscoring the company’s commitment to DRAM innovation. Among the HBM2 and TSV (Through Silicon Via) technologies that were utilized for the latest DRAM solution, more than 850 of them have been submitted for patents or already patented.
The 8GB HBM2 consists of eight 8-gigabit (Gb) HBM2 dies and a buffer die at the bottom of the stack, which are all vertically interconnected by TSVs and microbumps. With each die containing over 5,000 TSVs, a single Samsung 8GB HBM2 package has over 40,000 TSVs. The utilization of so many TSVs, including spares, ensures high performance, by enabling data paths to be switched to different TSVs when a delay in data transmission occurs. The HBM2 is also designed to prevent overheating beyond certain temperature to guarantee high reliability.
First introduced in June 2016, the HBM2 boasts a 256GB/s data transmission bandwidth, offering more than an eight-fold increase over a 32GB/s GDDR5 DRAM chip. With capacity double that of 4GB HBM2, the 8GB solution contributes greatly to improving system performance and energy efficiency, offering ideal upgrades to data-intensive, high-end computing applications that deal with machine learning, parallel computing and graphics rendering.
In meeting increasing market demand, Samsung anticipates that its volume production of the 8GB HBM2 will cover more than 50 percent of its HBM2 production by the first half of next year.

вторник, 6 июня 2017 г.

Samsung увеличит производство чипов для систем искусственного интеллекта (AI) в 30 раз




Samsung стремится увеличить производство DRAM-чипов для процессоров и серверов, интегрированных в системы искусственного интеллекта (AI) более чем в 30 раз и намерен поставлять эти компоненты таким ключевым клиентам как Intel и Nvidia. Об этом корреспонденту портала ETnews в конце мая сообщили несколько отраслевых источников. Как известно, Samsung имеет передовые технологии производства указанной продукции, заметно опережая конкурентов.
Информаторы ETnews сообщили, что бизнес-подразделение южнокорейского техногиганта недавно заказало 20 машин нового типа, разработанных их производителем совместно со специалистами Samsung. Не вдаваясь в подробности издание сообщает, что модернизированная технология производства чипов HBM2 и 3DS DRAM, используемых в новейших процессорах Intel и Nvidia для AI-систем и машинного обучения, позволит увеличить их вычислительную мощность в разы. В частности, указывается, что производительность новой HBM2 почти в 8 раз выше, чем у ныне существующих DRAM-чипов GDDR5.

Samsung’s AI chip production to jump 30-fold

Samsung Electronics is seeking to increase high-performance DRAM chips for AI processors and servers by more than 30-fold and supply the chips first to key clients Intel and Nvidia, multiple industry sources told ET News on May 30. 
Samsung has produced the chips using the TSV or through-silicon via technology, a high-performance interconnect technique for the 3-D stacked DRAM chips.
Sources said the company’s chip business unit has recently ordered 20 thermal compression bonding machines, a key equipment for the TSV manufacturing. 
Especially, Samsung and the equipment supplier have reportedly succeeded in upgrading the current machine with eight bonding heads. Considering the company has used five machines with a single head, the overall productivity is expected to surge more than 30-fold from the current level. 
Samsung plans to adopt the upgraded manufacturing technology for the production of HBM2 and 3DS DRAM chips. About 1 million units of each chip will be shipped per month from next year. 
The HBM2 boasts almost eight-fold faster processing speed compared to the fastest DRAM chip GDDR5 currently. The chip is used in the latest processors of Intel and Nvidia to support AI and machine learning.