Samsung стремится увеличить производство DRAM-чипов для процессоров и серверов, интегрированных в системы искусственного интеллекта (AI) более чем в 30 раз и намерен поставлять эти компоненты таким ключевым клиентам как Intel и Nvidia. Об этом корреспонденту портала ETnews в конце мая сообщили несколько отраслевых источников. Как известно, Samsung имеет передовые технологии производства указанной продукции, заметно опережая конкурентов.
Информаторы ETnews сообщили, что бизнес-подразделение южнокорейского техногиганта недавно заказало 20 машин нового типа, разработанных их производителем совместно со специалистами Samsung. Не вдаваясь в подробности издание сообщает, что модернизированная технология производства чипов HBM2 и 3DS DRAM, используемых в новейших процессорах Intel и Nvidia для AI-систем и машинного обучения, позволит увеличить их вычислительную мощность в разы. В частности, указывается, что производительность новой HBM2 почти в 8 раз выше, чем у ныне существующих DRAM-чипов GDDR5.
Samsung’s AI chip production to jump 30-fold
Samsung Electronics is seeking to increase high-performance DRAM chips for AI processors and servers by more than 30-fold and supply the chips first to key clients Intel and Nvidia, multiple industry sources told ET News on May 30.
Samsung has produced the chips using the TSV or through-silicon via technology, a high-performance interconnect technique for the 3-D stacked DRAM chips.
Sources said the company’s chip business unit has recently ordered 20 thermal compression bonding machines, a key equipment for the TSV manufacturing.
Especially, Samsung and the equipment supplier have reportedly succeeded in upgrading the current machine with eight bonding heads. Considering the company has used five machines with a single head, the overall productivity is expected to surge more than 30-fold from the current level.
Samsung plans to adopt the upgraded manufacturing technology for the production of HBM2 and 3DS DRAM chips. About 1 million units of each chip will be shipped per month from next year.
The HBM2 boasts almost eight-fold faster processing speed compared to the fastest DRAM chip GDDR5 currently. The chip is used in the latest processors of Intel and Nvidia to support AI and machine learning.
Комментариев нет:
Отправить комментарий