Показаны сообщения с ярлыком Samsung Exynos 9820. Показать все сообщения
Показаны сообщения с ярлыком Samsung Exynos 9820. Показать все сообщения

воскресенье, 7 июля 2019 г.

Новая система искусственного интеллекта в мобильных устройствах Samsung сможет обойтись без обращений к облачным сервисам. Эффективность работы нейросетевого процессора (NPU) повышена в 8 раз по сравнению с аналогами.




Алгоритмы глубокого обучения являются ключевым элементом искусственного интеллекта (AI), поскольку они представляют собой процессы, с помощью которых компьютер способен мыслить и учиться, как это делает человек.
NPU - это нейронный процессор, оптимизированный для вычислений алгоритма глубокого обучения, разработанный для эффективной обработки тысяч подобных вычислений одновременно.
В прошлом месяце Samsung Electronics объявил о своей цели - укрепить лидерство в мировой индустрии полупроводниковых систем к 2030 году путём расширения своих собственных разработок технологии NPU. Недавно южнокорейский техногигант представил свои открытия в этой области на конференции по компьютерному зрению и распознаванию образов (CVPR), одной из ведущих научных конференций такого профиля.
Сотрудники передового технологического института Samsung (Samsung Advanced Institute of Technology или сокращённо SAIT), специализирующееся на разработке, тестировании и производстве новых чипов, сообщили, что им удалось добиться прорыва в алгоритме работы искусственного интеллекта. За счёт множества нововведений чипы Samsung будут в 8 раз производительнее, чем ныне существующие 32-разрядные серверные нейросетевые процессоры (NPU).
Разработка южнокорейского электронного гиагнта весьма многообещающа. Новый NPU назвали Quantification1 Interval Learning (QIL). Он преобразует данные в группы из менее 4 бит, сохраняя при этом точность их распознавания. Все вычисления происходят непосредственно внутри устройства без необходимости их отправки в облако. Технология занимает в 4 раза меньше памяти и работает в 8 раз быстрее предшественников.
QIL позволяет сократить необходимое количество вычислений и, соответственно, уменьшить число транзисторов в 120 раз. Метод обработки алгоритма глубокого обучения здесь гораздо быстрее и энергоэффективнее, чем в уже существующих решениях. В то же время оптимизация вычислений и упрощение чипов позволят в разы ускорить функции вроде разблокировки посредством сканера отпечатков пальцев.
Кроме того, отказ от облачных вычисление и наличие AI в устройстве обеспечат максимальную стабильность обработки данных. Например, в системах автопилотирования любая задержка обработки при отправке данных в облако может иметь трагические последствия. Но решение инженеров Samsung позволяет  устранить такую проблему.
Многие ведущие производители электроники уже обратили внимание на эту разработку Samsung, что в обозримой перспективе должно принести корпорации дополнительную прибыль, поскольку техногигант собирается использовать такое решение не только в своих устройствах, но и продавать новые NPU сторонним заказчикам.

Samsung Electronics Introduces A High-Speed, Low-Power NPU Solution for AI Deep Learning

Deep learning algorithms are a core element of artificial intelligence (AI) as they are the processes by which a computer is able to think and learn like a human being does. A Neural Processing Unit (NPU) is a processor that is optimized for deep learning algorithm computation, designed to efficiently process thousands of these computations simultaneously.
Samsung Electronics last month announced its goal to strengthen its leadership in the global system semiconductor industry by 2030 through expanding its proprietary NPU technology development. The company recently delivered an update to this goal at the conference on Computer Vision and Pattern Recognition (CVPR), one of the top academic conferences in computer vision fields.
This update is the company’s development of its On-Device AI lightweight algorithm, introduced at CVPR with a paper titled “Learning to Quantize Deep Networks by Optimizing Quantization Intervals With Task Loss”. On-Device AI technologies directly compute and process data from within the device itself. Over 4 times lighter and 8 times faster than existing algorithms, Samsung’s latest algorithm solution is dramatically improved from previous solutions and has been evaluated to be key to solving potential issues for low-power, high-speed computations.

Streamlining the Deep Learning Process

Samsung Advanced Institute of Technology (SAIT) has announced that they have successfully developed On-Device AI lightweight technology that performs computations 8 times faster than the existing 32-bit deep learning data for servers. By adjusting the data into groups of under 4 bits while maintaining accurate data recognition, this method of deep learning algorithm processing is simultaneously much faster and much more energy efficient than existing solutions.
Samsung’s new On-Device AI processing technology determines the intervals of the significant data that influence overall deep learning performance through ‘learning’. This ‘Quantization1 Interval Learning (QIL)’ retains data accuracy by re-organizing the data to be presented in bits smaller than their existing size. SAIT ran experiments that successfully demonstrated how the quantization of an in-server deep learning algorithm in 32 bit intervals provided higher accuracy than other existing solutions when computed into levels of less than 4 bits.
When the data of a deep learning computation is presented in bit groups lower than 4 bits, computations of ‘and’ and ‘or’ are allowed, on top of the simpler arithmetic calculations of addition and multiplication. This means that the computation results using the QIL process can achieve the same results as existing processes can while using 1/40 to 1/120 fewer transistors2.
As this system therefore requires less hardware and less electricity, it can be mounted directly in-device at the place where the data for an image or fingerprint sensor is being obtained, ahead of transmitting the processed data on to the necessary end points.

The Future of AI Processing and Deep Learning

This technology will help develop Samsung’s system semiconductor capacity as well as strengthening one of the core technologies of the AI era – On-Device AI processing. Differing from AI services that use cloud servers, On-Device AI technologies directly compute data all from within the device itself.
On-Device AI technology can reduce the cost of cloud construction for AI operations since it operates on its own and provides quick and stable performance for use cases such as virtual reality and autonomous driving. Furthermore, On-Device AI technology can save personal biometric information used for device authentication, such as fingerprint, iris and face scans, onto mobile devices safely.
“Ultimately, in the future we will live in a world where all devices and sensor-based technologies are powered by AI,” noted Chang-Kyu Choi, Vice President and head of Computer Vision Lab of SAIT. “Samsung’s On-Device AI technologies are lower-power, higher-speed solutions for deep learning that will pave the way to this future. They are set to expand the memory, processor and sensor market, as well as other next-generation system semiconductor markets.”
A core feature of On-Device AI technology is its ability to compute large amounts of data at a high speed without consuming excessive amounts of electricity. Samsung’s first solution to this end was the Exynos 9 (9820), introduced last year, which featured a proprietary Samsung NPU inside the mobile System on Chip (SoC). This product allows mobile devices to perform AI computations independent of any external cloud server.
Many companies are turning their attention to On-Device AI technology. Samsung Electronics plans to enhance and extend its AI technology leadership by applying this algorithm not only to mobile SoC, but also to memory and sensor solutions in the near future.

1 Quantization is the process of decreasing the number of bits in data by binning the given data into sections of limited number levels, which can be represented in certain bit values and are regarded as having the same value per section
2 Transistors are devices that control the flow of current or voltage in a semiconductor by acting as amplifiers or switches

вторник, 18 июня 2019 г.

Samsung делает ставку на нейросетевые решения



Samsung Electronics, мировой лидер в сфере полупроводниковых технологий, объявил о планах по усилению возможностей своих нейронных модулей (NPU), чтобы с их помощью расширить сферу применения решений искусственного интеллекта.
Samsung намерен создать более 2000 новых рабочих мест во всём мире к 2030 году, что примерно в 10 раз превышает текущую численность персонала, задействованного в производстве модулей. Корпорация также укрепит сотрудничество со всемирно известными исследовательскими институтами и университетами, будет поддерживать развитие талантливых специалистов в области искусственного интеллекта (AI), в том числе глубокого обучения и нейронной обработки.
«По мере наступления эпохи искусственного интеллекта Samsung стремится достичь лучших в отрасли результатов с нашими инновациями в области нейронных модулей, — отметил Иньюп Канг, президент направления System LSI в Samsung Electronics. — Поскольку мы используем дифференцированные технологии, тесно сотрудничаем с глобальными институтами и активно инвестируем в лучшие кадры, то с нетерпением ждём возможности в будущем с помощью AI вывести процесс обработки данных на новый уровень».
Samsung представил свой первый нейронный модуль (NPU) на Exynos 9820 в прошлом году и планирует продолжать внедрение передовых встроенных AI-технологий для высокоэффективных мобильных чипсетов. Сфера применения NPU от Samsung будет расширена до процессоров, встроенных в автомобильные компьютеры (IVI), и усовершенствованных систем помощи водителю (ADAS), а также датацентров следующего поколения, оптимизированных для обработки больших данных.
Направление System LSI и Samsung Advanced Institute of Technology (SAIT) – входит в Samsung R&D — планируют развивать текущие исследования в области изучения NPU и новых технологий аппаратного программного обеспечения на базе искусственного интеллекта, таких как нейроморфный процессор, который работает подобно человеческому мозгу.

Samsung Electronics to Strengthen its Neural Processing Capabilities for Future AI Applications

Samsung Electronics, a world leader in advanced semiconductor technology, today announced that it will strengthen its neural processing unit (NPU) capabilities to further extend the reach of its artificial intelligence (AI) solutions.
In line with its focus on next-generation NPU technologies, Samsung plans to create over 2,000 related jobs worldwide by 2030, which is about 10 times the current headcount. The company will also expand upon its existing collaboration with globally distinguished research institutes and universities, and support the nurturing of future talent in the field of AI, including deep learning and neural processing.
“For the coming age of AI, Samsung is committed to delivering industry-leading advancements brought to life by our NPU technologies,” said Inyup Kang, president of System LSI Business at Samsung Electronics. “As we leverage our differentiated technology, close partnerships with global institutes and active investment in top talent, we are excited to take future AI processing capabilities to the next level.”
Samsung introduced its first NPU in the company’s premium mobile processor, the Exynos 9820, last year and plans to continue offering advanced on-device AI features for high-performance mobile chips. Applications for Samsung’s NPUs will expand into areas such as automotive processors that power in-vehicle infotainment (IVI) and advanced driver assistance systems (ADAS), as well as next-generation datacenters optimized for big data processing.
The System LSI Business and Samsung Advanced Institute of Technology — Samsung’s R&D arm — together plan to extend and evolve the company’s current NPU research into novel AI hardware technologies such as neuromorphic processors that aim to operate at the level of a human brain.