Показаны сообщения с ярлыком AI Expert Voices. Показать все сообщения
Показаны сообщения с ярлыком AI Expert Voices. Показать все сообщения

среда, 11 ноября 2020 г.

Samsung AI Forum 2020: человечество в центре обсуждения будущего искусственного интеллекта







Ежегодно на Форуме по искусственному интеллекту, который проводится под патронажем Samsung Electronics, собираются эксперты со всего мира, чтобы обсудить последние достижения в области искусственного интеллекта (AI) и поделиться идеями о направлениях дальнейшего развития этих технологий.
2 и 3 ноября этого года эксперты, учёные и заинтересованные зрители собрались в виртуальном пространстве, чтобы поделиться последними достижениями в исследованиях AI и обсудить наиболее актуальные вызовы в этой сфере.

Оптимальное использование AI в стремительно меняющемся мире

Технологии искусственного интеллекта в последние годы быстро развиваются, в немалой степени благодаря напряжённой работе и научным проектам академических и корпоративных исследователей во всём мире. Но, учитывая существенные изменения, вызванные глобальной пандемией, в последнее время внимание было сконцентрировано на том, как AI можно использовать для решения реальных проблем и какие методы могут быть наиболее эффективными.
Первый день форума, организованный Институтом перспективных исследований и разработок Samsung (Samsung Advanced Institute of Technology, SAIT), открыл доктор КиНам Ким (Dr. Kinam Kim), заместитель председателя Совета директоров и генеральный директор подразделения Device Solutions в Samsung Electronics, который подчеркнул важность дискуссий о прошлом, настоящем и будущем AI, которые состоялись на мероприятии в этом году. Д-р Ким также подтвердил стремление Samsung Electronics сотрудничать с учёными по всему миру с целью разработки продуктов и услуг, способных сделать мир лучше.
Затем в первый день форума прошла серия выступлений приглашённых экспертов, в частности, ряда ведущих учёных из разных стран. Профессор Йошуа Бенжио из Монреальского университета, профессор Ян ЛеКун из Нью-Йоркского университета и профессор Челси Финн из Стэнфордского университета выступили первыми, после чего на форуме была вручена награда «Исследователь года в области искусственного интеллекта Samsung». Затем свои доклады представили профессор ДонХи Хэм (Prof. Donhee Ham), научный сотрудник Технологического института Samsung и профессор Гарвардского университета, доктор Тара Сайнат из Google Research и доктор Дженнифер Вортман Воган из Microsoft Research.

Выход AI на дальнейшие этапы развития

После выступлений приглашённых экспертов в первый день мероприятия состоялась виртуальная панельная дискуссия, которую модерировал вице-президент Samsung Electronics Янг Санг Чой. В дискуссии приняли участие проф. Бенджио, проф. ЛеКун, проф. Финн, д-р Сайнат, д-р Вортман Воган и д-р Иньюп Канг, президент направления System LSI в Samsung Electronics. «Мне очень приятно присоединиться к этому форуму, – отметил Канг. – Мне кажется, что я стою на плечах гигантов».
Участникам панели предложили обсудить способы преодоления сложностей в вычислениях, которые позволят вывести системы искусственного интеллекта на новый уровень и сделать их настолько же сообразительными, как человеческий мозг. Члены группы взвесили преимущества масштабирования нейронных сетей по сравнению с поиском новых алгоритмов, при этом д-р Канг отметил: «Мы должны протестировать оба варианта. Учитывая возможности человеческих синапсов, я сомневаюсь, что мы сможем достичь человеческого уровня с помощь современных технологий. В конце концов, мы добьемся этого, но нам определённо понадобятся и новые алгоритмы».
Проф. ЛеКун отметил, что исследования AI не ограничиваются только текущими методами масштабирования. «Нам не хватает некоторых важных составляющих, позволяющих достичь аналога человеческого интеллекта или даже интеллекта животного», – подчеркнул он, добавив, что, возможно, в ближайшем будущем учёные смогут разработать AI уровня животного – например, кошки. Проф. Финн согласилась с коллегой. «Современный искусственный интеллект даже не способен приготовить хлопья на завтрак, – отметила она. – Даже такие базовые вещи всё ещё выходят за рамки возможностей наших алгоритмов».
Опираясь на тему своего основного доклада, проф. Бенжио добавил, что для того, чтобы будущие системы обладали интеллектом, сопоставимым с умом ребёнка, необходимо разработать модель мира, основанную на обучении без учителя. «Наши модели должны вести себя как человеческие младенцы, чтобы активно стремиться к знаниям», – пояснил он.
Затем панельная дискуссия перешла к способам преодоления разрыва между текущими разработками и будущими технологиями уровня человеческого интеллекта, при этом все эксперты согласились, что им предстоит проделать большую работу по разработке систем, которые имитируют работу человеческих синапсов. «Многие современные направления исследований пытаются восполнить эти пробелы», – заявил проф. Бенжио.
Затем участники группы поделились мыслями о том, как сделать AI «более справедливым», учитывая предубеждения, присущие современному обществу, и обсудили баланс между государственным регулированием и корпоративными интересами, который необходимо найти для развития интеллектуальных систем. Д-р Вортман Воган выступила за разнообразие точек зрения на все части процесса построения системы. «Я хотела бы, чтобы процессы, которым должны следовать люди при разработке систем машинного обучения, регулировались, вместо того, чтобы людей заставляли достигать одинаковых результатов».
Последний вопрос, заданный группе, касался их мыслей о том, в какой сфере будет достигнут следующий успешный опыт применения сквозных моделей. «Цельные модели изменили сферу распознавания речи, уменьшив задержку и устранив необходимость подключения к интернету, – отметила д-р Сайнат. – Благодаря этому прорыву, в будущем подобные модели позволят выполнять такие задачи, как расшифровка длинных сообщений. Мы всегда говорим о наличии “одной модели, чтобы править всеми”. Это сложная и интересная сфера, возможности которой расширились благодаря сквозным моделям. Сегодня мы стремимся разработать модель, способную распознавать все языки в мире».

Совершенствование человеческого опыта с помощью AI

Второй день Форума был организован Samsung Research, центром передовых исследований и разработок Samsung Electronics, который отвечает за создание новых технологий для потребительских продуктов.
В своей вступительной речи д-р Себастьян Сэн, президент и глава Samsung Research, обрисовал области, в которых Samsung особенно стремительно развивает свои исследования в сфере AI, стремясь обеспечить реальные преимущества для своих пользователей, включая более традиционные области AI (видение и графика, речь и язык, робототехника), искусственный интеллект на устройствах и сферу здоровья для поддержания хорошего самочувствия.
После демонстрации ряда продуктов Samsung, оснащённых технологиями искусственного интеллекта, д-р Сэн подтвердил, что для максимального расширения возможностей искусственного интеллекта, которые смогут по-настоящему эффективно помогать людям, необходимо сотрудничество между корпоративными и академическими исследователями и совместный поиск новых решений.
После выступления д-ра Сэна во второй день Форума была организована серия докладов приглашённых экспертов об ориентированных на человека AI-системах, где, среди прочих, выступили проф. Кристофер Мэннинг из Стэнфордского университета, проф. Деви Парих из Технологического института Джорджии, проф. Суббарао Камбхампати из Университета штата Аризона и исполнительный вице-президент Samsung Research Дэниела Д. Ли, руководитель центра искусственного интеллекта Samsung в Нью-Йорке и профессор Корнеллского технологического института.
За выступлениями экспертов последовала живая панельная дискуссия, которую модерировал д-р Сэн. В ней приняли участие проф. Мэннинг, проф. Парих, проф. Камбхампати и исполнительный вице-президент Ли. Д-р Сэн начал обсуждение с вопроса о теме, затронутой в речи профессора Камбхампати – потенциальных проблемах, которые могут привести к риску манипулирования данными по мере развития AI. «Поскольку технологии искусственного интеллекта продолжают развиваться, нам важно следить за возникновением возможностей для манипуляции данными и работать над решением проблем, связанных с непреднамеренными искажениями информации в любых системах искусственного интеллекта», – пояснил проф. Камбхампати.
Затем д-р Сэн поднял вопрос, который наиболее заинтересовал аудиторию. Учитывая, что одним из практических вызовов в исследованиях AI является получение данных, экспертов спросили, считают ли они, что компании или исследователи нуждаются в создании новых средств обработки и управления данными. Признавая, что учёные часто борются за безопасность данных, в то время как компании имеют повышенные ограничения вокруг использования этих данных, проф. Парих обосновала необходимость поиска новых методов исследования, которые могут быть смоделированы с недостаточными данными или с сотрудничеством между академическими сообществами и промышленностью, включая открытые методы исследования. «Во многих областях существуют большие общедоступные наборы данных, – отметила она. – Исследователи за пределами компаний могут получить к ним доступ и использовать. Но в дополнение к этому, наиболее интересные области в AI сегодня – это те, где у нас не так много данных. Именно они представляют собой одни из самых основных вызовов и подходов».
Последний вопрос вернул дискуссионную группу к теме второго дня Форума – «AI, ориентированный на человека». Участников спросили, верят ли они, что AI будет способен сравняться с человеческим интеллектом в ближайшие 70 лет, поскольку именно этот период времени потребовался, чтобы достичь сегодняшнего уровня исследований AI. Исполнительный вице-президент Дэниел Ли заключил, что AI ещё предстоит пройти долгий путь, но 70 лет – это большой срок. «Я настроен оптимистично, – отметил проф. Ли. Но на этом пути есть много вызовов, с которыми компаниям нужно работать вместе».
«Сегодня мы достигаем пределов диапазона проблем, которые мы можем решить, используя только большое количество данных, – отметил профессор Мэннинг. – Прежде чем мы увидим подобные разработки AI в больших масштабах, необходимо сделать акцент на создании AI-систем, которые будут служить обычным людям, а не только огромным корпорациям».
Samsung AI Forum 2020 завершился словами благодарности всем экспертам, принявшим участие в двухдневной программе этого мероприятия, и выражением надежды на проведение AI-Форума 2021 в офлайн-формате. Все сессии и выступления Форума искусственного интеллекта Samsung 2020 можно посмотреть на официальном YouTube-канале Samsung.

Samsung AI Forum 2020: Humanity Takes Center Stage in Discussing the Future of AI

Each year, Samsung Electronics’ AI Forum brings together experts from all over the world to discuss the latest advancements in artificial intelligence (AI) and share ideas on the next directions for the development of these technologies.
This November 2 and 3, experts, researchers and interested viewers alike convened virtually to share the latest developments in AI research and discussed some of the most pressing and relevant issues facing AI research today.

Making the Best Use of AI in a Rapidly Changing World

AI technologies have developed remarkably in recent years, thanks in no small part to the hard work and diverse research projects being done by academic and corporate researchers alike all around the world. But given the rapid and significant changes brought on by the recent global pandemic, attention has recently been turning to how AI can be used to help solve real-life problems, and what methods might be most effective in order to create such solutions.
The first day of the forum, organized by the Samsung Advanced Institute of Technology (SAIT), was opened with a keynote speech by Dr. Kinam Kim, Vice Chairman and CEO of Device Solutions at Samsung Electronics, who acknowledged the importance of the discussions set to take place at this year’s AI Forum around the past, present and future of the role of AI. Dr. Kim also affirmed Samsung Electronics’ dedication to working with global researchers in order to develop products and services with meaningful real-world impact.
The first day of the Forum then continued with a series of fascinating invited talks given by several global leading academics and professionals. Professor Yoshua Bengio of University of Montreal, Professor Yann LeCun of New York University and Professor Chelsea Finn of Stanford University were the first three to present, following which the Samsung AI Researcher of the Year awards were presented. After this ceremony, SAIT Fellow Professor Donhee Ham of Harvard University, Dr. Tara Sainath of Google Research and Dr. Jennifer Wortman Vaughan of Microsoft Research gave their talks.

Taking AI to the Next Phases of its Development

The first day’s invited talks were followed by a virtual live panel discussion, moderated by Young Sang Choi, Vice President of Samsung Electronics, and attended by Professor Bengio, Professor LeCun, Professor Finn, Dr. Sainath, Dr. Wortman Vaughan and Dr. Inyup Kang, President of Samsung Electronics’ System LSI business. “It is my great pleasure to join this Forum,” noted Dr. Kang. “I feel as if I am standing on the shoulders of giants.”
Questions were given to the panel that invited the experts to discuss the ways in which computational bottlenecks can be overcome in order to take AI systems to the next level and be developed to possess the same intelligibility as the human brain. The panelists weighed the benefits of scaling neural nets as opposed to searching for new algorithms, with Dr. Kang noting that, “We have to try both. Given the scale of human synapses, I doubt that we can achieve the human level of intelligibility using just current technologies. Eventually we will get there, but we definitely need new algorithms, too.”
Professor LeCun noted how AI research is not just constrained by current scaling methods. “We are missing some major pieces to being able to reach human-level intelligence, or even just animal-level intelligence,” he said, adding that perhaps, in the near future, we might be able to develop machines that can at least reach the scale of an animal such as a cat. Professor Finn concurred with Professor LeCun. “We still don’t even have the AI capabilities to make a bowl of cereal,” she noted. “Such basic things are still beyond what our current algorithms are capable of.”
Building on the topic of his invited talk, Professor Bengio added that, in order for future systems to have intelligence comparable to that of the way humans learn as children, a world model will need to be developed that is based on unsupervised learning. “Our models need to act like human babies in order to go after knowledge in an active way,” he explained.
The panel discussion then moved on to the ways in which the community can bridge the gaps between current technologies and future, human-intelligence level technologies, with all the experts agreeing that there is still much work to be done in developing systems that mimic the way human synapses work. “A lot of current research directions are trying to address these gaps,” reassured Professor Bengio.
Next, the panel shared their thoughts on how to make AI ‘fairer’ given the inherent biases possessed by today’s societies, with the experts debating the balance that needs to be struck between systems development reform, institutional regulation and corporate interest. Dr. Wortman Vaughan made the case for introducing a diversity of viewpoints across all parts of the system building process. “I would like to see regulation around processes for people to follow when designing machine learning systems rather than trying to make everyone meet the same outcomes.”
The final question given to the panel asked for their thoughts on which field will be the next successful application area for end-to-end models. “End-to-end models changed the field of speech recognition by reducing latency and removing the need for internet connection,” noted Dr. Sainath. “Thanks to this breakthrough, going forward, you’re going to see applications of end-to-end models for such purposes as long meeting transcriptions. We always speak of having ‘one model to rule them all’, and this is a challenging and interesting research area that has been expanded by the possibilities of end-to-end models as we look to develop a model capable of recognizing all the languages in the world.”

Enhancing Human Experience through AI

The second day of the AI Forum 2020 was hosted by Samsung Research, the advanced R&D hub of Samsung Electronics that leads the development of future technologies for the company’s end-product business.
In his opening keynote speech, Dr. Sebastian Seung, President and Head of Samsung Research, outlined the areas in which Samsung has been accelerating its AI research to the end of providing real-world benefits to their users, including more traditional AI fields (vision and graphics, speech and language, robotics), on-device AI and the health and wellness field.
After showcasing a range of Samsung products bolstered with AI technologies, Dr. Seung affirmed that, in order to best extend the capabilities of AI to truly help people in meaningful ways, academic researchers and corporations need to come together to find best-practice solutions.

Putting the Future of AI into Perspective

Following Dr. Seung’s speech, the second day of the Forum proceeded with a series of invited talks around the theme of ‘Human-Centric AI’ by Professor Christopher Manning of Stanford University, Professor Devi Parikh of the Georgia Institute of Technology, Professor Subbarao Kambhampati of Arizona State University and Executive Vice President of Samsung Research Daniel D. Lee, Head of Samsung’s AI Center in New York and Professor at Cornell Tech.
The expert talks were followed by a live panel discussion, moderated by Dr. Seung and joined by Professor Manning, Professor Parikh, Professor Kambhampati and EVP Lee. Dr. Seung kicked off the discussion with a question about a topic raised in Professor Kambhampati’s speech around the potential issues that could lead to the risk of data manipulation as AI develops. “As AI technology continues to develop, it is important that we stay vigilant about the potential for manipulation and work to solve the issues of any AI systems’ inadvertent data manipulations,” explained Professor Kambhampati.
Dr. Seung then posed a much-requested viewer question to the panel. Given that one of the most practical concerns in AI research is the obtaining of data, the experts were asked whether they believe that companies or academic researchers need to develop new means of handling and managing data. Acknowledging that academics often struggle to secure data while companies possess alleviated data shortage problems yet elevated restraints around the usage of their data, Professor Parikh made a case for the need of new research methods that can be modeled with insufficient data or with cooperation between academia and industry, including open research methods. “In many areas, there are big public data sets available,” she noted. “Researchers outside of companies are able to access and use these. But further to this, some of the most interesting fields in AI today are the ones where we don’t have much data – these represent some of the most cutting-edge problems and approaches.”
The final question took the panel back to the theme of the AI Forum’s second day, ‘Human-Centered AI’, wherein the panelists were asked whether or not they believe that AI will be capable of equaling human intelligence in the next 70 years, since that is the period of time it has taken us to get to where we are today in the field of AI research. EVP Lee reasoned that AI still has a way to go – but that 70 years is a long time. “I am optimistic,” noted EVP Lee, “but there are lots of hard problems in the way. We need to have academics and companies working on a goal like this together.”
“We are currently reaching the limits of the range of problems we can solve using just lots of data,” summarized Professor Manning. “Before we see AI developments like this on a large scale, an area that we should emphasize is the production of AI systems that work for regular people, not just huge corporations,” he concluded.
The Samsung AI Forum 2020 ended with a warm thanks to all the esteemed experts who had taken part in the two-day Forum and a shared hope to hold next year’s Forum offline. All the sessions and invited talks from the AI Forum 2020 are available to watch on the official Samsung YouTube channel.

суббота, 7 ноября 2020 г.

Samsung AI Forum 2020 (день 2): люди в центре разработки AI-технологий



Второй день Форума искусственного интеллекта Samsung открыл д-р Себастьян Сэн (Dr. Sebastian Seung), президент и глава Samsung Research, подчеркнув в своей приветственной речи, что тема «AI, ориентированный на человека» во многом соответствует видению Samsung о создании продуктов и услуг, которые делают жизнь разнообразнее и удобнее.
Доктор Сэн подчеркнул важность сотрудничества между корпоративными и академическими исследователями в области AI. «В отличие от академических учёных, которые обладают большей свободой в развитии своих профессиональных интересов, корпоративные исследователи, которые изучают проблемы реального мира, часто сталкиваются с ограничениями в своей работе, – пояснил д-р Сэн. – Для того, чтобы преодолеть эти барьеры, компании стремятся найти креативные способы решения проблем и проводить по-настоящему инновационные исследования».
Далее д-р Сэн перечислил сферы, в которых Samsung развивает свою научную работу в сфере AI, подчеркнув, что корпорация расширяет деятельность и на классические области искусственного интеллекта, такие как зрение и графика, речь и язык, а также робототехника. Он отметил, что Samsung также прилагает большие усилия к созданию искусственного интеллекта на устройствах, в том числе с ограниченной вычислительной мощностью, ограниченным потреблением электроэнергии и т.д. Особое внимание, по его словам, уделяется сфере здоровья – очень увлекательной области, в которой AI, данные и устройства способны объединиться, чтобы принести пользу людям, стремящимся улучшить своё самочувствие.
Чтобы продемонстрировать общую картину, в рамках которой существуют исследования AI, д-р Сэн затем представил ряд продуктов Samsung, в которых применяются интеллектуальные технологии, отметив существующие технические вызовы, которые Samsung и другие исследователи AI по всему миру стремятся преодолеть, чтобы максимально расширить возможности искусственного интеллекта для помощи людям. «Исследования AI для того, чтобы сделать мир лучше, начинаются только тогда, когда мы глубоко задумываемся о том, как AI способен повлиять на нашу жизнь и изменить человеческое поведение», – заключил д-р Сэн.

Ключевые тезисы экспертов: основные выступления

Во второй день Samsung AI Forum 2020 выступили одни из самых авторитетных экспертов в области искусственного интеллекта в мире. Профессор Кристофер Мэннинг (Prof. Christopher Manning) из Стэнфордского университета, всемирно известный учёный в области обработки естественного языка (NLP), выступил с докладом под названием «Понимание естественного языка и разговорный AI». Мэннинг поделился текущим статусом и последними тенденциями в технологиях НЛП, отметив их быстрое развитие в последнее время, представил более точных диалоговых агентов и эффективных социальных роботов с открытым доменом на их основе. Профессор Деви Парих (Prof. Devi Parikh) из Технологического института Джорджии прочитала лекцию под названием «Мультимодальные и творческие системы искусственного интеллекта», в которой описала свою работу в области систем компьютерного зрения, с которыми люди могут взаимодействовать с помощью языка, а также систем искусственного интеллекта, способных помочь людям в их творческих и художественных начинаниях.
Профессор Суббарао Камбхампати (Prof. Subbarao Kambhampati) из Университета штата Аризона, член совета-учредителя некоммерческой организации «Партнёрство в области AI» (“Partnership on AI”, PAO), прочитал лекцию под названием «Синтез интерпретируемого поведения для систем искусственного интеллекта, ориентированных на человека». Используя несколько тематических исследований из своей работы, проф. Камбхампати подчеркнул растущую потребность в системах AI для синергетической работы с людьми в повседневной жизни и заявил, что для этого они должны демонстрировать поведение, интерпретируемое людьми.
Наконец, Дэниел Д. Ли (Prof. Daniel D. Lee), исполнительный вице-президент Samsung Research, глава центра искусственного интеллекта Samsung в Нью-Йорке и профессор Корнеллского технологического института, прочитал лекцию на тему «AI для роботов и людей». Он изучил технологии, используемые в новейших алгоритмах машинного обучения, и объяснил, что их можно использовать как для разработки более совершенных робототехнических систем, так и для улучшения повседневной жизни людей.
Форум по искусственному интеллекту, учреждённый Samsung – это ежегодное мероприятие, которое объединяет всемирно известных отраслевых экспертов и учёных, выступая платформой для распространения новейших тенденций, технологий и исследований в области AI. Форум представляет собой платформу для обмена идеями, результатами исследований, а также для обсуждения будущего AI. В 2020 году Samsung AI Forum проходил в онлайн формате на YouTube-канале Samsung.

[Samsung AI Forum 2020] Day 2: Putting People at the Center of AI Development

The Samsung AI Forum is an annual event that brings together globally renowned experts in the industry as well as across academia to serve as a platform with which to disseminate the very latest in AI trends, technologies, and research.
This year’s AI Forum, the fourth of its kind, is being held over two days this November 2 and 3. The second day of the event, hosted by Samsung Research, the advanced R&D hub of the company that leads the development of future technologies for Samsung Electronics’ SET (end-products) business, facilitated discussion around how industry experts and academics alike can further research into AI technologies, products, and services that directly impact and enhance the lives of all people.

AI Forum Day 2: Human-Centered AI

To open up the second day of the AI Forum 2020 on November 3, Dr. Sebastian Seung, President and Head of Samsung Research, gave a welcome speech that highlighted how the theme of the Forum’s second day, “Human-Centered AI,” is very much in line with Samsung’s vision of creating products and services that make all our lives richer and more convenient.
Dr. Seung outlined the importance of collaboration between corporate and academic AI researchers. “Unlike academic researchers, who have greater freedom to explore their professional interests, corporate researchers dealing with real-world issues often encounter constraints in their research,” explained Dr. Seung. “To overcome such restraints, companies are driven to find creative ways to problem-solve and to conduct truly innovative research.”
Dr. Seung went on to outline the areas in which Samsung has been progressing its AI research, highlighting how the company has been expanding its research into traditional AI fields such as vision and graphics, speech and language and robotics. He noted that the company has also been making great efforts with their on-device AI, with work being done to develop how AI functions on devices with limited computational power, limited electrical power consumption and other such constraints. He also highlighted the company’s focus on the field of health and wellness, stressing it as a very fascinating area wherein AI, data and devices can come together to benefit people in their health and wellness journeys.
In order to showcase the big picture within which AI research exists, Dr. Seung then presented a range of Samsung products that are infused with AI technologies, noting the existing technical challenges that Samsung and other AI researchers around the world should be looking to surmount in order to extend the capability of AI as much as possible to help people. “AI research for a better world only begins when we think deeply about how AI is capable of improving our lives and changing human behavior for the better,” concluded Dr. Seung.

Expert Highlights: Keynote Speeches

For the second day of the Samsung AI Forum 2020, some of the most prolific experts in AI worldwide were invited to participate in the Forum’s lectures and discussions. Professor Christopher Manning of Stanford University, a world-renowned scholar in the field of natural language processing (NLP), gave a presentation titled Natural Language Understanding and Conversational AI. Professor Manning shared the current status and latest trends in NLP technologies, highlighting the recent rapid development of such technologies, and introduced more accurate conversational agents and more effective open domain social robots based on them. Professor Devi Parikh of the Georgia Institute of Technology gave a lecture titled Multimodal and Creative AI Systems, in which she described her work into computer vision systems that humans can interact with via language and AI systems that can assist humans with their creative and artistic endeavors.
Professor Subbarao Kambhampati of Arizona State University, a founding board member of the nonprofit The Partnership on AI, gave a lecture titled Synthesizing Interpretable Behavior for Human-Aware AI Systems. Using several case studies from his research, Professor Kambhampati highlighted the growing need for AI systems to work synergistically with humans in everyday life and asserted that, for this to happen, the systems need to exhibit behavior interpretable by humans.
Lastly, Daniel D. Lee, Executive Vice President of Samsung Research, Head of Samsung’s AI Center in New York and Professor at Cornell Tech, delivered a lecture under the theme AI for Robots and People. He examined the technologies being used in the latest machine learning algorithms and explained how they can be used both to develop more advanced robotics systems and to improve people’s everyday lives.

пятница, 6 ноября 2020 г.

Samsung AI Forum 2020 (день 1-й): Как искусственный интеллект способен помочь в решении реальных проблем



Форум искусственного интеллекта Samsung – это ежегодное мероприятие, которое объединяет всемирно известных отраслевых экспертов и учёных, выступая платформой для распространения новейших тенденций, технологий и исследований в области AI (AI - сокращение англоязычного наименования Artifical Intelligence / искусственный интеллект).
В этом году 4-й Samsung AI Forum прошёл 2 и 3 ноября в онлайн-режиме из-за пандемии COVID-19. Первый день мероприятия, посвящённый передовым технологиям будущего, был организован Институтом перспективных исследований и разработок Samsung (Samsung Advanced Institute of Technology, SAIT) и научно-исследовательским центром Samsung. На нём участники обсудили, как наилучшим образом использовать AI-технологии в стремительно меняющемся современном мире, особенно в контексте беспрецедентных ситуаций, которые возникли из-за глобальной пандемии.

День 1: Прошлое, настоящее и будущее искусственного интеллекта

2 ноября доктор Ки-нам Ким (Dr. Kinam Kim), заместитель председателя Совета директоров и генеральный директор подразделения Device Solutions в Samsung Electronics, открыл первый день Форума искусственного интеллекта 2020 вступительной речью, в которой рассказал о значительном прогрессе в технологиях искусственного интеллекта за прошедшие годы. Он также отметил, что в связи с этим многие ожидают, что AI решит проблемы, вызванные нынешней пандемией, но подчеркнул, что, поскольку модели искусственного интеллекта основываются на огромных объёмах реальных данных и симуляций, смоделировать текущую пандемию и другие бедствия с помощью интеллектуальных технологий крайне сложно.
Д-р Ким поделился собственным мнением о том, как технологии искусственного интеллекта могут развиваться и использоваться для оказания значимого воздействия на проблемы реального мира, а также подчеркнул, что как крупный разработчик основных технологий в экосистеме искусственного интеллекта, Samsung Electronics активно сотрудничает с учёными по всему миру в поисках решений таких реальных проблем. Д-р Ким закончил свою вступительную речь надеждами на то, что в ходе Форума в этом году должны состояться содержательные дискуссии о настоящем и будущем технологий искусственного интеллекта и их пользе для человечества.

Признание ведущих талантов в сфере AI

В этом году на AI-форуме Samsung вручил первую награду «Исследователь года Samsung в сфере AI», созданную с целью выявления выдающихся исследователей в этой области из разных стран мира и поддержки их научной деятельности.
В этом году награды получили профессор Кён-хён Чо (Prof. Kyunghyun Cho) из Нью-Йоркского университета, профессор Челси Финн из Стэнфордского университета, профессор Сет Флаксман (Prof. Seth Flaxman) из Имперского колледжа Лондона, профессор Цзяцзюн Ву (Prof. Jiajun Wu) из Стэнфордского университета и профессор Чо Джуй Се (Prof. Cho-Jui Hsieh) из Калифорнийского университета в Лос-Анджелесе.
Профессор Кён-хён Чо, всемирно признанный исследователь в области обработки естественного языка, часто публикует статьи, получающие признание в областях медицины, биологии и оптимизации. «Для меня большая честь получить награду «Исследователь года Samsung в сфере AI», и я намерен продолжать работу в области искусственного интеллекта», – прокомментировал награду профессор Чо.

Ключевые тезисы экспертов: основные выступления

Профессор Йошуа Бенжио (Prof. Yoshua Bengio), который в этом году был сопредседателем форума и получил звание Профессора года Samsung в сфере AI, выступил с докладом «На пути к обнаружению причинных представлений». В своей лекции Бенжио объяснил, что до сих пор традиционные технологии глубокого обучения полагались на умозаключения для распознавания информации, поступающей от органов чувств, и получения выводов, однако технологии искусственного интеллекта вместо этого способны изучать причинно-следственную связь между скрытыми переменными, прежде чем делать выводы, способны приходить к заключениям так, как люди, и, следовательно, могут реагировать на незапрограммированные ситуации. Говоря о своём видении такого типа AI, профессор Бенжио поделился первоначальными результатами своего исследования и предложил пути развития технологии AI, опираясь на эти данные.

Профессор Ян ЛеКун (Prof. Yann LeCun) из Нью-Йоркского университета, исследователь, первый разработчик свёрточной нейронной сети, широко применяемой в технологиях распознавания видео, представил свою новейшую модель с самообучением. В отличие от обучения с учителем, при котором на каждый заданный набор данных предоставляется заданный ответ, модель самообучения подразумевает автономное создание вопросов и последующий поиск ответов в имеющихся в данных. Такой метод был применён к массивной лингвистической модели, способной генерировать предложения так, как это делают люди. Профессор ЛеКун подчеркнул, что самообучение похоже на познание мира ребёнком, и представил основанную на энергии модель, произошедшую из такого сравнения.

Профессор Челси Финн (Prof. Chelsea Finn) из Стэнфордского университета, работа которой сконцентрирована на мета-обучении, прочитала лекцию под названием «Мета-обучение: от быстрой адаптации к обнаружению симметрий». В своей лекции проф. Финн представила технологии мета-обучения, при которых AI, несмотря на изменения данных, может быстро адаптироваться к необученным данным, поделилась историями успеха применения этих технологий в области робототехники и создании лекарственных препаратов.

Профессор ДонХи Хэм (Prof. Donhee Ham), научный сотрудник Технологического института Samsung и профессор Гарвардского университета, выступил с докладом «Реконструкция мозга». В своей презентации он подчеркнул, что текущий уровень AI основан на человеческом мозге, но на самом деле работает не так, как мозг, из-за чего возможности технологии оказываются ограничены. Профессор Хэм представил передовые нейронные разработки, которые способны имитировать структуру и функции цепи человеческого мозга и самостоятельно создавать компьютерные интегральные схемы.

В мероприятии также приняли участие отраслевые эксперты. Доктор Тара Сайнат (Dr. Tara Sainath) из Google Research поделилась результатами последних исследований сквозных моделей, разработанных для распознавания речи, способных повысить точность, эффективность и многоязычность служб голосового помощника, широко использующихся на интеллектуальных устройствах.

Доктор Дженнифер Вортман Воган (Dr. Jennifer Wortman Vaughan) из Microsoft Research прочитала лекцию под названием «Разборчивость в жизненном цикле машинного обучения». Она поделилась концепцией машинного обучения, ориентированной на человека, подчеркнув, что для разработки справедливой системы машинного обучения, способной завоевать доверие людей, необходимо чёткое понимание системы людьми. Затем Вортман Воган представила результаты исследования, которые способны объективно подтвердить такой механизм.

Поскольку Форум искусственного интеллекта Samsung в этом году проводился в онлайн-формате, студенты и исследователи в сфере AI со всего мира могли участвовать в виртуальных обсуждениях и дискуссиях. При просмотре лекций форума на канале Samsung Electronics в YouTube участники могли задавать вопросы и получать ответы от докладчиков благодаря функции чата в реальном времени.

[Samsung AI Forum 2020] Day 1: How AI Can Make a Meaningful Impact on Real World Issues

The Samsung AI Forum is an annual event that brings together globally renowned experts in the industry as well as across academia to serve as a platform with which to disseminate the very latest in AI trends, technologies and research.
This year’s AI Forum, the fourth of its kind, is being held over two days this November 2 and 3. The first day of the event, hosted by the Samsung Advanced Institute of Technology (SAIT), Samsung’s R&D hub dedicated to cutting-edge future technologies, is enabling participants to facilitate discussions around how to make the best use of AI technologies in a way that can benefit our daily lives in a rapidly changing world, particularly within the context of the unprecedented situations that have arisen recently due to the global pandemic.

AI Forum Day 1: The Past, Present and Future of AI

On November 2, Dr. Kinam Kim, Vice Chairman & CEO of Device Solutions at Samsung Electronics, commemorated the start of the first day of the AI Forum 2020 by delivering an opening speech that highlighted how AI technologies have shown remarkable progress over the years. He went on to note that, given these changes, many are expecting AI to address the issues brought on by the recent pandemic, but highlighted that since AI bases its models on massive amounts of real-life data and simulations, the task of modeling the current pandemic and other natural disasters with AI was a daunting one.

Dr. Kim went on to provide his own views on the ways in which AI technologies can move forward and be harnessed to have meaningful impact on real world problems, and also highlighted that Samsung Electronics, as a major provider of core technologies in the AI ecosystem, is proactively co-operating with global researchers to seek solutions to such real world problems. Dr. Kim ended his opening speech with the expectation that meaningful discussions on the present and future of AI technologies and their benefit for humanity were set to take place during this year’s Forum.

Recognizing Leading Talent in the Field

At this year’s AI Forum, Samsung introduced their inaugural Samsung AI Researcher of the Year awards with the view to identify prominent emerging researchers in the field from around the world and to support their research activities.
This year’s Samsung AI Research of the Year awards went to Professor Kyunghyun Cho of New York University, Professor Chelsea Finn of Stanford University, Professor Seth Flaxman of Imperial College London, Professor Jiajun Wu of Stanford University and Professor Cho-Jui Hsieh of UCLA.

Professor Kyunghyun Cho, a globally recognized researcher in natural language processing, has been publishing a consistent stream of acclaimed papers across the medicine, biology and optimization disciplines. “I am honored to have received a Samsung AI Researcher of the Year award and am committed to developing AI-focused research further down the road,” said Professor Cho of the recognition.

Expert Highlights: Keynote Speeches

Professor Yoshua Bengio, who served as this year’s co-chair and was selected as Samsung AI Professor of the Year, gave a presentation titled Towards Discovering Casual Representations. In his lecture, Professor Bengio explained that, up until now, conventional deep learning technologies have been relying on inference to recognize sensual information and learn from it, but AI technologies that are instead capable of learning the causality between hidden variables before drawing conclusions could be capable of making inferences just as humans do, and hence would be able to respond to unprogrammed situations. With visions of such a type of AI in mind, Professor Bengio shared the initial outcomes of his research and suggested how, based on this, AI technologies can make steps forward.

Professor Yann LeCun of New York University, a researcher who pioneered the Convolutional Neural Network widely applied to video recognition technologies, presented his latest model related to Self-Supervised Learning. Unlike supervised learning which returns a given answer to each given data set, self-supervised learning adopts a learning model consisting of autonomously creating questions within data and subsequently finding answers. Such a method has been applied to a massive linguistic model capable of generating sentences just as people do. Professor LeCun highlighted how self-supervised learning is similar to the way children experience and learn the world, and presented an energy-based model based on such a comparison.

Professor Chelsea Finn of Stanford University, a young researcher in the spotlight within the field of meta learning, gave a lecture titled From Few-Shot Adaptation to Uncovering Symmetries. In her lecture, Professor Finn introduced meta learning technologies in which AI, in spite of changes in data, can adapt swiftly to untrained data, and proceeded to share success stories of the application of these technologies in the areas of robotics and new drug candidate material design.

Professor Donhee Ham, Fellow at the Samsung Advanced Institute of Technology and Professor at Harvard University, delivered a presentation titled Reconstruction of the Brain. In his presentation, he highlighted that the current level of AI is based on the human brain but in fact works in a way different from how the brain functions, causing limitations to its capability. Professor Ham introduced cutting-edge neural science technologies that could mimic the structure and functionalities of the human brain circuit and create computer integrated circuits on their own.

Industry experts also took part in giving presentations. Dr. Tara Sainath of Google Research released the latest research outcomes of end-to-end models developed for speech recognition capable of enhancing the accuracy, efficiency and multi-lingual capability of voice assistant services widely available across smart devices.

Dr. Jennifer Wortman Vaughan of Microsoft Research gave a lecture titled Intelligibility Throughout the Machine Learning Life Cycle. She shared a human-centric machine learning concept, highlighting that, in order to develop a fair machine learning system capable of garnering the trust of people, people’s clear understanding of the system is required. Dr. Wortman Vaughan then introduced research outcomes that can objectively verify such a mechanism.

Since the Samsung AI Forum 2020 was held virtually this year, students and researchers alike in the AI research field from all over the world were able to engage in online discussions and exchanges. When tuning in to the Forum’s lectures on Samsung Electronics’ YouTube channel, attendees could ask questions to and receive answers from the distinguished speakers thanks to a real-time chat functionality.

вторник, 6 октября 2020 г.

Samsung проведёт онлайн-форум по искусственному интеллекту в следующем месяце

 


В сегодняшнем пресс-релизе Samsung Electronics Co. сообщает, что в следующем месяце проведёт онлайн-форум по искусственному интеллекту (AI), чтобы поделиться мнениями экспертов о будущих технологиях, связанных с математическими алгоритмами, имитирующими человеческое мышление.
Южнокорейский техногигант заявил, что из-за продолжающейся пандемии Samsung AI Forum 2020 пройдёт в режиме онлайн на официальном YouTube-канале 2 и 3 ноября.
Ежегодный форум, который в 2020-м отмечает свой 4-й день рождения, стал весьма значимой платформой для обмена мнениями между исследователями и разработчиками AI, где они рассказывают о своих последних достижениях и делятся планами на будущее.
Samsung Advanced Institute of Technology (SAIT), подразделение конгломерата Samsung Group, занимающееся исследованиями и разработками (R&D), проведёт первые сессии на тему «Технологии искусственного интеллекта для изменений в реальном мире» с Ким Ки-Намом, генеральным директором и главой бизнес-подразделения Samsung по решениям для электронных устройств, который откроет указанное мероприятие.
Во второй день Samsung Research, основной центр исследований и разработок корпорации, проведёт сессии на тему «AI, ориентированный на человека».
Samsung заявил об учреждении награды Samsung AI Researcher of the Year для поощрения молодых учёных в области искусственного интеллекта.
По данным Samsung, лауреат премии выбирается среди исследователей искусственного интеллекта в возрасте до 35 лет. Победитель получит денежный приз в размере 30.000 долларов США и возможность выступить со своей презентацией на форуме.
«Мы надеемся, что Samsung AI Forum 2020 будет способствовать лучшему пониманию разработок технологий искусственного интеллекта и их приложений, которые могут оказать положительное влияние на жизнь людей», - сказал Себастьян Сэнг, глава Samsung Research. «Учитывая, что в этом году форум будет проводиться онлайн, я надеюсь, что это мероприятие привлечёт большое внимание тех, кто интересуется технологиями искусственного интеллекта».

Samsung to host annual AI forum online next month

Samsung Electronics Co. said Tuesday it will hold an artificial intelligence (AI) forum online next month to share experts' insights on future technologies related to human-like algorithms amid the pandemic.
The South Korean tech giant said the Samsung AI Forum 2020 will take place online via its YouTube channel on Nov. 2 and 3.
Entering its fourth anniversary this year, the annual forum has been a platform for AI researchers to discuss their findings and ideas on the future of AI.
Samsung Advanced Institute of Technology (SAIT), a research and development (R&D) unit of the company, will host the opening day sessions under the theme "AI Technologies for Changes in the Real World," with Kim Ki-nam, the CEO and head of Samsung's device solutions business division, delivering opening remarks.
On the second day, Samsung Research, an R&D hub of the company's set business, will lead the sessions under the theme "Human-Centered AI."
Samsung said it has established the "Samsung AI Researcher of the Year" award to encourage young AI scientists.
The award recipient is selected among AI researchers aged 35 or younger, according to Samsung. The winner will get a cash prize of US$30,000 and have an opportunity to deliver a presentation at the forum.
"We hope that Samsung AI Forum 2020 will contribute to enhanced understanding of AI technology developments and its applications that can bring positive impact to human lives," Sebastian Seung, head of Samsung Research, said. "Especially since this year's forum will be held online, I hope that the event will be an opportunity for greater participation of those interested in AI technologies."

четверг, 12 марта 2020 г.

Эндрю Блэйк – директор Samsung AI Center в Кэмбридже: Встроенный искусственный интеллект требует междисциплинарного подхода




В последнее время искусственный интеллект (AI) стал одной из самых обсуждаемых тем в контексте влияния как на отрасль, так и на общество. Особенно острую полемику сегодня вызывают вопросы этики и сохранения данных при работе с AI. Точки зрения полярно расходятся в зависимости от того, идёт ли речь о технологии, требующей вычислительных мощностей в облаке, или рассматриваемой в качестве интегрированного AI(1) решения.
О будущем встроенного AI и о том, как инновационные решения на базе этой технологии обогатят жизнь людей, рассказывает основатель Института Алана Тьюринга, а ныне глава Центра искусственного интеллекта Samsung Electronics в Кембридже (Великобритания) доктор Эндрю Блейк.
«Искусственный интеллект – это то, что вдохнёт жизнь в Интернет вещей. Встроенный AI реализует интеллектуальные функции, обрабатывая алгоритмы на самом устройстве, без обязательного подключения к облаку, что безопасно с точки зрения конфиденциальности и защиты личной информации», – говорит доктор Блэйк. – «Одной из ключевых областей применения встроенного AI является сфера здравоохранения и фитнеса – например, трекинг упражнений, питания и психофизических параметров человека. Для того, чтобы интегрировать в эту систему общение и воспоминания (в частности, фото и видео), нужно выйти за пределы академического мира прототипов, работающих на мощных компьютерных системах, и научить AI работать на бытовых устройствах, которые используют люди».
Благодаря своему широкому портфолио устройств, Samsung уникальным образом подготовлен для формирования будущего AI, ориентированного на человека. «Я родился тогда же, когда и искусственный интеллект – в 1956 году, когда на конференции в Дартмуте был создан этот термин. Я изучал концепцию AI в течение 40 лет. Опираясь на этот опыт, и принимая во внимание лидирующие позиции Samsung на рынке самых разнообразных устройств, сейчас самое подходящее время для включения новых аспектов в возможности искусственного интеллекта», – отмечает Блейк. – «Встроенный AI начинается с аппаратного обеспечения, которое позволяет поместить интеллектуальные алгоритмы в карманы и дома каждого. Одной из самых сложных задач, над которой работает AI-Центр Samsung в Кембридже – выход высококачественного встроенного AI за пределы исследовательских лабораторий».
По мнению доктора Блейка, обработка алгоритмов AI на самом устройстве, а не в облаке, даёт значительные преимущества, обеспечивая безопасные и надёжные средства для защиты конфиденциальности пользователей и данных. Что особенно важно в условиях демократизации технологии и её применения для решения потребностей человека.
«Ориентированный на потребности человека AI требует междисциплинарного подхода. Меня не очень радует перспектива будущего, разработанного исключительно инженерами. Для создания технологии будущего, которая действительно поможет людям жить лучше, нам необходимо уделять особое внимание дизайну аппаратных средств, пользовательских интерфейсов и, прежде всего, проектированию систем на базе гуманитарных наук, таких, например, как психология» – говорит Эндрю Блейк.
С помощью такого междисциплинарного подхода специалисты AI-Центра в Кембридже стремятся лучше понять поведение человека, исследуя такие области, как передача эмоций(2).
В британском AI-Центре Samsung работает команда экспертов в различных дисциплинах. Среди них специалисты мирового уровня по невербальному поведению человека и встроенному AI, а также немало высококлассных учёных в области машинного обучения, компьютерного зрения, когнитивных технологий. Кембриджский университет – один из самых сильных в мире, что сочетается с уникальной культурой исследовательских учреждений и целым комплексом стартапов в сферах робототехники, медицины, искусственного интеллекта, автономного вождения и многих других.

1 AI, который обрабатывает информацию на самом устройстве, а не отправляет её в облако. Поскольку AI на устройстве не зависит от внешних сетей, он считается более безопасным и надежным, чем AI на базе облачных решений
https://internetofbusiness.com/samsung-uk-to-open-new-ai-centre/

[Hearing from an Samsung AI Expert] On-device AI Breathes Life into IoT

As technology has evolved, it has changed our lives dramatically. It’s truly startling to think just how different life was before the invention of innovations like smartphones, the internet and PCs.
Recently, AI has emerged as a hot topic in this regard based on its potential impact both on technology and on society. Especially with on-device AI1, AI will be embedded in devices that we use in everyday lives without necessarily connecting to processors in the cloud. To learn more about this exciting subject, Samsung Newsroom met with the head of the Samsung AI Center Cambridge, Dr. Andrew Blake.
Dr. Blake was formerly the Director of both the Alan Turing Institute (which he also helped found) and, before that, Microsoft’s Cambridge Research Laboratory. As a pioneer in the development of the theory and algorithms that make it possible for computers to behave as seeing machines, he explained how Samsung’s AI and hardware innovations will enrich people’s lives in fundamental ways.

Taking IoT to the Next Level

“AI is what is going to breathe life into IoT,” begins Blake.
On-device AI realizes AI functions by processing AI algorithms on the device itself, without necessarily connecting to the cloud, and that is advantageous for privacy and personal information protection, as well as for security.
Unlocking AI-powered smart devices’ true potential will require a combination of two factors: seamlessly connected hardware and an approach to AI that is human-centric above all else.
“One key area is health and fitness – for example, linking exercise, food and mental wellbeing. Another is communication and memories – especially via photography and video. For that, we have to move past the academic world of prototypes working on high-powered computer systems, and get AI working in a leaner fashion – on the everyday devices that people are using.”

The Right Tools

As Blake notes, Samsung’s wide-ranging device portfolio makes it uniquely qualified to deliver this human-centric future for AI.
“This is a great time to be adding new dimensions to Samsung’s AI capabilities, given the company’s leading market position in devices of all sorts,” says Blake. “On-device AI begins with hardware, and this is why working for Samsung is such a fabulous opportunity for AI researchers.”
“Hardware is the channel that moves us beyond simply smart algorithms, to put those algorithms in everyone’s pockets and homes. The big challenge that Cambridge is addressing is moving high-quality embedded AI beyond specialists’ research labs, where people with PhDs in machine learning and in systems work for several months to implement a new embedded system. We envisage a world where advanced tools enable the world’s software developers to move their AI models, simply and effectively, onto Samsung devices, and we are working hard on those tools.”
As Blake explains, on-device AI, in which AI algorithms are processed on a device itself, rather than sent to the cloud, offers significant advantages here by providing a safe and reliable means to protect users’ privacy and data. “We also need to do that in a way that holds the data close, to reassure people that their data is being held safely and privately,” he added.

A Multi-Disciplinary Approach

When it comes to AI, what exactly does the Cambridge AI center want to bring to consumers? The answer to that question is what Samsung has described as a human-centric approach to AI innovation, which Blake describes in further detail.
“Human-centric AI is about homing in on the areas of life that people really care about,” says Blake. “I believe this will require a multi-disciplinary approach. I am not so excited about a future designed solely by engineers. Instead, we need to collaborate with other disciplines, especially design – hardware, user interfaces, and above all, system design – and with human disciplines such as psychology, to achieve a technological future that really helps people live better.”
Taking this multi-disciplinary approach, the Cambridge AI center endeavors to better understand human behavior by exploring areas like communication of emotion, and further expand the boundaries of user-centric communication.2

Drawing from a Diverse Team

Samsung AI Center Cambridge employs a team of experts of various disciplines, and emphasizes collaboration between them.
“We work together a lot as a team,” says Blake. “Our two Program Directors, Maja Pantic and Nic Lane, are world-experts in non-verbal human behavior and in embedded AI, respectively. We also have quite a few senior specialists in machine learning, in machine vision, in networks and devices, and in computing and cognition. We now have a team of very talented people, and new ideas are flowing freely!” says Blake.
As Blake notes, what makes the Cambridge AI center unique is not just its team’s wide-ranging expertise, but its location as well.
“Cambridge is a very special place,” begins Blake. “The university is one of the strongest in the world in research, and that is coupled with an extraordinary culture of research ventures, and a whole constellation of startups in robotics, medicine, AI, self-driving, and many other areas.”
“Being in this environment is important to us for several reasons. It is a stimulating ecosystem and an extraordinary network; it is a rich source of expert talent; it is well connected to the ‘Golden Triangle’ with London and Oxford.”
Of course, in addition to taking full advantage of the benefits that come with its location, the Cambridge center draws strength from its connections to other AI centers in Samsung Research’s global network.
“I am especially pleased to be connected with Samsung’s other AI centers around the world, where I know some of their internationally renowned scientists well,” says Blake. “I believe that, as we begin to work together, we can bring something special to consumers.”
Having more than 40 years of experience working in the field of AI, Blake added, “I was born in the same year as AI – 1956 – the year the Dartmouth conference famously coined the term AI – and I have been studying AI vision for 40 years. I have been lucky to have such an extraordinary career.”

1 AI that processes information on a device itself, rather than sending that information to the cloud. Because on-device AI does not rely on outside networks, it is regarded as safer and more reliable than cloud-based AI.
https://internetofbusiness.com/samsung-uk-to-open-new-ai-centre/

вторник, 25 февраля 2020 г.

Компьютерное зрение – это восприятие мира. Взгляд экспертов Samsung




Можете ли вы представить себе мир, в котором персональный AI-помощник на вашем смартфоне способен понять столько же, сколько и вы? А общаться с этим виртуальным ассистентом, настолько же естественно и легко, как с другим человеком? Команда Центра искусственного интеллекта Samsung в Торонто занимается созданием именно таких возможностей.

Центр искусственного интеллекта в Торонто расположен в академическом кластере, в непосредственной близости к различным учреждениям мирового уровня, связанным с искусственным интеллектом, включая Университет Торонто, Йоркский университет и Университет Райерсона. Такое расположение даёт огромное преимущество – в университете Торонто располагается факультет компьютерных наук (DCS), который входит в десятку лучших международных учреждений. Более половины сотрудников центра являются преподавателями, выпускниками или нынешними студентами DCS. Глава AI-центра Samsung в Торонто Свэн Дикинсон – эксперт в области компьютерного зрения и бывший заведующий кафедрой компьютерных наук в Университете Торонто, рассказал о перспективах развития этой технологии.

Взгляд на компьютерное зрение

Центр искусственного интеллекта Samsung в Торонто специализируется на разработке технологий визуального понимания. Команда специалистов Центра работает над мультимодальными взаимодействиями формата «пользователь-устройство», которые включают в себя зрение, язык и знания.
«Восприятие мира посредством компьютерного зрения поможет устройствам “визуально обосновать” свой диалог с пользователем и предоставить интегрированный мультимодальный интерфейс, гораздо более естественный, чем основанный исключительно на зрении или диалогах», – рассказал Дикинсон.
«Пользователь не должен читать руководства, чтобы выяснить, какие кнопки и в каком порядке он должен нажимать на смартфоне. Скорее, нужно показать устройству, что я (как пользователь) хочу, и рассказать ему об этом на естественном языке, понятном всем в мире, в котором я живу. Чтобы достичь такой широты понимания, гаджет должен взаимодействовать со мной надежным и естественным образом, а также видеть и понимать тот же мир, что наблюдаю я сам».
По мнению Дикинсона, подобно тому, как отказ от одного из форматов общения (аудио, речь, зрение и т. д.) будет препятствовать взаимодействию между двумя людьми, это в равной степени относится и к гаджетам.

Значение расширенного пользовательского опыта

Samsung ежегодно продаёт 500 миллионов устройств, оснащённых интеллектуальными функциями. Дикинсон подчёркивает, что широкое продуктовое портфолио Samsung поможет в реализации концепции подключённого образа жизни: «Samsung отличается тем, что выпускает множество потребительских устройств, включая цифровую технику, телевизоры и мобильные телефоны. У корпорации есть уникальная возможность объединить эти гаджеты общим интерфейсом, который будет сопровождать пользователя при переключении от одного устройства к другому, и из одной комнаты в другую. Это поможет реализовать весь потенциал каждого устройства для эффективной связи, помочь  человеку выполнять необходимые задачи, изучить его привычки и предпочтения, чтобы последующее общение было простым и полезным».
Дикинсон отмечает, что для массовой реализации решений на базе компьютерного зрения и мультимодального взаимодействия «по-настоящему интеллектуальные AI-системы должны обладать пониманием нашего мира, физики его причинно-следственных связей, геометрии и динамики. Если наши устройства могут видеть трёхмерный мир, в котором мы живём, то есть понимать трёхмерные формы, позиции и идентичность объектов в нашей общей среде, они будут воспринимать мир так, как мы. Этот общий визуальный контекст будет иметь решающее значение для разработки полноценных персональных помощников. Samsung является лидером в разработке взаимодействия между человеком и устройством, которое имитирует взаимодействие между людьми. Мы работаем над обеспечением визуальной базы и поддержки представления знаний для диалоговых сервисов взаимодействия».

Взаимодействие человека и устройства на основе открытого обмена информацией

Дикинсон поясняет, что AI должен быть понятен владельцу смарт-гаджета. Он отмечает, что после невыполнения задачи или предоставления соответствующего ответа «устройство должно быть способно обосновать, почему оно дало этот ответ (или же объяснить его отсутствие). В лучшем случае он должен иметь возможность взаимодействовать с пользователем, задавая вопрос или прося его настроить свою камеру или другие режимы ввода, чтобы у искусственного интеллекта была возможность собрать больше информации и сформулировать соответствующий ответ».
Такой вид обмена информацией называется областью «активного диалога и активного видения». Это будет ключом к дальнейшему совершенствованию взаимодействия человека и устройства. Так как в данном случае система сможет построить ментальную модель того, что понятно пользователю. И открыть эту модель, чтобы человек был в состоянии считать мыслительные процессы устройства.

[Hearing from an AI Expert – 3] Vision is About Understanding the World

Can you imagine a world where the personal AI assistant on your smartphone is able to understand as much about the world as you do? What about a scenario where communicating with that AI assistant is as natural and easy as interacting with another human? Developing those kinds of capabilities is exactly what the team at Samsung’s AI Center in Toronto are putting their minds to.
Samsung Newsroom sat down with Sven Dickinson, Head of Samsung’s Toronto AI Center to learn more about these exciting fields, and what they could mean for the future.

The Vision for Vision

The second Samsung AI center established in North America, Samsung’s Toronto AI Center is led by Dr. Sven Dickinson, an expert in computer vision and former chair of the Department of Computer Science at the University of Toronto.
At the epicenter of AI research and development, Samsung’s Toronto AI Center is mainly focused on developing the visual understanding capabilities that allow a Samsung device to understand the world in which it’s situated. In addition, the team is working on multi-modal interactions, which are user-machine interactions that encapsulate vision, language and knowledge.
“Allowing Samsung devices to ‘see the world’ through computer vision enables them to ‘visually ground’ their dialog with the user, providing an integrated, multimodal experience that’s far more natural than one that’s solely vision or dialog-based” says Dickinson, whose expertise includes exploring problems surrounding shape perception and object recognition.
Touching on the benefits of multimodal technology, Dickinson claims that, “I should not have to read manuals to figure out which buttons to push on my device and in which order. Rather, I should be able to show my device what I want, and tell it what I want, in natural language that is understandable, and situated in the world that I live in.”
Extrapolating on the interplay between computer vision and multimodal inputs, he goes on to say that, “To achieve this breadth of comprehension, the device has to have a model of my understanding of the world, the capacity to communicate robustly and naturally with me, and the ability to see and understand the same world that I see.”
Remarking on applications for this technology, Dickinson identifies the most compelling as being “a personal assistant that you not only speak to, but that sees the world the same way that you do.” Speaking to the importance of multi-modal device interactions, Dickinson points out how much cancelling out one of the modes of communication (audio, speech, sight etc.) would hamper communication between two people, and says that also applies to personal devices.

A Truly Enhanced User Experience is Key

At the 2019 Consumer Electronics Show (CES), Samsung unveiled its vision for Connected Living, which involves connecting the 500 million devices the company sells every year, and making them intelligent. Dickinson highlights that Samsung’s broad product portfolio will be instrumental in fulfilling this vision, saying that, “What differentiates Samsung is that it makes a multitude of devices in the home, including digital appliances, TVs, and mobile phones. Samsung has a unique opportunity to leverage these devices to yield a multi-device experience which follows the user from one device to another, and one room to another. This will help realize the full potential of each device to effectively communicate, to help the user execute device-specific tasks, and to learn the user’s habits and preferences so that subsequent communication is not intrusive but instead ‘always helpful.’”
Speaking about what his center will need to do to truly realize computer vision and multimodal interaction, Dickinson comments that, “Vision is not about understanding images; vision is about understanding the world. Truly capable AI systems must possess an understanding of our world, of its physics and causality, of its geometry and dynamics. They must also be able to model and understand human behavior.” He extrapolates on this by pointing out that, “If our devices can see the 3D world that we live in the same way as we do, i.e., understand the 3D shapes, positions and identities of objects in our shared environment, then our devices can visually experience the world as we do. Such a shared visual context will be crucial in developing fully realized personal assistants.”
Dickinson says that Samsung is leading the charge when it comes to truly intelligent visual understanding, and identifies ‘visual grounding’ as an essential pre-requisite for well-rounded visual understanding capabilities. “Samsung is leading the way when it comes to developing human-device interaction that closely mimics human-human interaction,” Dickinson says, “We aim to provide visual grounding and knowledge representation scaffolding for dialog-based interaction services. Without these components in place, users become disappointed with services, and quickly tune out.”

Human-device Interactions Based on Open Information Sharing

Dickinson goes on to explain that AI also needs to be able to explain itself to the user. He remarks that, after failing to carry out a task or provide an appropriate response, “A device should be able to reflect to the user precisely how and why it came up with that response (or lack thereof). Ideally, it should be able to follow up with the user by asking a question or asking the user to adjust its camera or other input modes so that it can gather more information and formulate an appropriate response.” Dickinson relates that this kind of openness and information sharing will be key to the further sophistication of human-device interactions, noting that “What we call the domain of ‘active dialog and active vision’ is where the system can construct a mental model of what the user understands, and can, in turn, open up its own mental model so that the user can understand the thought processes of the device.”

The Benefits of Being Based in Toronto

Asked about how being based in Toronto affects the AI center, Dickinson remarks that the center enjoys a lot of benefits due to its close proximity to various world-class AI-related institutions, including the University of Toronto, York University and Ryerson University. “Being in Toronto offers us a tremendous regional advantage,” Dickinson comments, “We are across the street from the University of Toronto, home to the Department of Computer Science (DCS), which is one of the top-10 international computer science departments. Over half the members of our AI Center are either active faculty, graduates or current students at DCS.”
On the topic of collaboration between Samsung’s global AI centers, Dickinson relates that, “The seven global AI centers are working to create industry-leading solutions in their respective areas of focus, while coordinating to achieve the common goal that is realizing Samsung’s ultimate AI vision.” Dickinson touches on the topic of the Toronto AI center collaborating with other AI centers further afield, saying that, “We are starting to explore possible research collaborations with other global AI centers, and hope to converge on some use cases of value to Samsung and its products and services.”

пятница, 24 января 2020 г.

Заменит ли искусственный интеллект человека? Взгляд экспертов Samsung



Ни одно обсуждение о будущем искусственного интеллекта (AI) не проходит без вопроса: заменят ли машины людей? О применении AI в реальных условиях и о том, несёт ли эта технология угрозу или пользу для человечества – размышляет исполнительный вице-президент и главный научный сотрудник Samsung Electronics, профессор факультета компьютерных наук Пристонского института нейронауки доктор Себастьян Сэн (Dr. Sebastian Seung).
Себастьян Сэн консультирует Samsung Electronics по передовым исследованиям и участвует в разработке стратегии корпорации в области освоения AI. Сегодня Себастьян Сэн является одним из самых влиятельных учёных в области исследований AI и нейронауки.

Вдохновлённые нейронаукой

Нейросети — это математические модели или смоделированные компьютером алгоритмы, подобные биологическим нейронным сетям в мозге человека. «Свёрточные сети, которые сегодня являются доминирующим подходом для разработки алгоритмов компьютерного зрения, были вдохновлены нейронаукой 1960-х годов, получившей Нобелевскую премию», – говорит Сэн. Его исследования в Пристонском университете сфокусированы на мапировании нейронной «электрической схемы» коры головного мозга. «Я надеюсь, что наши исследования приведут к появлению более мощных искусственных нейронных сетей», – говорит Сэн.

Что является следующей ступенью развития AI?

«В наши дни роботизированные решения уже не редкость: от домашних роботов-пылесосов до промышленных роботов-манипуляторов. Большая часть из них представляет собой результат освоения технологии глубокого машинного обучения. “Однако для того, чтобы создать роботов, которые могут, например, протянуть руку, или что-то поднять и убрать, – говорит Сэн, – мы должны оснастить их компьютерным зрением, чтобы они могли видеть и распознавать объекты и понимали, что они должны с ними делать».
Сэн признаёт, что в прошлом учёные пытались добиться этих возможностей с помощью классического подхода программирования, но это не принесло значимых результатов. «Мы должны каким-то образом позволить роботу учиться самостоятельно выполнять необходимые действия, – говорит Сэн, – и во многом это позволяет сделать технология глубокого обучения».
«В перспективе роботы будут не просто выполнять информационную функцию (например, предоставлять сведения о погоде или изменять температуру), они смогут выполнять гораздо более прикладные задачи в домах пользователей (например, собирать игрушки, мыть посуду или выполнять другую работу по дому)».

AI - угроза для человечества?

Перспектива замены человеческого труда альтернативой на базе роботизированных технологий не такая уж утопия. Однако профессор Сэн считает, что эта проблема сильно преувеличена: «Если проанализировать рынок США и других развитых стран, то за последние 20 лет много людей потеряли работу из-за офшорного аутсорсинга, а не только из-за автоматизации. Или взять пример времён первой промышленной революции: многие рабочие места были сокращены, но это не означало, что работы в целом стало меньше, потому что появились новые виды профессий».
Отвечая на неизбежный вопрос о сценарии конца света, в котором машинный интеллект превосходит человеческий, и роботы захватывают мир, Сэн сказал: «Люди на самом деле не знают, каковы реальные возможности AI. И отчасти это является публичным заблуждением, основанным на научно-фантастических фильмах, которые убеждают людей в том, что роботы могут делать всё что угодно. На самом деле, роботы всё ещё очень неуклюжи. Причина, по которой я не волнуюсь по этому поводу, заключается в том, что из всех возможных угроз для человечества – роботы далеко не в начале списка. Люди считают, что AI может делать больше, чем на самом деле. Приведу вам пример: одна моя знакомая хотела, чтобы AI заменил её доктора. Но в медицине есть много вещей, которые даже ни один врач не может решить или объяснить. И, поскольку нынешний подход к AI включает в себя обучение машин на базе практических знаний людей, если лучшие люди-специалисты не могут решить какую-либо проблему, то AI это не под силу. И в ближайшем будущем вряд ли искусственный интеллект сможет выполнять задачи лучше, чем люди-эксперты».

Что нас ждёт в следующие 50 лет?

AI будет во главе инноваций в следующие 50 лет: «Через 20-30 лет роботы смогут помогать нам делать работу по дому. Это произойдёт так же, как с мобильными телефонами. Теперь у каждого есть мобильный телефон – миллиарды из них продаются каждый год – и то же самое будет с роботами. Оснащённые искусственным интеллектом беспилотные автомобили станут реальностью, AI позволит беречь труд людей. Полная автономия займёт больше времени, чем первоначально описывали СМИ. Потенциальные преимущества от AI грандиозны и разнообразны. Эта технология может применяться для ускорения научных открытий, и в долгосрочной перспективе окажет огромное влияние на такие области, как, например, материаловедение или химия. Допустим, я хочу создать новую молекулу с определёнными свойствами, чтобы затем использовать её для создания какого-то материала, – AI запросто позволит мне сделать это. Это способно произвести революцию. Мне бы хотелось, чтобы Samsung если не возглавлял эту революцию, то, как минимум, участвовал бы в ней».

[Hearing from an AI Expert – 2] How AI Will Change the World

There’s no denying that the age of AI is upon us and that the ways we engage and interact are set to change in big ways. In anticipation of this, Samsung Electronics has opened AI centers across the world to ensure that the company leads the charge on AI. 2019 marks the 50th anniversary of Samsung Electronics, and the company has forecast another 50 years of ingenuity ahead, with AI set to be at the heart of future innovation.
To gain a great insight into what AI means for the future of society, as well as the work being done at the Samsung AI Centers, Samsung Newsroom sat down with Executive Vice President & Chief Research Scientist, Dr. Sebastian Seung.
Seung joined Samsung Electronics in 2018. He is also a professor at the Princeton Neuroscience Institute and Department of Computer Science. Seung is one of the most influential scientists in the world when it comes to AI research based on neuroscience.

Artificial Neural Networks and AI

Based on his extensive experience and insights into the field of artificial neural networks1, Seung is working on developing future growth engines for Samsung Electronics by establishing an AI strategy and providing advice on advanced research.
Artificial neural networks are mathematical models or computer simulations of the biological neural networks in the brain. “Convolutional networks, now the dominant approach to computer vision, were inspired by Nobel Prize-winning neuroscience of the 1960s,” according to Seung. His research at Princeton focuses on mapping the neuronal “wiring diagram” of the cerebral cortex. “I hope that our 21st century studies of the cortex will finally reveal how it learns, and that this new understanding will lead to more powerful artificial neural networks,” says Seung.
In his work for Samsung, Dr. Seung travels back and forth between the U.S. and Korea. His recent work is especially focused on advanced research regarding robots, which is the New York AI Center’s main field of research.

Deep Learning and Robotics

These days, robots are already present in society in the forms of robot vacuum cleaners in our homes and robotic arms being used in factories and by shipping companies. Seung acknowledges that these robots already represent an early stage of this technology, but says that what he is aiming for is something much more sophisticated. “In order to develop robots that can, for instance, reach out to pick something up and put it away,” Seung says, “we have to equip them with computer vision so they can see what’s in front of them, and with brains so that they know what all these objects in your house are and what they should do with them.”
Seung acknowledges that labs have tried in the past to achieve these capabilities through the classical approach of programming, but that that hasn’t really worked out. “We have realized that we have to somehow allow the robot to learn to perform the required actions itself,” says Seung, “and a lot of that involves the deep-learning approach.”
Seung points to the area of home automation as a primary application for their work. “In the future, you can imagine robots that won’t just give you weather information or change the temperature – they’ll perform far more helpful tasks in your home. They’ll pick up the toys, wash the dishes and even take the laundry up and down the stairs.”

AI in Society

No discussion of AI would be complete without addressing the apprehensions some people feel when it comes to the technology and the ways in which it stands to change our way of life. Seung addresses this question first with regards to the prospect of people losing their jobs to automation. “I think this issue of robots taking our jobs is exaggerated,” he relates. “Firstly, in the last 20 years, the U.S. and many other developed countries have lost a lot of jobs to offshoring, not just to automation. As in the first industrial revolution, many jobs were eliminated, but that didn’t mean that there were fewer jobs in total, because new jobs arose from the new circumstances.”
Seung went on to comment on the wider attitudes towards automation of industry, and the fact that the issue needs to be looked at through a different lens. “If robots really could do all of our work, why shouldn’t we be happy about that?” he said.
Asked the inevitable question about doomsday scenarios in which machine intelligence outstrips that of humans and robots take over the world, Seung claimed, “People don’t actually know what the real capabilities of AI are. And part of that is a public misconception based on science fiction movies that convince people that robots can do anything. In reality, robots are still really clumsy.”
Seung went on to point out that AI developments may well end up greatly helping us, instead of dooming us. “Are robots going to do something bad to us?” he said. “Well, the reason that I don’t worry about that is that of all the environmental and political threats to humanity, robots are not very high on the list. And not only that, I think that if humanity is to best equip itself to deal with any and all future threats, we need to be as smart as possible. And that involves having the most sophisticated technology. You could be a science-fiction pessimist and say maybe these robots could turn on us, but you could also argue that maybe we’ll use these robots to save us.”
Speaking to other misconceptions about AI, Seung pointed to the actual capabilities of the technology. “The public thinks that AI can do more than it really can,” he said. “To give you an example, I met someone who wanted AI to replace her doctor. But there are many things that no human doctor can fix. So, because our current approach to AI involves training machines based on the expertise of human practitioners, if the best human experts can’t solve it, then the AI can’t do it either. It’s not like AI will all of a sudden be able to perform tasks better than the human experts.”

The Next 50 Years of AI

Having reached its 50-year anniversary this year, Samsung is now looking to AI to spearhead the next 50 years of innovation. Asked what he expects for this period, Seung said, “In 20~30 years robots will be able to work in the home just as humans can. It will have happened the same way that the mobile phone revolution has happened. Everybody has a mobile phone now – billions of them are sold every year – and the same is going to be true of robots.”
Home automation and self-driving cars based on AI are other hot-button topics right now. Seung says he fully expects AI-equipped cars to become a reality, but that the timeline for their inception is hard to sketch out. “AI is going to lead to a lot of labor-saving things happening in people’s everyday lives, like autonomous cars for instance,” he said. “Are they going to be here next year, or will it take 20 years? Experts are realizing that full autonomy will take longer than the media originally portrayed, but most still believe that it will be achieved. I’d like to see Samsung have some part in that revolution, if not lead that revolution.”
The prospective benefits of AI are enormous in scale and diverse in focus. Outlining some of the applications of AI that the general population may not be aware of, Seung remarked that “The effect AI could have on scientific research is a major one. AI can be applied to accelerate scientific discovery, and in the long term, it will have a huge impact on areas like materials engineering and chemistry. Let’s say I want to design a new molecule with certain properties – AI might allow me to do that more easily. Then, that new molecule could have applications for a drug company, or really any company that creates materials. So AI is not only applied to technology – it’s also used for scientific discovery, which then accelerates the advancement of technology.”

1An artificial neural network is an attempt to simulate the network of neurons that make up a human brain so that the computer will be able to learn things and make decisions in a humanlike manner. (Forbes)