/ / искусственный интеллект

9923986909;rectangle
7994420702;horizontal

Новости про искусственный интеллект

Microsoft работает над крошечным искусственным интеллектом #

4 июля 2017

Софтверный гигант сообщил о том, что занимается созданием очень маленьких искусственных мозгов.

Фирма сообщила, что создаёт библиотеку Embedded Learning Library (ELL), которая может изменить подход к работе AI на малых устройствах, таких, как Raspberry Pi.

Искусственный интеллект

Используя крошечный процессор, данный метод позволит отказаться от необходимости постоянного подключения к Интернету. Кроме того, метод позволит снизить трафик от такого устройства и позволит функционировать ему в офлайн режиме. Представитель Microsoft отметил, что без использования такого подхода, невозможно снизить использование ресурсов нейронной сетью.

Также компания отметила, что такие устройства сложнее взломать, ведь если большую часть времени они не подключены к интернету, на них намного сложнее проникнуть.

Применение данной библиотеки практически безгранично, поскольку она предполагает использование в локальной сети устройств, которая не имеет доступа к интернету.

Microsoft, Raspberry Pi, Интернет и сети, искусственный интеллект

«Fudzilla»

Microsoft будет бороться с вирусами искусственным интеллектом #

29 июня 2017

Осеннее обновление операционной системы Windows получит интересное изменение в системе безопасности. Оно станет ответом на участившиеся в последние недели атаки.

Как сообщила компания в своём блоге, изменение коснётся Windows Defender Advanced Threat Protection (ATP), корпоративной службы Windows 10, которая выявляет первые признаки инфицирования. Директор Windows Enterprise Роб Леффертс сообщил, что после обновления системы будут использоваться данные из облачных сервисов Microsoft, с помощью которых будет создан антивирус на искусственном интеллекте. Этот подход позволит ATP лучше предотвращать возможные заражения.

Malware

Одной из главных возможностей искусственного интеллекта станет возможность постоянно выявлять ранее неизвестный вредоносный код на компьютере. После его обнаружения Microsoft быстро изолирует зловреда в облаке и создаст сигнатуры для его быстрой идентификации антивирусом. По словам Леффертса, порядка 96% кибератак осуществляются с использованием нового вредоносного кода, так что анонсированная функция выглядит многообещающе. По сути, она изменит подход обновления Редмондом средств защиты. Сейчас у разработчиков уходят часы на анализ кода, и пока специалисты создают сигнатуры, инфекция уже может распространиться на несколько машин.

Несмотря на то, что новые функции ATP будут изначально доступны лишь для предприятий, сообщается, что Microsoft имеет планы по выпуску технологии для обычных пользователей, более того, компания также планирует предложить её «большему количество платформ за пределами Windows».

Microsoft, Windows 10, антивирусы, безопасность, искусственный интеллект

«Engadget»

AMD выпускает ускоритель для машинного обучения #

28 июня 2017

Компания AMD анонсировала первый продукт на базе архитектуры Vega: Radeon Vega Frontier Edition. Этот ускоритель знаменуется контроллером памяти высокой пропускной способности и позволяет расширить объём традиционной памяти GPU до 256 ТБ.

Наряду с открытым исходным кодом AMD, полностью масштабируемой программной платформой ROCm, Radeon Vega Frontier Edition позволяет разработчикам ещё эффективнее использовать средства искусственного интеллекта.

Radeon Vega Frontier Edition

Представленный ускоритель гарантирует достаточно производительности для конструкторских и производственных компаний, обеспечивая работу с постоянно усложняющимися моделями и предлагает визуализацию в реальном времени и рендеринг с учётом физических свойств. Движок памяти нового ускорителя также позволяет профессионалам достигать фотореалистичных деталей в компьютерной графике. А для ускорения обработки Radeon Vega Frontier Edition предлагает мульти-GPU масштабирование, обеспечивая 91% ускорение при использовании двух видеокарт.

Кроме того, Radeon Vega Frontier Edition упрощает и ускоряет разработку игр, предлагая единый GPU, оптимизированный для каждого этапа разработки, включая непосредственно разработку, тестирование и оптимизацию.

Видеокарта Radeon Vega Frontier Edition доступна в определённых регионах по цене 1000 долларов США за решение с воздушным охлаждением. Версия с жидкостным кулером обойдётся в 1500 долларов. Это решение будет доступно в третьем квартале.

AMD, GPU, Vega, видеокарты, искусственный интеллект

«DigiTimes»

Искусственный интеллект посредственно сдал вступительные экзамены в университет #

28 июня 2017

В китайском городе Чэнгду несколько больших тёмных серверов, известных под именем AI-MATHS, сдавали две версии вступительных экзаменов в университет по математике.

Искусственный интеллект набрал 105 баллов из 150, для чего ему потребовалось 22 минуты. Студенты направления «Свободное искусство» из Пекина делали те же тестовые задания в прошлом году, набрав в среднем 109 баллов за два часа. В другой версии тестирования искусственного интеллекта, машина набрала 100 баллов за 10 минут.

AI-MATHS

Задача, с которой столкнулся AI, ограничивается не только математическими уравнениями, но и способностью понимать язык вопросов, чтобы взаимодействовать с величинами так, как это делают люди. И это оказалось самым сложным, что логично, ведь AI легко обрабатывает огромные массивы чисел.

В этом примере главной проблемой компьютера AI-MATHS, созданного Zhunxingyunxue Technology из Университета Тсингхуа, стал язык. К примеру, он не смог понять различий между понятиями «ученик» и «учитель», а потому потерял несколько баллов.

Создатели машины надеются, что в следующем году их компьютер получит более высокие оценки и расширит понимание заданий.

искусственный интеллект

«Neowin»

Искусственный интеллект может уничтожить программирование #

16 июня 2017

Датский стартап UIzard Technologies IVS презентовал новую нейронную сеть, которая может создавать приложения, преобразовывая предварительные формы интерфейса в исходный код.

Основатель компании Тони Белтрамелли опубликовал исследование, в котором показан принцип использования искусственного интеллекта для построения нейронной сети, которая может генерировать код автоматически, анализируя скриншоты GUI.

Pix2Code

Названная Pix2Code, система обгоняет по производительности нескольких программистов, поскольку может создавать код для Android, iOS и «основанных на веб технологиях». Точность кода, создаваемого по GUI, составляет 77%, однако это величина вырастет по мере дальнейшего обучения сети.

Автор системы представил ролик с демонстрацией работы системы.

Android, iOS, искусственный интеллект, программирование

«Fudzilla»

7994420702;horizontal

Google рассказала о втором поколении TPU #

26 мая 2017

В ходе конференции Google I/O, организаторы продемонстрировали второе поколение тензорного процессора (TPU), который используется в искусственном интеллекте компании.

Новая модель процессора может быть использована как для обучения, так и для поиска взаимосвязей. А система из четырёх новых Cloud TPU обещает производительность системы машинного обучения на уровне 180 терафлопс. По словам Google, данный чип значительно производительнее решений на базе GPU, в связи с чем компания планирует предложить платформу Cloud коммерческим разработчикам.

Платформа Google Cloud

Что касается производительности, то Google пояснила, что обучение большой модели языкового перевода занимает целый день на 32 топовых GPU. Та же работа длится 6 часов на одной восьмой кластера, или на 8 TPU.

Первое поколение TPU компания Google представила в 2015 году. Эти процессоры используются в широком спектре облачных сервисов компании, включая поиск, перевод и Google Photos.

Google, искусственный интеллект


Cray анонсирует суперкомпьютеры для искусственного интеллекта #

24 мая 2017

Производитель суперкомпьютеров, компания Cray, разработала две новых системы, которые получили название CS-Storm 500GT и 500NX, предназначенные для обеспечения нужд её клиентов в искусственном интеллекте.

Обе системы разработаны с использование GPU NVIDIA Tesla, однако предлагают разный набор возможностей.

У моделей различный объём ОЗУ. И он впечатляет. Суперкомпьютер CS-Storm 500GT поддерживает до 2 ТБ памяти DDR4 (16 DIMM по 128 ГБ), а модель 500NX — 3 ТБ DDR4 (24 DIMM по 128 ГБ). Как и прошлые поколения машин, модель 500GT содержит пару CPU Intel семейства Xeon Skylake, а 500NX — Intel Xeon E5-2600 v4.

Суперкомпьютер Cray XE6

Фрэд Кохаут, старший вице-президент Cray по продукции и директор по маркетингу заявил: «Спрос со стороны потребителей на инфраструктуру с возможностями искусственного интеллекта быстро растёт, и выпуск наших систем CS-Storm предоставит нашим клиентам мощное решение по взаимосвязи глубокого обучения и снижению нагрузки на машины в масштабе мощности суперкомпьютера Cray. Экспоненциальный рост объёмов данных, связанный с необходимостью в более быстрых решениях в искусственном интеллекте, отвечает нуждам широко масштабируемой и настраиваемой инфраструктуры».

После того, как на рынке стали появляться быстрые суперкомпьютеры, опережающие решения Cray, у компании начали возникать проблемы с реализацией, но похоже, она нашла себе новый рынок.

Cray, искусственный интеллект, суперкомпьютеры

«Neowin»

Нейронная сеть может улучшить анимацию игровых персонажей #

17 мая 2017

Инженеры Ubisoft Montreal сообщили о новом способе анимации игровых персонажей, который основан на анализе движений при помощи искусственного интеллекта.

Они представили механизм управления персонажем в реальном времени, используя для этого современную нейронную архитектуру, названную «фазо-функциональная нейронная сеть». В этой сетевой структуре массы рассчитываются посредством циклической функции, которая использует фазу как вводную. Наряду с фазой система использует в качестве вводных пользовательское управление, предыдущее состояние персонажа и геометрию сцены. В результате обсчитываются высококачественные перемещения, которые отвечают поставленным пользователям задачам. Сеть целиком обучена огромным количеством информации, и включает такие движения как хождение, бег, прыжки и вскарабкивания. Всё это ограничено виртуальным окружением.

Анимация с помощью нейронной сети

«Наша система может автоматически выполнять движения, в которых персонаж адаптируется к различному геометрическому окружению, такому как хождение и бег по пересечённой местности, лазание по скалам, перепрыгивание препятствий и попытки пролезть под низким потолком», — сообщили разработчики в пояснительной записке.

«Будучи обученной, наша система также предельно быстра и компактна, требует лишь миллисекунды на исполнение и несколько мегабайт памяти, даже если она обучена с помощью гигабайт данных. Наша работа наиболее заметна в управлении персонажами в интерактивных сценах, таких как видеоигры и системы виртуальной реальности».

Когда и в каких проектах мы увидим реализацию новой системы анимации, пока не сообщается.

Ubisoft, игры, искусственный интеллект


Google TPU обрабатывает данные в 15 раз быстрее обычных компонентов #

29 апреля 2017

Два года назад компания Google создала собственную интегральную схему под названием Tensor Processing Unit, которая предназначена для вычислительной фазы задач машинного обучения.

Изначально компания сообщала, что TPU должен улучшить производительность на ватт в характерных задачах на величину до 10 раз, по сравнению с традиционными CPU и GPU. И теперь, получив опыт эксплуатации, фирма провела исследование влияния производительности чипов этого типа.

Оказалось, что 10-кратный прирост в энергоэффективность был слишком скромным. На самом деле производительность возросла от 30 до 80 раз по отношению к обычным решениям и в зависимости от сценария. Если говорить о прямой производительности, то по словам Google TPU в 15—30 раз быстрее стандартного аппаратного обеспечения.

Эффективность TPU

На этом процессоре работает специальное программное обеспечение, основанное на фреймворке машинного обучения TensorFlow, и некоторая доля этого ускорения связана именно с этим фреймворком. Авторы исследования отметили, что у программистов ещё есть запас по оптимизации.

Компания Google увидела необходимость TPU ещё 6 лет назад. Глубинное обучение компания использует в разных проектах, включая поиск изображений, фотографий и перевод. По своей природе, машинное обучение довольно требовательный к ресурсом процесс. К примеру, инженеры Google отметили, что если бы люди использовали распознавание речи по 3 минуты в день, и она выполнялась бы без TPU, то компании пришлось бы удвоить количество центров обработки данных.

Google, искусственный интеллект


NVIDIA представила суперкомпьютер Jetson TX2 #

10 марта 2017

В ходе Open Compute Summit, прошедшего в калифорнийском Сан-Хосе, компания NVIDIA представила крошечный суперкомпьютер Jetson TX2, который предлагает «вычисления для искусственного интеллекта на передовой».

Система размером с кредитную карту предназначена для промышленных роботов, коммерческих дронов и смарт камер. Новая версия обладает вдвое большей производительностью, по сравнению с предшественником, при энергопотреблении лишь 7,5 Вт.

Компьютер основан на GPU архитектуры Pascal, содержит 8 ГБ памяти LPDDR4, eMMC накопитель объёмом 32 ГБ, модули связи 802.11ac WLAN и Bluetooth. Работает машина под управлением Linux for Tegra. Также Jetson TX2 поставляется с JetPack 3.0, которую NVIDIA называет «наиболее конкурентоспособной SDK для вычислений в области AI, что облегчает интеграцию искусственного интеллекта в широкий спектр приложений».

NVIDIA Jetson TX2

Дипу Талла, вице-президент и генеральный менеджер бизнеса Tegra в NVIDIA заявил: «Jetson TX2 обеспечивает мощные возможности AI на передовой, позволяя создавать новый класс интеллектуальных машин. Эти устройства обеспечат интеллектуальный анализ видео, что сделает наши города умнее и безопаснее, создание роботов нового типа, которые оптимизируют производство, и нового взаимодействия, которое сделает удалённую работу более плодотворной».

Наборы разработчиков NVIDIA Jetson TX2 начнут поставляться 14 марта.

NVIDIA, Pascal, Tegra, искусственный интеллект, суперкомпьютеры

«Fudzilla»

Google обеспечит голливудское увеличение изображения #

22 февраля 2017

Концепция улучшения пикселизованного изображения нам известна из многих голливудских фильмов, но, как и почти всегда, реальные технологии далеки от кино. Однако инженеры в Google Brain придумали способ приблизить фантастику к реальности.

Новая технология использует пару нейронных сетей, которые перерабатывают изображения 8x8 пикселей, чтобы воссоздать лицо человека, спрятанное за ним. Конечно, нейронные сети не увеличивают изображение без пикселизации, а создают новое, которое могло бы выглядеть как оригинал.

Интеллектуальное увеличение от Google

Как сказано выше, в процессе воссоздания лица участвуют две нейронные сети. Первая картирует изображение разрешением 8х8 точек в аналогично выглядящее изображение, но с большим разрешением. Это изображение используется в качестве скелета для второй сети, которая добавляет к картинке больше деталей на основе уже существующих изображений со сходными пиксельными картами. Затем полученные изображения двух сетей комбинируются, создавая конечную картинку.

Конечно, воссозданная картинка далека от реальности, так что эта технология бесполезна для спецслужб, однако пригодится при обработке снимков при необходимости экстремального увеличения.

Google, искусственный интеллект


Технология Google RAISR снижает трафик картинок вчетверо #

28 января 2017

Практически все тарифы мобильных операторов предполагают лимитированное использование трафика, и компания Google задалась целью заметно снизить потребление, разработав технологию сжатия изображений RAISR — Rapid and Accurate Image Super-Resolution (быстрое и точное изображение супер разрешения).

По сути, эта технология не является традиционным методом сжатия, она больше похожа на вид искусства, которым занимается система машинного обучения. Так, RAISR увеличивает эскизы изображений, полученные в меньшем разрешении, используя специальные алгоритмы машинного обучения. В конечном счете, искусственный интеллект восстанавливает отсутствующие детали, приводя изображение к оригинальному виду. В результате трафик при передаче изображений можно снизить на 75%, по сравнению с оригиналом, при сохранении большинства обозримых деталей.

RAISR

RAISR

Пока Google предлагает эту технологию лишь для сервиса Google+ и лишь для изображений, размещённых на сервисе. «В ближайшие недели» компания расширит сферу действия технологии и на другие свои сервисы.

Неизвестно, станет ли Google использовать эту технологию только для своих служб, или распространит её, как Brotli, однако нам, несомненно, хотелось бы увидеть её в работе таких загруженных изображениями сайтов, как социальные сети и онлайн магазины.

Google, искусственный интеллект


AMD представила Vega Cube производительностью 100 терафлопс #

15 декабря 2016

Компания AMD не осталась в стороне современных технологических тенденций и решила присоединиться к растущему рынку систем искусственного интеллекта.

В сети появились фотографии, на которых Раджа Кодури, глава Radeon Technologies Group, держит устройство, названное Vega cube (или Куб Кодури), состоящее из 4 прототипов ускорителей на базе GPU Vega. Эти снимки были сделаны на секретном мероприятии, посвящённом новому GPU и прошедшем на прошлой неделе.

Куб Кодури

Похоже, что представлен был лишь макет суперкомпьютерного модуля. О нём сейчас очень мало информации. По данным VideoCardz этот куб будет обладать производительностью в 100 терафлопс (FP16) и будет предназначен для систем глубокого обучения. Пока неизвестно, имеет ли AMD планы по выпуску устройства. Как известно, ранее фирма уже анонсировала подобное решение Project Quantum, которое так и не было реализовано.

Как нетрудно догадаться, AMD не представила никаких сведений об устройстве. Возможно, что AMD решила ответить на технологию NVLink от NVIDIA, однако в отличие от Tesla P100, Куб будет установлен вертикально.

AMD, GPGPU, Vega, искусственный интеллект


Самоуправляемый автомобиль NVIDIA вскоре выйдет на дорогу #

14 декабря 2016

Мы знаем, что технологический гигант NVIDIA, широко известный своими графическими решениями, давно нацелился на конкуренцию с Google и Tesla в сфере беспилотных автомобилей.

И вот наконец-то компания NVIDIA получила разрешение на тестирование беспилотного автомобиля на дорогах общего пользования штата Калифорния. Так, Департамент моторизованных транспортных средств выдал NVIDIA разрешение на тестирование самоуправляемых машин, что позволило компании присоединиться к Google, Ford, Tesla.

Если автомобиль NVIDIA попадёт в дорожный инцидент, компания будет обязана проинформироваться об этом ДМТ в течение 10 рабочих дней. В то же время годовой отчёт, с описанием отказов в работе технологии, также потребует публичности.

Самоуправляемый автомобиль NVIDIA

Компания достаточно давно готовилась к этому событию. После снижения спроса на видеокарты и провала в сфере мобильных SoC, NVIDIA решила заняться автомобильной электроникой. Последним её достижением в этом вопросе стал суперкомпьютерный модуль PX 2 производительностью 8 терафлопс. Этот модуль содержит 12 вычислительных ядер, способных выполнять 24 триллиона операций в секунду, а для сохранения его температурного режима он оснащён встроенной системой водяного охлаждения.

Используя глубокое обучения NVIDIA создала «мозг» беспилотных автомобилей будущего, и выпуск прототипа на дороги общего пользования должен стать первым шагом к его приближению.

NVIDIA, автомобильная электроника, искусственный интеллект

«Kit Guru»

Intel выходит на рынок искусственного интеллекта #

2 декабря 2016

Производитель процессоров, компания Intel, решила выйти на рынок систем искусственного интеллекта, заверив, что её разработки позволят ускорить глубокое обучение до 100 раз за ближайшие три года.

Новая платформа Intel Nervana призвана реализовать амбициозные планы компании в борьбе с NVIDIA, графические чипы которой сейчас доминируют на рынке. Компания уверяет, что её не связанная с GPU технология «обеспечит  увеличение производительности до 100 крат, мгновенно ускорив темп инноваций в развивающихся технологиях глубокого изучения».

Intel

Компания Intel планирует интегрировать систему Nervana в процессоры Xeon и Xeon Phi. Фирма протестирует чипы Nervana Engine с кодовым именем Lake Crest в ходе первой половины 2017 года и сделает их доступными ключевым клиентам в течение следующего года. Система будет оптимизирована для нейронных сетей, что обеспечит максимальную производительность в глубоком обучении и беспрецедентной вычислительной плотности благодаря высокой скорости связи.

Диана Брайант, исполнительный вице-президент и генеральный менеджер Data Centre Group в Intel, заявила: «Мы ожидаем, что платформа Intel Nervana  произведёт прорыв в производительности и кардинальном снижении времени в обучении сложных нейронных сетей».

В дополнение, Intel анонсировала новый продукт, названный Knights Crest, который тесно связан с лучшими процессорами Intel Xeon с технологией Nervana.

Intel, Xeon, искусственный интеллект

«Inquirer»