Новости про искусственный интеллект

Google внедряет в Android технологию наблюдения за сном

Компания Google в Android Developers Blog объявила о том, что делает доступным Sleep API для третьих разработчиков. Компания отметила, что Sleep API разработан для слежения за сном наиболее энергоэффективным образом, а открытый API могут использовать другие разработчики.

Для этого компания объединила усилия с Urbandroid, авторами приложения Sleep As Android. Комментируя Sleep API компания Urbandroid отметила: «Sleep as Android — это швейцарский армейский нож, позволяющий улучшить ночной отдых. Он отслеживает длительность сна, регулярность, фазы, храп и так далее. Длительность сна — один из важнейших параметров для мониторинга, который гарантирует хороший ночной отдых. Новый Sleep API даёт фантастическую возможность для отслеживания его автоматически наиболее энергоэффективным образом, из тех, что можно представить».

Android Sleep API

Когда пользователь на своём устройстве разрешает Sleep API, его устройство использует ИИ для анализа датчиков освещённости и движения. Это необходимо для определения момента засыпания.

Sleep API уже доступен для пользователей, как часть последней версии Google Play Services.

Microsoft готовит предиктивный ввод в Word

В прошлом году Microsoft анонсировала предиктивный ввод текста в редакторе Word. Технология использует модель машинного обучения, основанную на типично вводимом пользователем тексте. Вскоре после анонса функция в бета режиме появилась для половины подписчиков, и теперь Microsoft заявляет о готовности полноценного релиза.

Согласно свежей дорожной карте Microsoft 365, предиктивный ввод текста будет доступен пользователям Microsoft Word в марте. Компания отмечает, что функция поможет «пользователям писать более эффективно за счёт быстрого предложения текста, вовремя и точно».

Microsoft Word

После введения технологии пользователи увидят рекомендуемый текст серого цвета. Эти рекомендации можно будет принять, нажимая клавишу «Tab», либо отказаться, нажимая «Esc». Со временем эти рекомендации будут улучшаться, основываясь на стиле письма пользователя. Если же вам не интересен предиктивный ввод, его можно будет отключить полностью.

Предиктивный ввод в Word

Также компания прояснила вопрос с безопасностью, отметив, что «данные не будут покидать дозволенных границ», а люди не будут читать этот текст, кроме случаев участия пользователей в программе улучшения качества.

Память Samsung HBM-PIM вдвое быстрее традиционной

Компания Samsung, один из создателей многослойной памяти типа High Bandwidth Memory, запустила свою инновацию, которая позволит заметно ускорить передачу данных.

Новая архитектура памяти HBM называется PIM — processing-in-memory, или обработка в памяти, и она использует мощь ИИ в работе HBM.

Память Samsung HBM-PIM

Как следует из названия, обработка в памяти позволяет в некотором виде программировать слой памяти и создавать новый встроенный ИИ-движок оптимизированный по памяти. Этот движок ИИ называется Programmable Compute Unit (PCU). Его задача — передавать данные между процессором и памятью параллельным путём, исключая узкие места, характерные для архитектуры фон Неймана. Традиционно, в классической архитектуре фон Неймана, применяется последовательная обратно-поступательная передача данных между процессором и памятью. Разработка Samsung позволяет выполнять этот процесс параллельно. При раннем тесте архитектуры в 2018 году память HBM2 показала удвоение производительности при снижении энергопотребления на 70%.

В настоящее время технология проходит валидацию различными партнёрами компании. Южнокорейский гигант ожидает, что этот этап завершиться уже в первом полугодии.

Когда память HBM-PIM будет готова, её можно будет легко интегрировать в новые и существующие системы для применения в ЦОД, высокопроизводительных вычислениях, мобильных приложениях на базе ИИ и так далее. Причём для этого не требуются аппаратные или программные изменения.

Ответ AMD на DLSS может появиться в марте

Когда AMD анонсировала серию видеокарт Radeon RX 6000, она сообщила, что в скором времени представит альтернативу технологии NVIDIA DLSS.

Это будет технология масштабирования при помощи искусственного интеллекта, названная Super Resolution, и она почти готова. Её выпуск состоится в марте этого года, наряду с обновлением Radeon Boost.

Технологии AMD Fidelity FX

О технологии Super Resolution известно не много. Разве что сообщалось, что это будет открытое кроссплатформенное решение. По слухам, в нём будет применяться API Microsoft DirectML, однако это не подтверждено. Пока более подробных сведений нет, и, очевидно, придётся ждать марта.

Что касается Radeon Boost, то эта технология позволяет динамически подстраивать разрешение быстродвижущихся изображений, чтобы увеличивать производительность. В новой версии, вместо снижения качества всего кадра, разрешение будет понижено лишь для самих быстро движущихся объектов, а более статичные получат большее разрешение. В результате, общее качество картинки должно улучшиться.

Cerebras представила систему в 10 000 раз быстрее GPU

Копания Cerebras Systems и Федеральный Департамент энергии Национальной технологической лаборатории энергии анонсировали систему CS-1, которая в 10 000 раз быстрее графического процессора.

С практической стороны это означает, что задачи искусственного интеллекта, которые ранее занимали месяцы обучения, на системе Cerebras можно выполнить за минуты.

Компания Cerebras знаменита тем, что создала самый большой в мире чип WSE. Обычно производители микросхем изготавливают процессоры на большой 12” пластине, а затем разделают на отдельные чипы. Cerebras же использовала всю пластину для создания одного огромного процессора со множеством ядер и сложной системой коммутации между ними.

Компьютер CS-1

Система Cerebras CS-1 имеет высоту 26” и занимает треть стойки. В основе машины лежит тот самый процессор WSE, содержащий 1,2 триллиона транзисторов. Для сравнения, чип A100 80GB от NVIDIA содержит 54 миллиарда транзисторов. Машина CS-1 оказалась в 200 раз быстрее суперкомпьютера Joule, который занимает 82 место в рейтинге 500 быстрейших суперкомпьютеров, при том что Joule использует 16384 ядра.

Машина Cerebras стоит несколько миллионов долларов и использует 20 кВт энергии, однако в своей области она не имеет равных.

AMD выпускает самый быстрый ускоритель HPC

Последние дни все говорят о потребительских видеокартах. Однако компания AMD не только с большой гордостью начала продажи видеокарт Radeon RX 6000, но и подготовила изменения на рынке профессиональных решений.

Фирма представила новый GPU Instinct MI100, который стал «самым быстрым в мире ускорителем HPC». Это первый в мире серверный GPU для x86 систем, производительность которого превзошла барьер в 10 терафлопс.

Ускоритель AMD Instinct MI100

Этот ускоритель построен по архитектуре CDNA и предназначен для ускорения операции HPC и ИИ. Компания AMD заявила, что его производительность достигает 11,5 терафлопс FP64 и до 46,1 терафлопс в FP32 Matrix.

Вычислительных блоков120
Потоковых процессоров7680
FP64, TFLOPS (Пиковое)11,5
FP32, TFLOPS (Пиковое)23,1
FP32 Matrix, TFLOPS (Пиковое)46,1
FP16/FP16 Matrix, TFLOPS (Пиковое)184,6
INT4 | INT8, TOPS (Пиковое)184,6
bFloat16, TFLOPs (Пиковое)92,3
Память HBM2, ECC, ГБ32
Пропускная спобность памяти, ТБ/с1,23

Используя технологию AMD Matrix Core, карта Instinct MI100 обеспечивает семикратный прирост в FP16 в задачах обучения ИИ, по сравнению с прошлыми поколениями.

Как стоит ожидать, карта имеет и большой объём видеопамяти, 32 ГБ HBM2 частотой 1,2 ГГц и с пропускной способностью 1,23 ТБ/с. Ускоритель поддерживает шины PCIe Gen 4 и AMD Infinity Fabric, что обеспечивает непревзойдённую скорость обмена данными.

Cyberpunk 2077 получит синхронный перевод на всех десяти языках игры

Игра Cyberpunk 2077 держит под собой множество технологий, одна из которой, касается адаптации игры на разные языки. Оказывается, разработчик применили искусственный интеллект, чтобы движения губ персонажей совпадали с речью.

Студия CD Projekt Red воспользовалась силой ИИ для вещи, которую ранее никто не пробовал, особенно в таких гигантских масштабах. В игре синхронизацию губ с речью получил каждый из озвученных персонажей на всех десяти языках, на которых игра будет издана.

Cyberpunk 2077

Для адаптации движения губ персонажей использовался ИИ под названием JALI. Работа была проведена поистине колоссальная, ведь подправлять мимику пришлось тысячам персонажей, для всех 10 языков. Тем не менее, разработчикам это удалось.

JALI Driven Expressive Facial Animation & Multilingual Speech in CYBERPUNK 2077 with CDPR

Как эта технология будет выглядеть в реальности, мы узнаем уже 10 декабря, когда начнётся реализация игры, а пока можно ознакомиться с видео.

NVIDIA исправит видео в онлайн конференциях

Компания NVIDIA анонсировала новую платформу видеоконференций для разработчиков под названием NVIDIA Maxine, которая исправляет наиболее распространённые проблемы в видеосвязи.

Служба Maxine будет обрабатывать видео, используя облако с ИИ, основанным на GPU NVIDIA. Благодаря ему компания будет корректировать лицо и взгляд пользователей, чтобы они всегда смотрели в камеру, снижать требования в видео «до одной десятой от требований стандартного потока H.264», передавая лишь «ключевые лицевые точки», а также за счёт повышения разрешения видео. Другие функции, предлагаемые платформой, включают корректировку света, перевод в реальном времени и расшифровку речи, а также анимацию аватара.

Коррекция видео при помощи NVIDIA Maxine

И хотя все эти возможности наверняка согреют сердце фанатов NVIDIA, в данной услуге нет ничего особо нового. Ранее Microsoft и даже Apple внесли некоторые технологии в Surface Pro X и FaceTime, которые изменяют взгляд собеседника, а Skype давным-давно имеет возможность синхронного перевода.

В отличие от похожих решений, Maxine не является потребительским продуктом, он предлагается для других компаний. В NVIDIA уже объявили, что заключили партнёрское соглашение с Avaya, которая воспользуется некоторыми возможностями платформы.

Microsoft выпускает инструмент выявления дипфейков

Софтверный гигант Microsoft представил свою новую разработку, призванную бороться с дипфейками, которые могут быть использованы для распространения ложной информации перед выборами в США.

Инструмент Microsoft Video Authenticator анализирует видео и фотографии для выявления вероятности фальсификации. Дипфейки создаются при помощи искусственного интеллекта для изменения видео и аудио. Если посмотреть такие видеоролики можно подумать, что человек совершает показанные на них действия, хотя он этого никогда не делал. Представленная технология позволяет выявить поддельные видео при помощи искусственного интеллекта.

Дипфейк объединения Дональда Трампа и Роуэна Аткинсона

Инструмент работает за счёт выявления уникальных для дипфейков особенностей, которые люди при просмотре обычно не замечают. К ним относятся цветовые переходы и границы между реальными и фальсифицированными материалами, места смешивания их цветов и текстур. По словам Microsoft, изначально инструмент будет доступен для политиков и СМИ, «вовлечённых в демократический процесс».

Также компания представила ещё один инструмент, который позволит создателям видео сертифицировать свой контент на аутентичность, чтобы доказать своей аудитории отсутствие обработки искусственным интеллектом. Разработчик отмечает, что такая сертификация обладает «высоким уровнем точности». Получить подтверждение подлинности видео можно будет через расширение браузера.

Graphcore представила сервер для ИИ производительностью 1 петафлоп

Компания Graphcore, расположенная в Бристоле, представила свой интеллектуальный процессорный модуль второго поколения (IPU — Intelligence Processing Unit), который предназначен для организаций, требующих масштабирования средств искусственного интеллекта.

Внутри блейд системы IPU-Machine M2000 1U расположены 4 процессора Colossus MK2 GC200, построенных по 7 нм технологии TSMC. Эти процессоры имеют 1472 ядра каждый и обеспечивают «производительность интеллектуальных операций на уровне 1 петафлоп». Очевидно, что эти системы предназначены для масштабирования. В максимальном виде система для ЦОД, предлагаемая под названием IPU-POD, содержит 64 000 IPU и обеспечивает производительность машинного интеллекта на уровне 16 экзафлопс.

Intelligence Processing Unit Colossus MK2 GC200

Каждый интеллектуальный процессор содержит 59,4 миллиарда транзисторов, расположенных на кристалле площадью 823 мм2. Процессор содержит 1472 ядра и 8832 потоков. На каждый чип выделено 900 МБ памяти с шириной шины 47,5 ТБ/с.

Блейд IPU-Machine M2000
Сервер IPU-POD

Новая разработка компании превышает производительность предыдущего решения в 8 раз, а её цена намного ниже альтернативных ускорителей на базе GPGPU.

Сравнение стоимости серверов для ИИ

Серверы IPU-Machine M2000 и IPU-POD64 поступят в продажу в IV квартале 2020 года.