Ускорение выполнения приложений ИИ с Vitis AI 2.5 от Xilinx

Vitis AI 2.5 Компания AMD-Xilinx выпустила новый релиз своей популярной платформы разработки приложений искусственного интеллекта с использованием аппаратного ускорения Vitis AI.

Учитывая огромный рыночный спрос на приложения ИИ для центров обработки данных и оконечных устройств, компания AMD-Xilinx сосредоточилась на расширении и улучшении функций своего пакета Vitis AI, чтобы обеспечить наивысшую скорость работы таких приложений на своих платформах.

Новые и улучшенных функций последней версии 2.5 пакета Vitis AI:

  • Глубоко оптимизированные модели ИИ в Model Zoo. В версию 2.5 добавлены: самая популярная модель обработки естественного языка BERT-NLP, преобразователь зрения VIT, а также сквозная модель OCR, SLAM SuperPoint и HFNet для работы в реальном времени. Также после слияния Xilinx с AMD была добавлена поддержка 38 базовых и оптимизированных моделей, используемых библиотекой AMD Zen Deep Neural Network (ZenDNN) на серверных процессорах AMD EPYC. Таким образом, с помощью Vitis AI пользователи процессоров AMD смогут ускорить работу своих приложений искусственного интеллекта.
  • Высокоэффективный поток разработки ИИ приложений для центров обработки данных. Добавленная в предыдущем релизе функция Whole Graph Optimizer (WeGO) получила положительные отзывы от специалистов, внедряющих приложения ИИ в центрах обработки данных. WeGO предлагает удобную методологию для развертывания моделей ИИ на облачных процессорах глубокого обучения (DPU) путем интеграции стека ИИ Vitis в структуру приложения ИИ. В новом релизе Vitis AI 2.5, WeGO поддерживает больше фреймворков, таких как Pytorch и Tensorflow 2. Кроме того, в релиз Vitis AI 2.5 добавлено 19 примеров, включая классификацию изображений, обнаружение объектов и сегментацию, что упрощает развертывание моделей AI на платформах центров обработки данных.
  • Оптимизированный блок процессора глубокого обучения и программные средства. Производительность приложений ИИ на платформах Xilinx обеспечивается набором мощных механизмов ускорения и простых в использовании программных инструментов. В настоящее время предлагаются масштабируемые DPU для ключевых ПЛИС Xilinx, адаптируемых СнК Versal и ускорителей для центров обработки данных Alveo.
  • В версии 2.5 Versal DPU IP поддерживает многочисленные аппаратные ускорители ИИ, имеющиеся в устройствах Versal AI Core. Новое арифметико-логическое устройство (ALU) с измененным механизмом пула и механизмом свертки Depthwise обеспечивает поддержку новых функций, включая большие ядра MaxPool и AveragePool, AveragePool с прямоугольным ядром, а также 16-битные постоянные веса.
  • Кроме того, IP-ядра DPU теперь поддерживают больше паттернов комбинаций слоев моделей сверточных сетей Depthwise и LeakyRelu.
  • Среди прочего, облачные DPU теперь поддерживают более крупный размер ядра Depthwise, пул ядер ИИ большего размера, а также пул аппаратных AI Engine.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *