QNAP introduz novas placas Mustang para Deep Learning



A QNAP® Systems, Inc. (QNAP), uma das empresas líderes em soluções de rede, computação e armazenamento, anunciou hoje duas placas aceleradoras de computação concebidas para inferência de "deep learning" de Inteligência Artificial (IA), incluindo a Mustang-V100 (baseada em VPU) e a Mustang-F100 (baseada em FPGA). Os utilizadores podem instalar estas placas aceleradoras PCIe em servidores/PCs baseados em Intel® ou NAS da QNAP para lidar com os fluxos de trabalho exigentes de visão computacional e aplicações de IA em produção, serviços de saúde, pequenos negócios, videovigilância, entre outros.


"A velocidade de computação é um aspeto fundamental da eficiência da implementação de aplicações de IA," comentou Dan Lin, Gestor de Produto da QNAP, acrescentando que "Enquanto as placas aceleradoras QNAP Mustang-V100 e Mustang-F100 são otimizadas para arquitetura OpenVINO™ e podem expandir fluxos de trabalho em hardware Intel com desempenho maximizado, também podem ser usadas pela OpenVINO Workflow Consolidation Tool da QNAP para agilizar a aceleração computacional para inferência de 'deep learning' no espaço mais curto de tempo."

Tanto a Mustang-V100 como a Mustang-F100 proporcionam soluções economicamente acessíveis de aceleração para inferência de IA, e também podem ser usadas com o conjunto de ferramentas OpenVINO para otimizar fluxos de inferência para classificação de imagem e visão computacional. O conjunto de ferramentas OpenVINO, desenvolvido pela Intel, proporciona um desenvolvimento mais rápido de visão computacional de alto desempenho e "deep learning" em aplicação de visão computacional. Inclui o Model Optimizer e Inference Engine, e pode otimizar modelos de "deep learning" previamente treinados (como o Caffe e o TensorFlow) para uma representação intermediária (IR), e depois executar o motor de inferência ao longo de diferentes tipos de hardware Intel (tais como CPU, GPU, FPGA e VPU).

À medida que os NAS da QNAP evoluem para suportar uma maior gama de aplicações (incluindo videovigilância, virtualização e IA), a combinação de um armazenamento amplo e de expansibilidade PCIe é vantajosa pelo seu potencial uso para IA. A QNAP desenvolveu a ferramenta OpenVINO Workflow Consolidation Tool (OWCT), que potencia a tecnologia do conjunto de ferramentas OpenVINO da Intel. Quando usados com OWCT, os NAS da QNAP baseados em Intel apresentam-se como uma solução ideal de Inference Server para ajudar organizações a construir sistemas de inferência rapidamente. Os criadores de IA podem implementar modelos treinados num NAS da QNAP para inferência, e instalar as placas aceleradoras Mustang-V100 ou Mustang-F100 para alcançar um desempenho otimizado para executar a inferência.

Os NAS da QNAP agora suportam as placas Mustang-V100 e Mustang-F100 com a mais recente versão do sistema operativo QTS 4.4.0. Para conhecer todos os modelos de NAS da QNAP que suportam o QTS 4.4.0., por favor, visite www.qnap.com. Para fazer download e instalar a app OWCT para NAS da QNAP, por favor, visite o App Center.

Características Principais
  • Mustang-V100-MX8-R10
    Oito VPUs Intel® MovidiusMyriad™ X MA2485 de meia altura, interface PCI Express Gen2 x4, consumo de energia inferior a 30W
  • Mustang-F100-A10-R10
    FPGA Intel® Arria® 10 GX1150 de meia altura, interface PCI Express Gen3 x8, consumo de energia inferior a 60W

0 Comments: