Intel apresenta o Movidius Neural Compute Stick com foco no desenvolvimento de Inteligência Artificial

A iniciativa busca democratizar o desenvolvimento de aplicações de aprendizado profundo

A Intel lança o Movidius™ Neural Compute Stick, o primeiro kit de inferência de aprendizado profundo e acelerador autônomo de inteligência artificial (AI) do mundo baseado na tecnologia USB, que fornece capacidades dedicadas de processamento de rede neural para uma ampla gama de dispositivos. Projetado para desenvolvedores de produtos, pesquisadores e criadores, o Movidius Neural Compute Stick busca reduzir as barreiras para o desenvolvimento, o ajuste e a implantação de aplicativos AI ao fornecer processamento dedicado de alto desempenho de rede neural em formato de pen drive.

À medida que mais desenvolvedores adotam abordagens avançadas de aprendizado de máquina para criar aplicativos e soluções inovadoras, a Intel está comprometida a fornecer o mais abrangente conjunto de ferramentas e recursos para garantir que os desenvolvedores estejam reescrevendo para uma economia digital centrada na AI.

Seja para o treinamento de redes neurais artificiais na Intel® Nervana™ cloud, para a otimização de cargas de trabalho emergentes, como inteligência artificial, realidade virtual, para a condução automatizada com processadores Intel® Xeon® Scalable, ou para levar a AI para a borda com a tecnologia da unidade de processamento de visão (VPU) Movidius, a Intel oferece um abrangente portfólio de ferramentas, treinamento e implantação AI para a próxima geração de produtos e serviços alimentados pela AI.

“A VPU  Myriad 2 embarcada dentro do Movidius Neural Compute Stick fornece um desempenho poderoso e eficiente no consumo de energia – mais de 100 gigaflops de desempenho dentro de um envelope com 1W de consumo – para rodar redes neurais profundas em tempo real diretamente no dispositivo” disse Remi El-Ouazzane, vice-presidente e gerente geral da Movidius, uma empresa da Intel. “Isto possibilita que uma ampla gama de aplicativos AI seja implantada offline”.

O desenvolvimento da inteligência da máquina é composto basicamente por duas etapas: (1) treinamento de um algoritmo em grandes conjuntos de dados de amostra por meio de modernas técnicas de aprendizado de máquina e (2) execução do algoritmo em um aplicativo final que precisa interpretar dados do mundo real. Esta segunda etapa é chamada de “inferência” e acontece na borda – ou nativamente dentro do dispositivo – trazendo inúmeros benefícios de latência, consumo de energia e privacidade:

  • Compilação: Converte automaticamente uma rede neural convolucional (CNN, na sigla em inglês) baseada no Caffe em uma rede neural embarcada otimizada para rodar a bordo da VPU Movidius Myriad 2.
  • Ajuste: A métrica de desempenho camada a camada para redes neurais, tanto no padrão da indústria quanto feitas sob medida, permite um ajuste efetivo para o melhor desempenho do mundo real com consumo ultrabaixo. Os scripts de validação permitem que os desenvolvedores comparem a precisão do modelo otimizado no dispositivo com o modelo original baseado no PC.
  • Aceleração: Exclusivo para o Movidius Neural Compute Stick, o dispositivo pode se comportar como um acelerador de rede neural discreto ao adicionar capacidades dedicadas de inferência de aprendizado profundo em plataformas computacionais existentes visando o melhor desempenho e eficiência no consumo de energia.

Sobre a Intel
A Intel (NASDAQ: INTC) amplia os limites da tecnologia para possibilitar as experiências mais incríveis. Informações sobre a Intel podem ser encontradas em newsroom.intel.com e Intel.com.

Intel e o logo da Intel são marcas registradas da Intel Corporation ou suas subsidiárias nos Estados Unidos e/ou outros países.

* Outros nomes e marcas são de propriedade de seus respectivos donos.