Casa > Q > Qual É O Motor Neural Da Apple?

Qual é o motor neural da Apple?

A Apple não revelou muito sobre a tecnologia, à primeira vista, a Apple incorporou o módulo tipo GPU dentro do seu mais recente processador para o seu novo smartphone para lidar com a nova demanda de aplicativos AI nesta nova onda de Aprendizagem Profunda / Aprendizagem Mecânica.

No início, a Apple habilitou seus próprios recursos de sistema, por exemplo FaceID e Anmoji para tirar vantagem dos recursos de processamento da Rede Neural e, conforme o roteiro da IA para Apple fica mais claro, o desenvolvedor deve esperar que a Apple abra para que aplicativos de terceiros usem o mesmo.

O requisito básico para o processamento de IA é executar um grande número de operações de matriz simultaneamente, o que deixa os de fora um bom palpite de que esse mecanismo neural foi criado para uma performance otimizada com muitas dessas operações, como um processador de GPU nVidia, que é crucial para a performance em tempo real de aplicativos de IA móvel. Entre todas as aplicações de IA comumente antecipadas, cada uma com múltiplas variantes de modelos de Aprendizagem Profunda, as pessoas esperam Computer Vision usando InceptionV4, ResNet e Mask R-CNN, estas são as tarefas mais exigentes em termos de poder de processamento neural. E qualquer operação de inferência de Rede Neural de reconhecimento visual em tempo real para um único quadro deve funcionar bem abaixo de 50-80 milissegundos. Além disso, a execução de modelos de PNL "pesados", tais como Transformer/LSTM/GRU de grande porte com Atenção, Ativação da Fala e Reconhecimento da Fala em baixa latência em smartphones também é altamente antecipada.

Cuidando com processadores e modelos de programação concorrentes, e considerando todo o ciclo de vida do treinamento à inferência, o celular ainda é uma arena altamente competitiva e nenhum padrão importante está saindo ainda, e a comunidade de desenvolvedores de IA neste momento ainda está muito confusa sobre o que fazer para criar uma aplicação de IA de alto desempenho em celulares, quero dizer que não há uma solução clara neste momento.

Como o Google está dominando em TPU para nuvem, fornecendo a plataforma de programação Data Science mais favorita Tensorflow, e tendo a maior fatia do mercado de smartphones com Android, eu sugeriria a alguém que esteja interessado no Apple Neural Engine também olhar para o Tensorflow Lite, eles suportam Android, Apple iOS e dispositivos embarcados como o Raspberry Pi também. Para redução de treinamento e processamento de ponto de flutuação de inferência, que é comumente FP32 em uma GPU padrão baseado em configuração de PC, ou servidor de nuvem AI, deve-se reduzir para FP16 como nVidia TensorRT oferece como solução, o Google com Tensorflow Lite oferece Quantization, que é uma abordagem similar trade-off equilíbrio entre os requisitos do processador versus a precisão da previsão. Eu acredito que a Apple irá fornecer algo semelhante para atingir o mesmo objetivo.

Data Scientists are looking for Tensorflow, Torch and Caffe support allow them to run existing applications on Apple's products and platforms seamlessly. A menos que a Apple fique à frente da concorrência e forneça uma nova biblioteca tensora personalizada e com um desempenho decisivamente superior no mercado móvel com base neste novo Neural Engine.

De Melodie

As mensagens enviadas usando o iMessage da Apple são criptografadas? :: Posso carregar o meu iPhone com um carregador 2.4 A?