A matriz de aprendizagem automática, TensorFlow, fez "dieta" visando a sua optimização para smartphones e dispositivos similares.
O futuro do Android envolverá maior inteligência artificial, graças a novas ferramentas de programação reveladas pela Google, na última conferência I/O. A TensorFlow Lite, uma versão da sua matriz de aprendizagem automática foi concebida para ser executada em smartphones e outros dispositivos móveis.
"O TensorFlow Lite impulsionará uma nova API de rede neuronal para funcionar com componentes aceleradores em silício, que com o tempo, esperamos ver [chips de processamento de sinal digital] especificamente projetados para inferência e treino de redes neurais", explicou Dave Burke, vice-presidente de engenharia da Google para Android. "Achamos que essas novas capacidades ajudarão a gerar a próxima geração de processamento de voz no aparelho, a pesquisa visual, realidade aumentada e muito mais".
A estrutura Lite tornar-se-á parte do projeto TensorFlow de código aberto, em breve, e a API de rede neural será integrada na próxima grande versão do Android ainda este ano. A framework tem sérias implicações na forma como a Google vê como o futuro do hardware de mobilidade.
Os chips com foco em IA podem tornar possível aos smartphones resolver cálculos mais avançados de aprendizagem automática consumindo menos energia. Havendo mais aplicações a usar aprendizagem automática de modo a oferecer experiências mais inteligentes, tornando esse tipo de trabalho mais fácil no dispositivo é fundamental.
Atualmente, construir a aprendizagem automática em aplicações ‒ especialmente quando se trata de modelos de treino ‒ requer uma quantidade de poder computacional de hardware de grandes dimensões, muito tempo e energia. Isso não é muito prático para apps alojadas em smartphone.
O processamento de dados em cloud para um smartphone, traz várias desvantagens, de acordo com Patrick Moorhead (Moor Insights & Strategy), por exemplo, exige que os utilizadores estejam dispostos a transferir os seus dados para os servidores de uma empresa.
E muitas vezes o trabalho de processamento é descarregado para um datacenter massivamente, enviando imagens, texto e outros dados pela Internet. Mas o processamento desses dados em cloud traz várias desvantagens, de acordo com Patrick Moorhead, analista principal da Moor Insights & Strategy. Implica que os utilizadores estejam dispostos a transferir os seus dados para os servidores de uma empresa.
Além de precisarem de estar num ambiente com grande grau de conectividade para garantir uma operação de baixa latência. Já existe um processador de móvel com um Digital Signal Processor (DSP) específico para a aprendizagem automática: o sistema num chip Qualcomm Snapdragon 835 traz o Hexagon DSP que suporta TensorFlow.
Os DSP também são usados para fornecer funcionalidades como o reconhecimento de frases de ativação "OK, Google" para o Google Assistan, de acordo com Moorhead. Espera-se que surjam mais chips de aceleração para aprendizagem automática no futuro, acrescenta.
"Desde que a Lei de Moore 'desacelerou', emergiu um modelo de computação heterogêneo". O setor está a "usar diferentes tipos de processadores para fazer diferentes tipos de coisas, seja um DSP, seja um Field-Programmable Gate Array (FPGA) ou uma CPU. É quase como se estivéssemos usando o taco de golfe certo para o buraco certo".
A Google já investe em hardware específico para aprendizagem automática há algum tempo com uma linha de chips, Tensor Processing Unit. São projetados para acelerar o treino de novos algoritmos, assim como o processamento de dados usando modelos existentes.