Novidades da Google IO para Inteligência Artificial incluem a Cloud TPU: Como esperado, a Google I/O começa trazendo novidades na área de Inteligência Artificial. Durante o keynote, da conferência anual para desenvolvedores, na tarde desta quarta-feira (17/5), o Google apresentou a Cloud TPU, desenvolvida especialmente para acelerar o processamento dos dois dos maiores desafios enfrentados pelos desenvolvedores de Machine learning hoje: o treinamento dos programas para ensiná-los a fazer uma atividades específica e a inferência, ou seja, a capacidade deles de inferir insights, a partir dos dados processados com a nova tarefa aprendida.
Novidades da Google IO: Na opinião dos especialistas, a chegada dessa segunda geração da TPU significa um passo a mais, dado pelo Google, em direção ao domínio do hardware de Machine Learning.
Usando a segunda geração de TPUs, o time de engenheiros do Google conseguiu reduzir o tempo de treinamento dos modelos de tradução, que “turbinam” aplicativos como o Google Tradutor, de um dia (com 32 GPUs) para uma tarde, usando apenas 1/8 do Cloud TPU.
CloudTPU
Cada uma dessas novas TPUs oferece até 180 teraflops de desempenho de ponto flutuante. E por mais poderosos que sejam individualmente, os projetistas do Google trabalharam para que funcionem ainda melhor em conjunto. Cada TPU inclui uma rede personalizada de alta velocidade que permite construir supercomputadores. Chamamos de “TPU pods”. Um pod TPU contém 64 TPUs de segunda geração e fornece até 11,5 petaflops para acelerar o treinamento de uma solução de Machine Learning.
As empresas poderão usar os novos chips através da plataforma de nuvem do Google como parte de sua oferta de infraestrutura como serviço Compute Engine, por enquanto disponível apenas para o Estados Unidos. O que significa que empresas brasileiras, interessadas em se familiarizarem com o produto, terão que fazê-lo usando o serviço de nuvem a partir dos Estados Unidos.
Quando a região Brasil for uma realidade, o que deve acontecer ainda este ano, talvez o serviço esteja disponível também a partir do Brasil. Mas a própria Google só conta com esta possibilidade para 2018.
A aprendizagem de máquina tornou-se cada vez mais importante para alimentar a próxima geração de aplicações. Acelerar a criação de novos modelos significa que será mais fácil para empresas experimentar diferentes abordagens para encontrar os melhores para aplicações específicas. E o novo hardware da Google também pode servir para atrair novos clientes para sua plataforma de nuvem, numa época em que a empresa está competindo contra a Microsoft, a Amazon e outros titãs de tecnologia.
pecificações
Com as novas TPUs na Google Compute Engine, como TPUs na nuvem, será possível conectá-las a máquinas virtuais de todas as formas e tamanhos, misturá-las e combiná-las com outros tipos de hardware, incluindo Skylake, CPUs e GPUs Nvidia.
Você pode programar TPUs com TensorFlow, o framework de aprendizagem de máquinas open-source do Google, disponível no GitHub, e através de APIs de alto nível que facilitarão o treinamento de soluções de Machine Learning em CPUs, GPUs ou Cloud TPUs com apenas alterações mínimas de código.
O TensorFlow 1.2 inclui novas APIs de alto nível, que tornam mais fácil levar sistemas construídos para serem executados em CPUs e GPUs e também executá-los em TPUs. Fabricantes de outras estruturas de aprendizagem de máquinas, como a Caffe, podem fazer com que suas ferramentas funcionem com TPUs, projetando-as para chamar as APIs de TensorFlow, de acordo com o Google Senior Fellow Jeff Dean.
Além disso, com as Cloud TPUs, os desenvolvedores têm a oportunidade de integrar aceleradores ML de última geração diretamente na sua infraestrutura de produção. E se beneficiar de serviços de poder de computação, sem qualquer desembolso inicial, segundo o Google. Uma vez que os aceleradores ML rápidos colocam exigências extraordinárias em sistemas e redes de armazenamento, O Google está otimizando toda a sua infraestrutura de nuvem para ajudar a garantir que os desenvolvedores possam usar ML rapidamente, usando dados reais de produção.
TensorFlow Research Cloud
Inicialmente, o Cloud TPU estará disponível por meio do Google Compute Engine. Mas, também serão oferecidos 1 mil Cloud TPUs gratuitos para serem usados por pesquisadores do TensorFlow Research Cloud, democratizando o acesso à tecnologia de ponta em inteligência artificial.
Grande parte dos progressos recentes em Machine Learning tem sido impulsionada por colaboração entre pesquisadores de todo o mundo, tanto na indústria como na academia. No entanto, muitos pesquisadores ”top” não têm acesso a todo poder computacional do qual precisam. Ajudar o maior número de pesquisadores a acelerar ainda mais o ritmo das pesquisas em Machine Learning, é um dos motivos pelos quais as 1 mil Cloud TPUs estejam disponíveis através do TensorFlow Research Cloud.
Aqueles profissionais e pesquisadores interessados em: acelerar o treinamento de modelos de aprendizagem de máquina, processamento de conjuntos de Big Data, ou processamento de solicitações ao vivo em produção, usando modelos ML mais potentes, podem inscrever-se hoje para saber mais sobre o programa Cloud TPU Alpha. Já os pesquisadores que estiverem dispostos a compartilhar suas descobertas com o mundo, também vale conhecer melhor o programa TensorFlow Research Cloud.
“Novidades da Google IO”
FONTE: ComputerWorld
Conteúdos que você pode gostar também:
Inteligência Artificial e os benefícios do deep learning
Inteligência Artificial e os benefícios do deep learning: Junto com diversas pesquisas e descobertas relacionadas ao…
Infrastructure as a Code: Gerencie nuvens com eficiência
Saiba mais sobre o termo Infrastructure as a Code O termo Infrastructure as a Code (Infraestrutura como Código) tem se…
Como migrar pra cloud computing de forma segura?
Dicas de como migrar para cloud computing com segurança O fato de migrar pra cloud computing nada mais é do que uma…