Ir para conteúdo
Faça parte da equipe! (2024) ×

Google diz que seus chips de IA superam GPUs e CPUs em desempenho


NadaMal-
 Compartilhar

Posts Recomendados

Em relatório, gigante diz que os chamados TPUs superaram processadores e placas comparáveis com bastante folga.

 

GOOGLEHQ_625.jpg

 

Há quatro anos, o Google enfrentou um dilema: caso todos os seus usuários usassem seus serviços de reconhecimento de voz por três minutos ao dia, a companhia precisaria dobrar o número de data centers apenas para lidar com todos os pedidos ao sistema de machine learning que impulsionam esses serviços.

 

Em vez de comprar alguns terrenos e servidores apenas para isso, a empresa embarcou em uma jornada para criar hardware dedicado para rodar aplicativos de machine learning como reconhecimento de voz.

 

O resultado foi o Tensor Processing Unit (TPU), um chip que é feito para acelerar o estágio de inferência de redes neurais profundas. O Google publicou um artigo nesta semana revelando os ganhos de performance que a empresa viu em relação a CPUs e GPUs comparáveis, tanto em termos de poder cru quanto de desempenho por watt de energia consumido.

 

Em tarefas de inferência de machine learning, o TPU conseguiu, em média, um resultado entre 15 e 30 vezes mais rápido do que uma CPU Intel Haswell ou uma GPU Nvidia K80. Mais importante ainda, o desempenho por watt do TPU foi entre 25 e 80 vezes melhor do que o Google registrou com a CPU e a GPU.

 

googletpu.jpg

 

Impulsionar esse tipo de melhoria no desempenho é importante para o Google, considerando a ênfase da empresa em criar aplicativos de machine learning. Os ganhos validam o foco da companhia em criar hardware de machine learning em um momento em que fica mais difícil conseguir grandes ganhos de performance a partir do silício tradicional.

 

E isso é mais do que apenas um exercício acadêmico. O Google usou TPUs em seus data centers desde 2015 e eles foram colocados em uso para melhorar o desempenho de diferentes aplicativos, incluindo soluções de tradução e de reconhecimento de imagem.

 

Os TPUs são especialmente úteis quando o assunto é eficiência energética, que é uma métrica importante relacionada ao custo do uso de hardware em escala massiva.

 

Uma das outras métricas chave para os objetivos do Google é a latência, que é onde os TPUs se destacam em relação a outras opções de silício.

 

O ilustre engenheiro de hardware do Google, Norm Jouppi, afirmou que os sistemas de machine learning precisam responder rapidamente para fornecer uma boa experiência de uso.

 

“O lance é que a Internet leva tempo. Por isso, se você estiver usando um servidor baseado na Internet, ele leva tempo para ir do seu aparelho para a nuvem e leva tempo para voltar”, afirmou. “Redes e várias coisas na nuvem - no data center - levam algum tempo. Então isso não deixa muito tempo se você quer respostas quase instantâneas.”

 

O Google testou os chips em cinco aplicativos diferentes de inferência de rede neural, representando 95% desses aplicativos nos data centers do Google. Os apps testados incluem o DeepMind AlphaGo, o sistema que derrotou Lee Sedol em uma partida de xadrez no ano passado.

 

A empresa testou os TPUs contra aparelhos que foram lançados por volta da mesma época para tentar conseguir uma comparação mais próxima em termos de desempenho. É possível que hardwares mais novos consigam diminuir a diferença de performance.

A vida lhe dar desafios, entre esses uns longos mas nada que tome todo o seu tempo. - Klaus

giphy.gif

 

tgtceqV.png v3hpfp6.png yKSRniq.png f3uQKY9.png behVjSE.png zekazca.png f3uQKY9.png AHFoSmc.png BRzGtem.png behVjSE.png  tkeNAmv.png behVjSE.png

Link para o comentário
Compartilhar em outros sites

Este tópico está impedido de receber novos posts.
 Compartilhar

  • Quem Está Navegando   0 membros estão online

    • Nenhum usuário registrado visualizando esta página.
×
×
  • Criar Novo...

Informação Importante

Nós fazemos uso de cookies no seu dispositivo para ajudar a tornar este site melhor. Você pode ajustar suas configurações de cookies , caso contrário, vamos supor que você está bem para continuar.