Novidade foi exibida durante a GTC 2014, evento promovido na última semana pela NVIDIA
(Fonte da imagem: Reprodução/ExtremeTech)
O estudo de como o cérebro reconhece imagens pode ganhar grandes avanços graças à utilização de GPUs para processamento. Detalhes sobre o assunto foram revelados por Adam Coates, pesquisador da Universidade de Stanford, durante a GPU Technology Conference 2014, evento realizado pela NVIDIA na cidade de San Jose, nos Estados Unidos, na última semana.
Segundo ele, a ideia é que as GPUs possam realizar trabalhos de pesquisa em escalas. Há dois anos, a Google revelou uma rede neural com 1 bilhão de parâmetros e 9 camadas de rede visando reconhecer imagens em meio a 10 milhões de frames no YouTube. Entretanto, um projeto como esse da Google requer alguns milhões de investimento.
“Nós estamos extraindo tudo o que é possível das GPUs”, explicou. Inicialmente o projeto começou utilizando três servidores e 12 GPUs. Agora, com 16 máquinas e 64 GPUs, o pesquisador comemora o fato de a sua rede ter alcançado 47 vezes a taxa de transferência conseguida pela Google ao executar 11,2 bilhões de parâmetros.
“Conseguimos levar as redes neurais a um escala impensável e não é preciso mais desembolsar milhões de dólares para fazer isso acontecer”, explicou Coates. “Hoje nós não temos um algoritmo que possa ser aplicado a 11,2 bilhões de parâmetros e, quando chegarmos a esse ponto, já haverá hardware ainda mais avançado para isso”, completou.
O Tecmundo viajou à GTC 2014, nos Estados Unidos, a convite da NVIDIA.
O estudo de como o cérebro reconhece imagens pode ganhar grandes avanços graças à utilização de GPUs para processamento. Detalhes sobre o assunto foram revelados por Adam Coates, pesquisador da Universidade de Stanford, durante a GPU Technology Conference 2014, evento realizado pela NVIDIA na cidade de San Jose, nos Estados Unidos, na última semana.
Segundo ele, a ideia é que as GPUs possam realizar trabalhos de pesquisa em escalas. Há dois anos, a Google revelou uma rede neural com 1 bilhão de parâmetros e 9 camadas de rede visando reconhecer imagens em meio a 10 milhões de frames no YouTube. Entretanto, um projeto como esse da Google requer alguns milhões de investimento.
“Nós estamos extraindo tudo o que é possível das GPUs”, explicou. Inicialmente o projeto começou utilizando três servidores e 12 GPUs. Agora, com 16 máquinas e 64 GPUs, o pesquisador comemora o fato de a sua rede ter alcançado 47 vezes a taxa de transferência conseguida pela Google ao executar 11,2 bilhões de parâmetros.
“Conseguimos levar as redes neurais a um escala impensável e não é preciso mais desembolsar milhões de dólares para fazer isso acontecer”, explicou Coates. “Hoje nós não temos um algoritmo que possa ser aplicado a 11,2 bilhões de parâmetros e, quando chegarmos a esse ponto, já haverá hardware ainda mais avançado para isso”, completou.
O Tecmundo viajou à GTC 2014, nos Estados Unidos, a convite da NVIDIA.
FONTE:
0 comentários:
Postar um comentário
Faça seu comentário aqui ou deixe sua opinião.
Observação: somente um membro deste blog pode postar um comentário.