As coisas andam apressadas no MIT (Massachusetts Institute of Technology), uma das melhores universidades e parques tecnológicos mais inovadores do mundo. Apenas um dia depois deles terem revelado que alguns de seus pesquisadores criaram um chip de superpotência e baixo consumo para lidar com criptografia, o instituto está de volta às notícias com um chip de rede neural que reduz o consumo de energia em tarefas de inteligência artificial em 95%.
Com este novo recurso os chips são ideais para dispositivos que precisam de baterias para alimentação, como telefones celulares e tablets, e que agora poderão aproveitar os sistemas de inteligência artificial cada vez mais complexos.
As redes neurais são compostas de muitos processadores básicos de informações interconectadas que estão interligados entre si. Normalmente, essas redes aprendem a realizar tarefas analisando grandes conjuntos de dados, depois aplicando as melhorias na execuções posteriores das mesmas tarefas. Dentro dos smartphones, hoje, tais recursos são usados em coisas simples como reconhecimento de fala e manipulação de fotos.
Mas tem um motivo para que nossos telefones ainda não possam aproveitar o total poder de uma inteligência artificial. Tudo se resume no "problema" de que, na mesma medida em que as redes neurais ficam mais complexas e que as tarefas para as quais são designadas passam a ser mais elaboradas, elas passam a exigir mais poder de processamento e exigir um maior consumo energético. Agora responda rápido: Seu smartphone - e sua bateria que mal aguenta 24h de funcionamento - está preparado para uma inteligência artificial "realmente inteligente".
Creio que não, ou melhor, não estava. Graças ao MIT isso tende a mudar.
Além das diminuições no consumo de energia, o novo chip desenvolvido por eles aumenta a velocidade computacional das redes neurais de três a sete vezes em relação às iterações anteriores. Os pesquisadores conseguiram simplificar os algoritmos de machine learning em redes neurais a um único ponto, chamado de produto ponto (dot product, em inglês). Isso representa todo o movimento de ida e volta de vários nós na rede neural e evita a necessidade de fazer com que os dados precisem se deslocar pela memória, como até então. O novo chip também pode calcular produtos ponto para múltiplos nós (16 nós no protótipo) em uma única operação em vez de mover os resultados brutos de cada computação entre o processador e a memória.
O vice-presidente da IBM, AI Darío Gil, está otimista e disse que este é um grande passo. "Os resultados mostram especificações impressionantes para o custo-benefício energético de sua implementação de operações de convolução com matrizes de memória", disse ele em um comunicado. "Certamente, irá abrir a possibilidade de empregar redes neurais convolutivas mais complexas para classificações de imagem e vídeo na Internet das Coisas do futuro".
😕 Poxa, o que podemos melhorar?
😃 Boa, seu feedback foi enviado!
✋ Você já nos enviou um feedback para este texto.