O uso de chips NPU (unidade de processamento neural) irá aumentar consideravelmente. O motivo disso é foco que a Qualcomm teve em seus novos chipsets para celulares em computadores: a inteligência artificial (IA). Para possibilitar o processamento instruções relacionadas a aprendizado de máquina (machine learning) utilizando redes neurais artificiais, por exemplo, os NPUs são necessários.
O que é NPU?
NPU significa unidade de processamento neural e é um microprocessador dedicado à função de aceleração de algoritmos de aprendizado de máquina. Normalmente os chips NPU são utilizados em modelos de IApreditivos como, por exemplo, redes neurais artificiais (RNAs).
As Neural Processing Units (NPUs) ou Unidades de Processamento Neural, traduzindo diretamente para o português, podem ser ou estar presentes nos seguintes chips:
- Tensor processing unit (TPU)
- Neural Network Processor (NNP)
- Intelligence processing unit (IPU)
- Vision processing unit (VPU)
- Graph processing unit (GPU)
Para que servem as NPUs?
As NPUs podem ser usadas para qualquer finalidade computacional e servem para acelerar o cálculo de tarefas de aprendizado de máquina em várias dobras/folds (quase 10 mil vezes) em comparação com GPUs. Além de "desafogar" os chips gráficos, as unidades de processamento neural também conseguem processar melhor tarefas de aprendizado de máquina que as CPUs. Por fim, ainda temos a vantagem de o consumo de energia não ser alto, colaborando para a eficiência energética do chipset.
Onde as NPUs podem ser utilizadas na prática
Há algumas aplicações práticas em que as NPUs fazem a diferença. São elas:
- Carros autônomos
- Monitoramento de sistemas (segurança envolvendo reconhecimento facial)
- Monitoramento de áreas (diferentes tipos de ambientes, seja urbano ou natural)
- Auxílio na saúde através de análises, geração de tratamentos precisos e mais
Quais chipsets possuem NPUs?
Abaixo alguns exemplos de empresas e seus chipsets que tiveram NPUs implementadas:
- Alibaba: Ali-NPU
- AlphaICs: Gluon
- Amazon: AWS Inferentia
- Apple: Neural Engine
- AMD: AI Engine
- Arm: ML Processor
- Baidu: Kunlun
- Bitmain: Sophon
- Cambricon: MLU
- Cerebras: CS-1
- Flex Logix: InferX
- Nepes: NM500 (General Vision tech)
- GreenWaves: GAP8
- Google: TPU
- Gyrfalcon Technology: Lightspeeur
- Graphcore: IPU
- Groq:
- Habana: HL Series
- Hailo: Hailo-8
- Huawei: Ascend
- Intel: NNP, Myriad, EyeQ, GNA
- Kendryte: K210
- Mediatek: NeuroPilot
- Mythic: Template:mythic
- NationalChip: Neural Processing Unit (NPU)
- NEC: SX-Aurora (VPU)
- Nvidia: NVDLA, Xavier
- Qualcomm: Hexagon
- Quadric: Chimera General Purpose NPU (GPNPU)
- Samsung: Neural Processing Unit (NPU)
- Rockchip: RK3399Pro (NPU)
- Amlogic: Khadas VIM3 (NPU)
- ai: Machine Learning System on chip (MLSoC)
- Synaptics: SyNAP (NPU)
- Tesla: FSD Chip
- Vathys
- Wave Computing: DPU
- Brainchip: Akida (NPU & NPEs)
- Syntiant: Neural decision processors
😕 Poxa, o que podemos melhorar?
😃 Boa, seu feedback foi enviado!
✋ Você já nos enviou um feedback para este texto.