Tensor Processing Unit

acceleratore IA

Una tensor processing unit (TPU) è un acceleratore IA costituito da un circuito ASIC sviluppato da Google per applicazioni specifiche nel campo delle reti neurali. La prima tensor processing unit è stata presentata nel maggio del 2016 in occasione della Google I/O; la società specificò che le TPU erano già impiegate all'interno dei propri data center da oltre un anno[1][2]. Il circuito è stato appositamente progettato per la libreria open source TensorFlow[3]. La stessa Google continua ad impiegare le classiche CPU e GPU per altre tipologie di applicazioni orientate all'apprendimento automatico.

Una Tensor Processing Unit 3.0
Una Tensor Processing Unit 3.0

Descrizione

Google ha pensato per questo tipo di processore ad una architettura a specifico dominio progettata come un processore-matrice esclusivamente pensato per il lavoro per reti neurali a velocità incredibilmente elevate consumando molta meno energia e all'interno di uno spazio fisico ridotto[4]. In questa maniera viene ridotto grandemente il collo di bottiglia dell'architettura di von Neumann perché Il compito principale del processore è di calcolare matrici,approcciando con una architettura ad array sistolico può usare migliaia di moltiplicatori e addenti e connetterli direttamente per formare una matrice fisica per questi operatori[4]. Per la seconda generazione di TPU ci sono due array sistolici da 128 x 128 che aggregano 32768 ALU per valori a 16 bit in virgola mobile per singolo processore[4]..

Prodotti

Prima generazione

La TPU di prima generazione è un motore di moltiplicazione a matrice a 8 bit che opera con le istruzioni CISC dalla CPU host tramite il bus PCIe 3.0.  Il TPU è prodotto con un processo a 28 nm e la dimensione esatta della matrice non è nota, ma è meno della metà di Haswell.  La velocità di clock è di 700 MHz e la potenza di progettazione termica (consumo energetico) è di 28-40 W.  Il TPU ha una memoria chip da 28 MiB e un accumulatore da 4 MiB a 32 bit che ottiene i risultati di 65536 accumulatori a 8 bit.  Le istruzioni eseguono la trasmissione / ricezione dei dati con l'host, la moltiplicazione / convoluzione della matrice e l'applicazione della funzione di attivazione.


Seconda generazione

Terza generazione

Note

  1. ^ (EN) Google's Tensor Processing Unit explained: this is what the future of computing looks like, su TechRadar. URL consultato il 14 aprile 2019.
  2. ^ (EN) Google supercharges machine learning tasks with TPU custom chip, su Google Cloud Platform Blog. URL consultato il 14 aprile 2019.
  3. ^ (EN) TensorFlow: Open source machine learning, su YouTube. URL consultato il 14 aprile 2019.
  4. ^ a b c What makes TPUs fine-tuned for deep learning?, in cloud.google.com. URL consultato il 28 aprile 2019.

Voci correlate

  Portale Informatica: accedi alle voci di Wikipedia che trattano di informatica