Tensor Processing Unit: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
m Bot: spazio unificatore unicode e modifiche minori |
No2 (discussione | contributi) |
||
Riga 6:
Google ha pensato per questo tipo di processore ad una architettura a specifico dominio progettata come un processore-matrice esclusivamente pensato per il lavoro per reti neurali a velocità incredibilmente elevate consumando molta meno energia e all'interno di uno spazio fisico ridotto<ref name = "TPUArray">{{cita web| url = https://cloud.google.com/blog/products/ai-machine-learning/what-makes-tpus-fine-tuned-for-deep-learning |titolo = What makes TPUs fine-tuned for deep learning? |pubblicazione = cloud.google.com|accesso = 28 aprile 2019}}</ref>.
In questa maniera viene ridotto grandemente il collo di bottiglia dell'[[architettura di von Neumann]] perché Il compito principale del processore è di calcolare matrici,approcciando con una architettura ad [[array sistolico]] può usare migliaia di moltiplicatori e addenti e connetterli direttamente per formare una matrice fisica per questi operatori<ref name = "TPUArray"/>.
Per la seconda generazione di TPU ci sono due array sistolici da 128 x 128 che aggregano 32768 [[Unità aritmetica e logica|ALU]] per valori a 16 bit in virgola mobile per singolo processore<ref name = "TPUArray"/>..
== Prodotti ==
|