Tensor Processing Unit: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
Nessun oggetto della modifica Etichette: Modifica visuale Modifica da mobile Modifica da web per mobile |
m →Descrizione: Refusi |
||
(10 versioni intermedie di 8 utenti non mostrate) | |||
Riga 1:
[[File:Tensor Processing Unit 3.0.jpg|alt=Una Tensor Processing Unit 3.0|thumb|
Una '''tensor processing unit''' ('''TPU''') è un [[acceleratore IA]] costituito da un circuito [[ASIC]] sviluppato da [[Google (azienda)|Google]] per applicazioni specifiche nel campo delle [[Rete neurale artificiale|reti neurali]]. La prima tensor processing unit è stata presentata nel maggio del 2016 in occasione della [[Google I/O]]; la società specificò che le TPU erano già impiegate all'interno dei propri data center da oltre un anno<ref>{{Cita web |url=https://www.techradar.com/news/computing-components/processors/google-s-tensor-processing-unit-explained-this-is-what-the-future-of-computing-looks-like-1326915 |titolo=Google's Tensor Processing Unit explained: this is what the future of computing looks like |sito=TechRadar |lingua=en |accesso=2019-04-14}}</ref><ref>{{Cita web |url=https://cloud.google.com/blog/products/gcp/google-supercharges-machine-learning-tasks-with-custom-chip |titolo=Google supercharges machine learning tasks with TPU custom chip |sito=Google Cloud Platform Blog |lingua=en |accesso=2019-04-14}}</ref>.
Il circuito è stato appositamente progettato per la libreria open source [[TensorFlow]]<ref>{{Cita web |url=https://www.youtube.com/watch?v=oZikw5k_2FM |titolo=TensorFlow: Open source machine learning |sito=YouTube |lingua=en |accesso=2019-04-14}}</ref>. La stessa Google continua ad impiegare le classiche [[CPU]] e [[Graphics processing unit|GPU]] per altre tipologie di applicazioni orientate all'[[apprendimento automatico]].
== Descrizione ==
Google ha pensato per questo tipo di processore
In questa maniera viene ridotto grandemente il collo di bottiglia dell'[[architettura di von Neumann]] perché Il compito principale del processore è di calcolare matrici, approcciando con una architettura ad [[array sistolico]] può usare migliaia di moltiplicatori e
Per la seconda generazione di TPU ci sono due array sistolici da 128
== Prodotti ==
=== Prima generazione ===
La TPU di prima generazione è un motore di moltiplicazione a matrice a [[8 bit]] che opera con le istruzioni CISC dalla CPU host tramite il bus PCIe 3.0.
=== Seconda generazione ===
Il TPU di seconda generazione è stato annunciato a maggio 2017. Google ha dichiarato che il design di TPU di prima generazione era limitato dalla [[larghezza di banda]] di memoria e l'utilizzo di 16 GB di memoria ad alta larghezza di banda nel design di seconda generazione ha aumentato la larghezza di banda a 600 GB / se le prestazioni a 45 teraFLOPS
=== Terza generazione ===
Il TPU di terza generazione è stato annunciato l'8 maggio 2018. Google ha annunciato che i processori stessi sono due volte più potenti dei TPU di seconda generazione e sarebbero stati distribuiti in pod con un numero di chip quattro volte superiore rispetto alla generazione precedente.
== Note ==
Riga 25:
* [[Acceleratore IA]]
* [[Intelligenza artificiale]]
== Altri progetti ==
{{interprogetto}}
{{portale|informatica}}
|