Next Generation Memory: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
Nessun oggetto della modifica |
Nessun oggetto della modifica |
||
Riga 31:
Quindi le aziende produttrici di memorie devono affrontare due sfide: la prima è ovviamente inventare nuove tecnologie per memorizzare che siano migliori e continuino a scalare come le attuali hanno fatto fino ad adesso; la seconda sfida, la più ardua, prevede l'inserimento di questa innovazione nel mercato. Il problema in questo caso è che ognuna delle tecnologie esistenti ha guadagnato il suo spazio nella gerarchia delle memorie: gli Hard Disk magnetici e meccanici (ultimamente sostituiti dagli SSD) per salvataggi veloci e piccoli, SRAM per la cache, DRAM per la memoria principale e i nastri per salvataggi enormi e lenti.
Oltre al fattore "hardware", esiste anche un problema "software", il quale è stato progettato negli anni per calzare alla perfezione con l'hardware attuale: l'esempio più significativo riguarda la RAM (DRAM), memoria molto veloce presente nella maggior parte dei dispositivi, comunemente usata per memorizzare temporaneamente variabili e codice del programma eseguito; questa memoria ha la caratteristica di essere volatile, quindi ogni dato viene rimosso nel momento in cui non è più alimentata. Per mantenere il dato in memoria quindi sono necessari continui refresh, i quali consumano enerigia, tempo e risorse. Il motivo del successo di questa memoria è stato il poterla produrre con costi contenuti. Questo esempio si può applicare a ogni altra tecnologia utilizzata in tutti gli ambiti: nessuna di queste è la tecnologia ideale, si è solamente adattato il sistema in modo che funzionasse con le tecnologie diffuse.
Quindi, l'introduzione di nuove tecnologie avrà un grosso impatto sulla progettazione del software, a oggi basato sulle attuali tecnologie.▼
Al momento, la più vicina alla commercializzazione di massa tra le nuove tecnologie viste precedentemente è la PCM, commercializzata da Micron Technology e Samsung.▼
===Caso delle Persistent Memory<ref>{{en}}{{cita web |cognome=Badam |nome=Anirudh |titolo=How Persisten Memory Will Change Software Systems |url=http://www.computer.org/csdl/mags/co/2013/08/mco2013080045-abs.html |accesso=20 Settembre 2014}}</ref>===
Fino ad oggi le memorie centrali sono state caratterizzate da:
*volatilità
*velocità
*possibilità di lavorare byte a byte
Le memorie di massa invece sono caratterizzate da:
*lentezza
Line 44 ⟶ 47:
Chiaramente queste memorie possiedono caratteristiche del tutto differenti dalle memorie utilizzate oggi, e per poter essere utilizzate necessitano un'evoluzione nella gestione della memoria virtuale.
Il problema software di cui si è parlato in precedenza si ricrea anche con queste memorie: il sistema operativo andrebbe reingegnerizzato in certe sue parti, e nonostante la memoria sia già in fase di test, il lavoro dei programmatori sarebbe dovuto avvenire in anticipo.
====Analisi software====
I sistemi attuali sfruttano le cache, ed a ogni livello hanno una tipologia diversa di memoria, e per mantenere la consistenza dei dati è necessario programmare il file system per eseguire scritture anche in RAM e sul disco fisso. Avendo una '''"Persistent Memory"''', la quale unisce le caratteristiche vincenti di DRAM e Hard Disk magnetico, potrebbe sostituire tutti i vari livelli esistenti, eliminando i tempi di interazione tra memorie (poichè sia logicamente che fisicamente se ne avrebbe solamente una).
▲Quindi, l'introduzione di nuove tecnologie avrà un grosso impatto sulla progettazione del software, a oggi basato sulle attuali tecnologie.
▲Al momento, la più vicina alla commercializzazione di massa tra le nuove tecnologie viste precedentemente è la PCM, commercializzata da Micron Technology e Samsung.
== Note ==
{{references}}
* {{en}}[http://research.google.com/archive/sawzall.html "Interpreting the Data: Parallel Analysis with Sawzall"] — paper by Rob Pike, Sean Dorward, Robert Griesemer, Sean Quinlan; from [[Google Labs]]
[[Categoria:Terminologia informatica]]
|