Computer cluster
Un computer cluster, o più semplicemente un cluster (dall'inglese grappolo), è un insieme di computer connessi tramite una rete telematica. Lo scopo di un cluster è quello di distribuire una elaborazione molto complessa tra i vari computer componenti il cluster. In sostanza un problema che richiede molte elaborazioni per essere risolto viene scomposto in sottoproblemi separati i quali vengono risolti in parallelo. Questo ovviamente aumenta la potenza di calcolo del sistema.

Requisiti per formare un cluster di computer
Per ottenere un sistema di computer operanti come un cluster è necessario:
- un sistema operativo in grado di far funzionare i computer come cluster (per esempio GNU/Linux, utilizzando OpenMosix)
- hardware di rete ad elevate prestazioni
- un algoritmo parallelizzabile.
Tipi di cluster computing
Esistono tre tipi di cluster: Fail-over, Load balancing ed High Performance Computing, con i primi due che sono probabilmente i più diffusi:
- Fail-over Cluster: il funzionamento delle macchine è continuamente monitorato, e quando uno dei due host smette di funzionare l’altra macchina subentra. Lo scopo è garantire un servizio continuativo;
- Cluster con load balancing: è un sistema nel quale le richieste di lavoro sono inviate alla macchina con meno carico;
- HPC Cluster: i computer sono configurati per fornire prestazioni estremamente alte. Le macchine suddividono i processi di un job su più macchine, al fine di guadagnare in prestazioni. La peculiarità saliente è che i processi sono parallelizzati e che le routine che possono girare separatamente saranno distribuite su macchine differenti invece di aspettare di essere eseguite una dopo l’altra. GLI HPC sono diffusi specialmente tra centri di elaborazione dati;
L'utilizzo di questa tecnologia è molto diffuso: per esempio Ferrari e Dreamworks utilizzano cluster (basati sul sistema operativo GNU/Linux) sui quali fanno girare programmi di rendering e di simulazione fluidodinamica computazionalmente molto onerosi.[senza fonte]
Applicazione di cluster computing per grandi prestazioni
L'organizzazione TOP500 elenca ogni semestre i 500 calcolatori più veloci al mondo e solitamente in questa lista sono inclusi molti cluster.
TOP500 è una collaborazione fra università di Mannheim, università del Tennessee e centro di elaborazione scientifico nazionale di ricerca energetica al laboratorio nazionale Lawrence Berkeley.
Al novembre 2006, il supercomputer più veloce era il sistema IBM Blue Gene/L del Dipartimento per l'energia degli USA con le prestazioni di 280.6 TFlops.
Usare cluster può fornire significativi incrementi di prestazioni contenendo il costo.
System X, il supercomputer di Virginia Tech, al giugno 2006 era il ventottesimo supercomputer più potente sulla terra [1]. É un cluster da 12.25 TFlops costituito da 1100 Apple XServe G5 a doppio processore da 2.3 gigahertz (RAM da 4 GB, HD SATA da 80 GB) con sistema operativo Mac OS X ed interconnessi tramite InfiniBand. Il cluster inizialmente era costituito da Power Mac G5 che poi sono stati venduti. Gli XServe sono impilabili e meno voluminosi dei Mac desktop e consentono di realizzare quindi un cluster più compatto. Il costo complessivo del suddetto cluster di Power Mac era $5.2 milioni, un decimo del costo dei più lenti supercomputer costituiti da un unico elaboratore (mainframe).
Il concetto centrale del cluster Beowulf è l'uso di calcolatori commerciali per produrre un'alternativa economica ad un supercomputer tradizionale. Un progetto che ha preso questo concetto portandolo all'estremo era lo Stone Soupercomputer.
Il progetto SETI@home sembrerebbe essere il più grande cluster distribuito esistente. Utilizza circa tre milioni di personal computer sparsi in tutto il mondo per analizzare i dati provenienti dal radiotelescopio di Arecibo, al fine di trovare la prova dell'esistenza di intelligenza extraterrestre.
Storia del calcolo cluster
La storia del calcolo cluster è riassunta nel modo migliore in una nota in In Search of Clusters di Greg Pfister:
- Virtualmente ogni dichiarazione rilasciata dalla DEC che menziona i cluster dice: DEC, che ha inventato i cluster.... Non li ha inventati neanche IBM. Gli utenti hanno inventato i cluster, dal momento che non potevano portare avanti tutto il loro lavoro su un solo computer, o necessitavano di un backup. La data dell'invenzione è sconosciuta, ma penso che sia durante gli anni '60, o anche alla fine dei '50.
La base della tecnologia del calcolo cluster inteso come il compiere un lavoro qualsiasi parallelamente fu discutibilmente introdotta da Gene Amdahl della IBM, che nel 1967 pubblicò un articolo con quella che sarebbe stata considerata la base del calcolo parallelo: la Legge di Amdahl, che descrive matematicamente l'aumento di prestazioni che si può ottenere compiendo un'operazione in una architettura in parallelo.
L'articolo scritto da Amdhal definisce le basi ingegneristiche sia per il calcolo multiprocessore che per il calcolo cluster. la differenza significativa tra i due sta nel fatto che le comunicazioni interprocessore sono supportate all'interno del computer (ad esempio con un bus o rete di comunicazione interna adattata) oppure all'esterno del computer, su una rete commerciale. Questo articolo definì le basi ingegneristiche sia per il calcolo multiprocessore che per quello cluster, dove la differenziazione primaria è se la comunicazione interprocessore è supportata o meno all'"interno" del computer (per esempio su un bus di comunicazione interno personalizzato o su una rete) o all'"esterno" del computer su una rete commerciale.
Di conseguenza la storia dei primi computer cluster è più o meno direttamente inclusa nella storia delle prime reti, dato che uno dei primi motivi per lo sviluppo di una rete è stata la possibilità di collegare fra loro risorse di calcolo, di fatto creando un cluster di computer.
Le reti a commutazione di pacchetto furono inventate concettualmente dalla società RAND nel 1962. Utilizzando il concetto di una rete a commutazione di pacchetto, il progetto ARPANET riuscì nella creazione nel 1969 di quello che era forse il primo cluster di computer basato su una rete commerciale collegando quattro diversi centri di calcolo (ognuno dei quali era quasi un "cluster", ma probabilmente non un cluster commerciale).
Il progetto ARPANET si sviluppò quindi come Internet, che può essere considerata la madre di tutti i computer cluster; Internet raffigura il paradigma odierno del cluster di tutti i computer del mondo.
Tecnologie per il cluster
MPI è una libreria di programmi di comunicazione tra computer, ampiamente disponibili che permette la scrittura di programmi paralleli nei linguaggi C, Fortran, Python, OCaml, e molti altri linguaggi di programmazione.
Il mondo GNU/Linux supporta vari tipi di software per il clustering, come:
- Beowulf, distcc, MPICH ed altri - gran parte sono applicazioni di clustering molto specializzate. Il programma distcc fornisce compilazione parallela quando utilizza la GCC.
- Linux Virtual Server, Linux-HA - sono cluster con un computer-direttore che permette alle richieste di servizi in arrivo di essere distribuite attraverso molteplici nodi del cluster.
- MOSIX, openMosix, Kerrighed, OpenSSI - sono cluster sotto ogni punto di vista, che sono stati integrati nel kernel che provvede alla migrazione automatica dei processi tra nodi omogenei. OpenSSI, openMosix e Kerrighed sono implementazioni single-system image.
GNU/Linux è attualmente il sistema più utilizzato per il clustering: secondo Top500 nel 2006 è stato il sistema più usato in assoluto.
La piattaforma Microsoft Windows Compute Cluster Server 2003 basata su Windows Server 2003 Standard x64 Edition fornisce elementi per il calcolo ad alte prestazioni, come "Job Scheduler", le librerie MSMPI ed altri strumenti di amministrazione.
Lincoln, recentemente installato nel NCSA è un cluster di 450 Dell PowerEdge 1855 blade servers sui quali gira Windows Compute Cluster Server 2003. Questo cluster debuttò al centotrentesimo posto nella Top500 nel giugno 2006 anche se attualmente come unico rappresentante di questa tecnologia.
DragonFly BSD, un recente fork di FreeBSD 4.8 è stato ridisegnato nel suo cuore elaborativo per abilitare capacità di clustering naturali. Consente inoltre di ottenere capacità di single-system image.
Clustering software (software libero/open source)
- BioWolf Pack
- BOINC - Berkeley Open Infrastructure for Network Computing
- Clusterit
- Gluster - The GNU Clustering Platform [2]
- Kerrighed
- Linux-Cluster Project [3] Global File System & HA
- Linux Virtual Server [4]
- Linux-HA [5]
- Maui Cluster Scheduler [6]
- OpenSSI High-availability, load-balancing, and high-performance clustering with or without a SAN.
- OpenMosix
- OpenSCE [7]
- Open Source Cluster Application Resources (OSCAR) [8]
- Rocks Cluster Distribution [9]
- Sun Grid Engine
- TORQUE Resource Manager, [10]
- WareWulf [11]
Prodotti commerciali che permettono di implementare il "clustering"
- Alchemi
- Condor [12]
- HP Serviceguard
- HP's OpenVMS
- IBM's HACMP
- IBM Parallel Sysplex
- KeyCluster
- United Devices Grid MP
- MC Service Guard for HP-UX systems
- Microsoft Windows Compute Cluster Server 2003 [13] (CCS) o Microsoft Cluster Server [14] (MSCS)
- Platform LSF [15]
- NEC ExpressCluster [16]
- Oracle Real Application Cluster (RAC)
- OpenPBS [17]
- PBSPro [18]
- PolyServe
- Red Hat Cluster Suite, [19]
- SteelEye LifeKeeper
- Sun Cluster
- Sun N1 GridEngine Sun N1 GridEngine
- Tangosol Coherence Clustering Software
- Veritas Cluster Server (VCS), from VERITAS Software
- Scyld Beowulf Cluster [20]
- Platform Open Cluster Stack [21]
- Xgrid from Apple [22]
- Cluster H.A. NIXO
Voci correlate
Bibliografia
- Karl Kopper: The Linux Enterprise Cluster: Build a Highly Available Cluster with Commodity Hardware and Free Software, No Starch Press, ISBN 1-59327-036-4
- Evan Marcus, Hal Stern: Blueprints for High Availability: Designing Resilient Distributed Systems, John Wiley & Sons, ISBN 0-471-35601-8
- Greg Pfister: In Search of Clusters, Prentice Hall, ISBN 0-13-899709-8
- Rajkumar Buyya (editor): High Performance Cluster Computing: Architectures and Systems, Volume 1, ISBN 0-13-013784-7, Prentice Hall, NJ, USA, 1999.
- Rajkumar Buyya (editor): High Performance Cluster Computing: Programming and Applications, Volume 2, ISBN 0-13-013785-5, Prentice Hall, NJ, USA, 1999.
Collegamenti esterni
- UniClust
- Beowulf
- LinuxHPC.org Linux High Performance Computing and Clustering Portal
- WinHPC.org Windows High Performance Computing and Clustering Portal
- HP OpenVMS Cluster Systems Documentaion
- OpenVMS.org OpenVMS News & Info Portal
- The cajo project Free clustered computing using Java. (LGPL)
- Cluster Builder- Research for building a cluster
- dyne:bolic GNU/Linux - live CD (anche per vecchie console xbox)
- ClusterKnoppix
- United Devices Virtual Cluster(TM) - Web Info
- ClusterMonkey - On-line Cluster magazine
- Cplant, a non-Beowulf Linux cluster
- IEEE task force on cluster computing, the leading academic community on cluster computing
- Linux clustering information center
- List of commercial HA clustering Software for Linux
- Sun Grid Computing Solutions
- Understanding How Cluster Quorums Work
- ClusterGate.RU - source of information on midrange clusters
- OCFS2 - Oracle Cluster File System Project from Oracle Corporation available for Linux under GPL License
- Gluster - is a GNU cluster distribution aimed at commoditizing Supercomputing and Superstorage.
- HPC News - News sull'HPC
Altri progetti
- Wikimedia Commons contiene immagini o altri file su computer cluster
Website mantenuti da centri che dispongono anche di cluster computing
- (IT) UniClust
- (EN) IRB
- (EN) SARA
- (EN) Teragrid
- (EN) VirginiaTech
- (EN) National Center for Supercomputing Applications (NCSA)