von Klaus Müller und
Tom Schwaller
1.1. Das Cluster-Projekt
1.2. Zweck des Cluster-Projektes
1.3. Initiatoren und Sponsoren
1.4. Wie kann ich helfen
1.5. Anreise-, Aufbau und Abbauzeiten
1.6. Tag der Zusammenkunft
1.7. Brauche ich eine WDR-CCN Eintrittskarte?
2.1. Welche Voraussetzungen muß mein Rechner erfüllen
2.2. Muß ich meinen Rechner umbauen?
3.1. Was ist PVM und MPI?
3.2. Wird eine Distribution zu Verfügung gestellt?
3.3. Welche Software soll eingesetzt werden?
4.1. Organisationsteams
4.2. Ist die Stromversorgung geklärt?
4.3. Wie sieht es mit der Warmluftabfuhr aus?
4.4. Mailinglisten und Archiv
5.1. Was ist ein Cluster
5.2. Nutzungsmöglichkeiten eines Clusters
5.3 Clusterarchitekturen
5.4. Rechenleistung
Am 5. und 6. Dezember soll ein Computer-Cluster zusammengestellt
werden, der aus handelsüblichen Personal Computern (PC's) und
einigen Alpha-Rechnern besteht. Es ist geplant, 512 PC's zu vernetzen und gemeinsam als
Cluster einzusetzen. Die Rechner und Netzwerktechnik werden von interessierten
Privatpersonen und Sponsoren zur Verfügung gestellt.
Als Betriebssystem soll auf jedem einzelnen Rechner Linux
installiert und betrieben werden. Die einzelnen Rechner werden durch ein
leistungsfähiges Netzwerk miteinander verbunden, wobei die gesamte
Rechenleistung freien Projekten zur Verfügung
gestellt wird. Der Cluster soll im im Informatik-Gebäude der Uni-GH in Paderborn
(Fürstenallee 11, direkt neben demHeinz Nixdorf MuseumsForum) aufgebaut
und in Live-Schaltungen während der
WDR
Computernacht vorgestellt werden. Zusätzlich wird das Projekt in einer
ComputerClub-Sendung eine Woche vor der ComputerNacht
präsentiert. Eine ausführliche Beschreibung findet Ihr unter
http://www.linux-magazin.de/cluster/cluster.html.
Das Cluster-Projekt findet im Rahmen der WDR Computernacht am
5/6. Dezember statt. Die Ziele des Linux Cluster-Projektes sind:
- die Leistungsfähigkeit von Linux als Betriebssystem zeigen,
- die Einsatzbereitschaft und Möglichkeiten der Linux-Gemeinschaft
zum Lösen von komplexen Aufgaben nachweisen,
- die Realisierung eines publikumsträchtigen High-Tech-Projektes
fürs Fernsehen und
- Spass und Freude an Linux und mit anderen Linuxnutzern.
Nach einer Anfrage des WDR hat das Linux Magazin das Linux-Cluster-Projekt
ins Leben gerufen. Es sind alle Linux User Gruppen aufgerufen, sich
mit Rechnern oder Unterstützung an dem Projekt zu
beteiligen. Die technische Leitung des Projektes wurde von LunetIX übernommen.
Das Projekt wird derzeit von Peacock mit
50 Rechnern und Siemens mit
einer 2-stelligen Anzahl von Rechnern unterstützt. Der Linux-Magazin-Verlag
schenkt allen Teilnehmern, die einen Rechner zum Cluster-Projekt beisteuern
eine 1997 CD. Der Heise-Verlag (genauer die
iX-Redaktion) verlost unter allen Teilnehmern
des Cluster-Projekts 10 iX+-Abos. Weitere Firmen haben ihr Interesse angemeldet, das
Projekt zu unterstützen. Auch einzelne private Sponsoren haben kleine und
größere Geldbeträge auf das Cluster-Spendenkonto überwiesen.
Spendenkonto für das Cluster-Projekt:
Linux-Magazin Verlag
Raiffeisenbank Feldkirchen
BLZ: 701 693 64
Konto: 100142565
Kennwort: CLUSTER
Es werden immernoch Rechner gesucht, die am 5. und 6. Dezember in
Paderborn als Cluster arbeiten. Dabei werden Rechner ab der
Pentiumklase bevorzugt. Falls allerdings nicht genug
zusammenkommen, werden auch weniger leistungsstarke Rechner
eingesetzt. Die Rechner koennen unter der URL
http://www.klammeraffe.org/~majordomo/cluster/anmeldung.html
angemeldet werden. Falls jemand Netzwerkzubehör, wie Switches oder
Netzwerkkarten vorrätig hat, kann diese auch zur Verfügung stellen.
Weiterhin werden Leute gesucht, die bei der Organisation helfen. Es besteht auch
Bedarf an Personen, die Erfahrung im Einsatz von Anwendungen auf Clustern haben
und bei der Auswahl und Implementierung von Anwendungen helfen können
(PVM, MPI). Ausserdem werden immer noch Fragen und Antworten für diese
FAQ gesucht.
Da die Zeit für das gesamte Projekt sehr begrenzt ist, gelten die
folgenden Zeiten:
- Aufbau des Netzwerkes und der gesponsorten Rechner bereits ab Freitag nachmittag/abend
- Aufbau der privaten Rechner ab Sonnabend 12 Uhr bis 20 Uhr.
- Letzte Tests bis zum Start der Sendung
- Sendung bis 7 Uhr früh
- Abbau der privaten Rechner ab 8 Uhr bis spätestens 12 Uhr.
- Dannach Abbau der gesponsorten Rechner und des Netzwerkes bis 18 Uhr
- Ab in die Betten und von einem interessanten Wochenende träumen
Vielleicht werden diese Zeiten durch das entsprechende Team noch
etwas korrigiert werden. Vorläufig sollten diese Zeiten aber erstmal als
Richtwerte dienen.
Um unnötige Staus beim Entladen der Autos zu vermeiden, wird eine
kleine Ordnungsgruppe die Fahrer einweisen, beim Entladen helfen und
während dem Parken des Autos (falls Alleinfahrer) die Rechner
bewachen. Damit werden lange Wege beim Transport der Rechner vom Auto
zur Rechnerannahme vermieden.
Es mird allen Schaulustigen empfohlen, mit den öffentlichen
Verkehrsmitteln zur Veranstaltung zu kommen, da die vorhandenen
Parkplätze bevorzugt den zugereisten Rechnerspendern zurgeteilt
werden.
Nein. Wer einen Rechner erfolgreich eingetragen hat und am Samstag den 5.12.1998 mitbringt,
kommt herein (max. 400 Leute inkl. Helfer, dann wird die Anmeldung beendet).
Idealerweise sollte es sich um eine leistungsfähige Maschine (ab Pentium) mit
genügend Hauptspeicher (ab 32 MB) handeln. Trotzdem kann im Vorfeld
auch ältere Hardware angemeldet werden. Diese wird ev. für andere Zwecke
eingesetzt oder auch nicht berücksichtigt. Zudem ist eine 100 MBit Netzwerk-Karte notwendig,
damit ein leistungsfähiges Netzwerk aufgebaut werden kann. Hier sollten sich die Mitlglieder
der einzelnen Linux User Groups untereinander aushelfen. Weitere Zusatz-Hardware wird
für die Veranstaltung nicht gebraucht und sollte nach Möglichkeit ausgebaut werden
(CD-Roms, Soundkarten, 3D-Zusatz-Karten, ISDN-Karten). Dadurch wird
die Leistungsaufnahme des Rechners minimiert und es muß nicht
soviel Wärme durch die Klimaanlage abgeführt werden
(siehe auch 4.2). Zudem muß der Rechner ohne
Maus und Tastatur booten können. Hierzu sind ev. einige Änderungen
in den BIOS-Einstellungen notwendig (unbedingt vorher ausprobieren!). Ein Stromkabel
sollte zu jedem Rechner mitgeliefert werden, bei den Netzwerkkabeln ist dies momentan
noch nicht entschieden.
Nein, dies ist nicht notwendig. Die Minidistribution, die zur Verfügung gestellt wird,
installiert per NFS ein Filesystem in den verfügbaren Swap-Bereich oder greift
sich Platz auf einer Partition und erstellt dort ein temporäres Filesystem
über ein Loopback-Device (eine Datei wird dabei zu einem Filesystem).
Diese "Nondistructive Installation" sollte allerdings im Vorfeld (z.B. mit einer Linux
User Group) getestet werden. Es werden nur Rechner akzeptiert, von denen bekannt ist,
daß auch alles klappt. Am Tag der Veranstaltung sollen keine Basteleien stattfinden
und die zur Verfügung gestellten Rechner nur angeschlossen werden.
Achtung: Vor dem Installieren der Distribution sollte ein
Backup aller Daten durchgeführt werden, da für die
Sicherheit der Daten keine Garantie übernommen werden kann.
Ein Cluster verfügt nicht immer über einen gemeinsamen
Speicher (Speicher auf den jeder Knoten direkt zugreifen kann). Daher
müssen Daten und Kommandos über spezielle
Verbindungsnetzwerke verteilt werden.
Um die Kommunikation zwischen verschiedenen Rechner- und
Prozessortypen zu vereinfachen, wurden Programme wie PVM (Parallel Virtual Machine)
und MPI (Message Passing Interface) entwickelt. Diese nehmen die Daten
in einen rechnereigenen Format entgegen und konvertieren diese in ein
Format, das alle angeschlossenen Rechner verarbeiten
können. Damit muß sich der Entwickler eines Programmes
nicht mehr um die Programmierung der Kommunikation zwischen den Knoten
kümmern.
Es wird durch das technische Team eine Mini-Distribution zur
Verfügung gestellt. Diese führt eine Installation fuer das
Projekt durch. Dabei werden keine Daten auf bereits bestehenden
Datenträgern und Partitionen zerstört.
Die bereitgestellte Distribution wird nur die nötigsten Dienste
zur Verfügung stellen, wie Netzwerk- und SCSI-Controler-Treiber.
Eine aktuelle Version der Distrubution ist unter
ftp://move.mediaways.net/pub/cluster/testing/ zu finden (Spiegelserver?).
Um die Leistung des Clusters zu demonstrieren, soll eine Animation
berechnet werden. Dazu wird auf allen Rechnern eine verteilte Version
von POVRAY (http://wwww.povray.org)
eingesetzt. Jeder Rechner erhät von einem zentralen Server ein
einzelnes Bild, was von Ihm berechnet wird und das Ergebnis an den
Server zurückgeschickt wird. Aus den Einzelbildern wird ein
kleiner Animationsfilm erstellt. Damit wird eine publikumswirksame
Demonstration der Rechenleistung erbracht.
Nach Tests hat sich herausgestellt, daß die Versionen von PVMPOV
und DISTPOV nicht für den Einsatz im Cluster geeignet sind. Das
liegt an einigen Problemen beim Recover von ausgefallenen Clients.
Es werden deshalb zur Zeit einige Implementationen eines einfachen
Servers zum verteilen der Bilder entwickelt und getestet.
Um eine reibungslose und schnelle Organisation des Events zu
erreichen, wurden mehrere Teams gegürndet, die die Verantwortung
für Ihren Aufgabenbereicht haben. Es existieren Teams für:
- Allgemeine Organisation und Koordination:
Tom Schwaller
Kontakt zwischen dem WDR, dem Museum und den einzelnen Teams
- Technische Organisation (Hardware, Aufbau, Rechner/Netzwerk-Beschaffung):
Sebastian Hetze,
Lukas Grunwald
Konzeption und Aufbau des Netzwerkes, Serverkonzepte
- Erstellen der Nichtdestruktiven Linux-Distribution:
Florian Lohoff
Eine erste Version ist unter
ftp://move.mediaways.net/pub/cluster/testing/ verfügbar. Ein Mirror ist
an der
Universität Paderborn zu finden. Feedback zur Distribution ist besonders wichtig.
- Logistik: Ernst Lehmann
Hier ist noch viel Mitarbeit gefragt und am Treffen vom 14./15. November werden
viele Dinge geklärt werden. Vom Stromkabel bis zu Schere gibt es hier
einiges zu oganisieren. Auch die Rechnerannahme (Web-Formular), Zusammenstellung
der bisher angemeldeten Hardware, Strichcodes, Teilnahmebestätigungen und Ettiketten
gehören dazu.
- Anwendungen (Animation und Benchmarks):
Roger Butenuth
Erstellen eines Konzeptes für die eingesetzte Software. Erstellen
von Daten für die verteilte Berechnung. Derzeit sind verteiltes Rendern mit Povray und
astrophysikalische Berechnungen mit der CACTUS-Software die heißesten Anwärter.
- Publicity:
Erstellung eines Trailers, Entwürfe für T-Shirts
- Show:
Ideen für die Präsentation im Fernsehen, Moderation der LIVE-Show
ins Internet, Protokollierung des ganzen Ereignisse für die Daheimgebliebenen
- Presse:
Organisation einer Presse-Konferenz, Benachrichtigung der einschlägigen Medien,
Sammeln von Presse-Berichten
Die Stromversorgung wird durch die Veranstalter zur Verfügung
gestellt. Allerdings muß für jeden Rechner ein eigenes
Stromkabel mitgebracht werden.
Durch die große Anzahl an Rechner wird eine sehr hohe Leistung
verbraucht. Diese wird zu einem großen Teil in Wärme
umgewandelt. Am Veranstaltungsort steht eine Klimaanlage zur
Verfügung, die für eine ausreichende Kühlung der
Rechner sorgen wird.
Ihr könnt euch in eine der verschiedenen Mailinglisten eintragen,
um in den verschiedenen Teams mitzuarbeiten:
Der Name der allgemeinen Cluster Mailingliste ist:
Schreibt eine Mail an majordomo@klammeraffe.org
mit dem Inhalt
subscribe NAME-DER-MAILING-LISTE
Das Archiv der Mailinglisten ist
hier zu finden.
Ein Cluster ist ein Zusammenschluß von Knoten, die alle zur
Lösung einer Aufgabe eingesetzt werden. Die Knoten können
einzelne PC's sein. Es ist aber auch möglich, daß
Rechner mit mehreren Hundert oder Tausend Prozessoren einen Cluster
bilden. Der Linux-Cluster besteht aus einer Vielzahl von PC's, die
zusammengeschaltet werden. Die Kommunikation erfolgt über
spezialisierte Verbindungen. Das können direkte Verbindungen zwischen
den einzelnen Prozessoren sein oder aber ein Hochgeschwindigkeitsnetzwerk wie
das SCI Interface sein.
Es gibt verschiedene Einsatzgebiete, die für Cluster geeignet
sind:
- Cluster zum Erreichen einer möglischst hohen Rechenleistung (Wettervorhersage),
- Cluster zum Erreichen einer möglischst hohen
Ausfallsicherheit (Steuerung von Atomkraftwerken) und
- Cluster zur Lastverteilung (Load balancing) bei lastkritischen
Anwendungen (Datenbanken, Webserver).
Die Architektur eines Cluster hängt sehr stark vom geplanten
Einsatzgebiet ab.
Rechencluster
Bei dieser Art von Clustern kommt es auf eine möglischst hohe
Rechenleistung der einzelnen Prozessoren und eine sehr schnelle
Kommunikation zwischen den einzelnen Knoten an.
Ausfallsichere Cluster
Bei Ausfall eines oder mehrerer Rechner des Verbundes müssen die
Funktionen des Clusters weiterhin gewahrt bleiben. Es kann nicht mehr
die gesamte Leistungsfähigkeit erreicht werden, aber die
Anwendungen laufen auch auf dem Teilsystem weiter.
Zum Erreichen der Ausfallsicherheit können einzelne Knoten als
Ersatzsysteme zugeschaltet werden oder es werden nur die fehlerhaften
Teile abgeschaltet.
Lastverteilung
Es werden von verschiedenen Anwendungen Leistungsdaten erwartet, die
ein einzelner Rechner nicht effektiv erbringen kann. In diesem Fall
wird eine Applikation auf mehrere Systeme verteilt, die nach
außen, wie ein Rechner erscheinen. Somit ist es möglich,
z.B. einen Webserver zu betreiben, der mehrere Millionen Zugriffe pro
Minute/Stunde zu verarbeiten hat. Dabei werden die einzelnen Requests
in der Reihenfolge des Eingangs auf die verschiedenen Rechner
verteilt. Dabei kommt es insbesondere auf eine hohe Leistung der Ein-
und Ausgabeeinheiten (Festplatte; Netzwerk) an.
Die theoretisch maximale Rechenleistung ist die Summe der
Rechenleistung der einzelnen Rechner. Durch die Kommunikation wird ein
beträchtlicher Overhead bei der Berechnung erzeugt. Deshalb ist
es wichtig, die Kommunikation zwischen den einzelnen Knoten so gering
und schnell wie möglich zu halten. Verzögerungszeiten bei der
Kommunikation kann aber nicht die gesamte Leistng des Clusters für die
Berechnung genutzt werden.
TOP
Stand: 16.11.1998