[Tagebuch des CLOWN Events]

Freitag, 4.12.98
Uhrzeit Ablauf
11:00 Netz steht - Switchkonfiguration ist noch in Arbeit.
irgendwann vor 15:00 Siemens Primergy angeliefert
15.00 - 16:00 Peacock Rechner sind endlich da und aufgebaut.
17:00 DeTeCSM Rechner aufgebaut und in Betrieb genommen.
17:45 ca. 20 Uni Rechner sind im Netz
19:45 Tastaturen und Monitore für die Rezeption sind bereitgestellt
19:50 drei MAXDATA Server sind da
20:00 Quant-X Alphas sind angekommen
ca. 21:00 Siemens Primergy läuft ...
22:00 Die zweistellige Anzahl Siemens PCs (10 Stk.) sind aufgebaut.
ca. 22:00 MaxDATA Server treffen ein
ca. 22:00 knfsd wird aufgegeben -> userspace nfsd
ca. 0:00 SEH Rechner sind da und rollen an ihre Plätze.
0:00 - 1:00 4fach Xeon MAXDATA Server bootet
Samstag, 05.12.98
Uhrzeit Ablauf
1:00 - ca. 4:00 Der erste Film wird auf 75 gesponsorten Rechnern berechnet - "Titanic"
ca. 2:00 der erste der großen MAXDATA Server läuft
unterdessen... es wird langsam warm - nicht nur den Pinguinen, sondern auch uns
bis ca. 4:00 4fach Xeon MAXDATA Server wird bezwungen und gibt auf.
ca. 5:00 Florian schnarcht...
ca. 7:00 4fach Xeon MAXDATA läuft auch (2.0.36)
vormittags Die in der Nacht gelieferten HP-Switche werden unter Vollast laufen gelassen.
ab 9:00 die ersten privaten Rechner checken an der Rezeption im Erdgeschoß ein
ca. 10:30 etwa 100 private PCs vor Ort
14:00 Die Feuerwehr stellt eine Frischluftzufuhr auf. So langsam normalisieren sich die Temperaturen
14:41 WDR macht einen Kurzbericht
14:43 Florian teilt mit: 350 im Cluster arbeitende Rechner
15:00 Pizza als Erlösung.
15:00 Gigabit in MAXDATA läuft half-duplex (nach Kernel-Patch)
15:00 4fach Xeon MAXDATA läuft mit 2.1.131 (nach Kernel-Patch)
16:23 NPB Benchmark lu.A.32 auf 32 Knoten im Peacock-Cluster
16:48 - 16:53 Interview mit Tom Schwaller im Deutschland Funk
16:53 10 Alphas von Digital
17:22 480 Rechner im Cluster davon 354 am Rechnen
17:57 Proof of Concept: Linpack Benchmark auf der ersten Alpha (Sebastian Hetze)
18:20 Cactus Simulation parallel auf 8 Knoten im Peacock-Cluster
18:44 die Nachricht erreicht uns, das wir die 512 Rechner wohl schon am Netz haben ;-)
18:53 zu o.g. Nachricht: 464 Rechner (halbwegs) lauffähig
ca. 19:00 Die Feuerwehr hat die Frischluftzufuhr über die Bodenplatten geregelt.
20:20 das 8te Subnetz wird mit privaten Rechner gefüllt
20:43 MRTG läuft - unsere Auswertungen sind damit nun voll funktionstüchtig
20:50 Wir begrüßen die Besucher der www.ccnacht.de auch auf unserer Web-Site
21:13 die beiden großen MAXDATA laufen mit ihren jeweils 5 Netzwerkkarten ;-)
21:32 2500 Hits innerhalb von 20 min ;-)
21:42 Cube Datenbank wird upgedatet. Deshalb sind die Daten des Clusters z.Z. nicht aktuell
22:15 das erste Rendering läuft: z.Z. laufen 353 Rechner
22:20 5 Minuten später schon 360 (ca. 2/3 des Clusters) Rechner
22:50 jetzt 406 Rechner beim Rendern - parallel laufen in einem anderen Projekt 50 Alphas
23:15 Eine Gruppe von Informatikstudenten der Uni Paderborn hat einen von mehreren Filmen auf 30 Rechner aus dem Cluster gerechnet.
23:25 mittlerweile haben wir auf unserem Webserver 1741 Hits der index-Seite gezählt
23:35 jetzt (kurz vor der Sendung) 431 Rechner mit Rendern beschäftigt und 55 Rechner am Arbeiten für die Filme der Studenten.
23:38 neue Seite der MRTG - besseres Framelayout
23:48 gleich der zweite Auftritt
23:49 Auf den MRTG Seiten kann man von jedem Knoten jetzt auch die STATS auslesen (CPU Typ, Bogomips, etc.)
00:00 Die Besucherrunde ist eröffnet und die Leute drängen sich um den Cluster
Sonntag, 05.12.98
Uhrzeit Ablauf
00:12 Alle Cluster-Server (die drei MAXDATA) sind jetzt konfiguriert. Die Migration von der bisherigen Servermaschine (Siemens Primergy) auf die drei neuen Server beginnt.
00:27 433 Rechner arbeiten an einem Film von der Uni Konstanz, 25 berechnen das Fachwerkdorf (ARCAD) und die Alphas haben frei
00:32 100 MByte Webtraffic seit der Öffnung unserer Seite, ca. 75.000 Hits (ca. 400-500 Hits pro 30 Sekunden)
00:37 Cactus läuft und skaliert
01:00 100.000 Zugriffe - Damit haben wir unseren Server evtl. etwas überlastet. Das Weblog rast förmlich über unseren Monitor.
01:15 Die ersten Störversuche wurden abgewehrt !! BTW: Es ist praktisch UNMÖGLICH den Cluster selbst über's Web zu erreichen!
01:16 Unsere Mathematiker haben eine Nullstelle gefunden (nicht im Doppelboden!) ;-))
01:53 Der Cluster rechnet (immer) noch ;-))
02:00 Die Alphas rechnen am  Linpack-Benchmark (Daher der schwarze Block auf Layer 6 & 7 unserer MRTG-Seite)
02:05 Webtraffic-Update: 200 MB erreicht.
02:06 Dauer des Linpack-Benchmarks auf den Alphas: voraussichtlich bis ca 5:00 Uhr
ca. 02:30 Zentraler Frameserver verfügbar (2*Xeon 400 MHz, 1 GB RAM, 200 GB RAID-0 Stripeset)
03:15 der WDR filmt unsere Hinterköpfe und Seitenprofile - was versprechen die sich davon ?! ;-)
03:45 Nachrichten vom Cluster: Film 1: 280 Film 2: 209 n-Body-Simulation: 64 Alphas: 50 am Benchmarken
Zusammen haben wir damit IM CLUSTER über 512 aktive Rechner
03:52 Wir haben soeben gelernt, daß Bambi gegen Godzilla keine Chance hat (-> siehe Higsons special Portscript)
04:07 MPEG Encode-Server verfügbar (4*Xeon 400 MHz, 768 MB RAM, 72 RAID-5 Fiber channel 100 MByte/s)
nachträglich: Tom Schwaller zum Rekord: Gemeinsam konnten wir zeigen, daß mit Linux außergewöhliche Leistungen möglich sind.Ein großes Dankeschön an alle, die an dieses Projekt geglaubt haben und zu seinem Erfolg beigetragen haben!
ca. 04:15 zweiter Sourcefeeder-Server für die Animation verfügbar (4*Xeon 400 MHz, 1 GB RAM, 200 GB RAID-0 Stripeset)
04:25 16 Rechner dazugekommen; die Gesamtzahl beträgt damit 536 Rechner
04:55 nochmal 5 weitere Rechner dazu
05:14 200.000 Hits until now
05:15 300 MB Traffic
06:10 Sounddaemon taucht auf und versetzt die Rechner in ein freudiges Piepsen. Das ist ein Audio-"PC-Speaker"-Daemon, der von irgendeinem anderen Rechner angepingt wird. Dadurch erhält der Daemon eine Information, die er auswertet und daraus den Sound (Frequenz des Speakers) festlegt (GPL) ;-) was sonst
07:22 Erster Film mit neuer Serverfarm gerechnet (der Lohn von 2 1/2 Tage Arbeit)
08:19 CLUSTER wird heruntergefahren und die Filme noch einmal vorgeführt.