Gastbeitrag: Microsoft Azure an der Georg-August-Universität Göttingen


Gastbeitrag von Dirk Hähnel, wissenschaftlicher Mitarbeiter der Physikalischen Fakultät – III. physikalisches Institut – Biophysik der Georg-August-Universität Göttingen.

Innerhalb des Göttinger Wissenschaftsbetriebs sind wir als biophysikalisches Institut der physikalischen Fakultät zugehörig. In unserer Abteilung wird wissenschaftliche Forschung an der Schnittstelle von Physik, Biologie und Chemie betrieben. Genauer gesagt: Einzelmolekül Spektroskopie und hochauflösende Mikroskopie, mit einer Vielzahl von Fragestellungen innerhalb der Biophysik und generell dem Bereich der komplexen Biosysteme. Life Science ist heterogen, daher sind es auch unsere Projekte und wir müssen flexibel agieren können, im Besonderen wenn es um Stützprozesse wie die IT geht; Wir sind der Auffassung, IT muss zu besseren Ergebnissen in unserer Kernkompetenz führen. Mit anderen Worten, wir beschäftigen uns lieber mit der biophysikalischen Forschung als mit der IT-Infrastruktur.

Vor einigen Jahren haben wir begonnen einen Linux Cluster zu betreiben, um die großen Datenmengen auszuwerten, welche in unseren Laboren generiert werden. Der Cluster besteht aus mehreren mit CPU und GPU Kernen ausgerüsteten Serverblades. Der Betrieb dieser Anlage stellte sich als sehr wartungsintensiv heraus und die Schnittstellen zu den Bürocomputern waren mangelhaft. Daher haben wir im Jahr 2012 die Anlage auf Microsoft Technologie umgestellt (MS High Performance Server 2008 R2). Hauptsächlich um den Betriebsaufwand zu verringern, denn mehrere Mitarbeiterstellen im IT-Bereich sind weggefallen bzw. wurden nicht neu besetzt.

Bevor wir mit der Migration auf Microsoft begonnen hatten gab es mehrere pessimistische Stimmen. Vom Ergebnis jedoch, waren wir mehr als überrascht, merkliche Leistungseinbußen konnten wir nicht feststellen, ganz im Gegenteil, die Aufwände hinsichtlich der Administration sowie der Integration von Third Party Komponenten konnten auf fast 10% der ursprünglichen zeitlichen Aufwände reduziert werden. Selbst der Betrieb der Büro Computer als Compute Node, während der Abwesenheit von Mitarbeiter, konnte innerhalb mehrerer Stunden stabil aufgebaut werden. Glücklicherweise bekam unser Institut regen Mitarbeiterzuwachs in den letzten Jahren, daher wurde auch diese Lösung schnell unzureichend. Beschleunigt wurde dieser Prozess auch dadurch, dass innerhalb der letzten zwei Jahre unsere Forschungsmethoden mehr Daten generieren und der globale Trend BigData auch bei uns alles datenlastiger werden lässt. Neuere Geräte zur Datenakquise wie z.B. wissenschaftliche Kameras oder Spektrometer unterbieten sich jährlich mit der Detektionseffizienz und daher kann man in derselben Zeitspanne, heute im Vergleich zu 2010 fast doppelt so viele Daten generieren. Für uns bedeutet das gesteigerte Anforderungen an Storage und Computing. Nach langer Beratung kam für uns nur die Cloud infrage, daher machten wir uns auf die Suche nach einen kompetenten Partner.

Fakultät für Physik an der Universität Göttingen

Den nächsten Schritt nach vorne machten wir Anfang 2014, in dem wir unsere Lastspitzen des lokalen Clusters in die Microsoft Azure Cloud auslagerten. Bei Bedarf konnten wir zusätzliche Compute Nodes in der Cloud dem lokalen Cluster zuschalten. Zu dieser Zusammenarbeit kam es im Rahmen des Microsoft Azure Research Grant, den wir im Jahr 2014 und 2015 verliehen bekommen haben. Die Konfiguration von den Compute Nodes in der Microsoft Azure Cloud war trivial und die Dokumentation in der Microsoft Azure Managementsuite hat uns bei den auftretenden Problemen weitergeholfen. Der Support durch den Microsoft Service war ebenfalls sehr zufriedenstellend, innerhalb kürzester Zeit haben kompetente Kundendienstmitarbeiter den Kontakt mit einem Experten hergestellt, der den Supportfall zufriedenstellend lösen konnte. Wir haben unsere Erfahrungen mit Microsoft Azure machen dürfen und sind davon überzeugt, dass die Microsoft Azure Plattform eine attraktive Lösung für Wissenschaftler darstellt, ganz gleich ob Physiker, Biologen, Chemiker oder Mediziner. Wer sich nicht mehr Ressourcen als notwendig in die IT-Infrastruktur binden möchte sollte auf starke externe Service Angebote setzen. Ganz gleich ob man Python, Matlab oder R Skripte ablaufen lassen möchte, mit Microsoft Azure haben wir stets hervorragende Erfahrungen machen dürfen.

Zukünftig werden wir die Azure Machine Learning Suite benutzen um beispielsweise Bilddaten mit Nervenzellen automatisch auszuwerten. Vorteilhaft ist die Vielzahl der bereits vorhandenen Machine Learning Bibliotheken und die Integration des eigenen Modells. Stillstand ist Rückschritt, daher planen wir die vorhandenen Algorithmen auf Hadoop basierte Systeme zu übertragen, hierfür ist Microsoft HdInsight ein geeignetes Werkzeug. Es ist unser Ziel Algorithmen zur Auswertung von Spektroskopie Daten und Hochauflösender Mikroskopie für den >100TB Bereich für die Science Community zur Verfügung zu stellen.

Wie Microsoft Azure an der Universität Ulm eingesetzt wird, erfahren Sie in Teil zwei unserer Gastbeitragsreihe

Mehr Informationen zu Microsoft Azure im Foschungsbereich bekommen Sie hier

Comments (0)

Skip to main content