50 Jahre TUD-Rechenzentrum

Dresden - Zum 50-jährigen Jubiläum setzt das Zentrum für Informationsdienste und Hochleistungsrechnen (ZIH) der TU Dresden neue Standards im Zukunftsfeld Digitalisierung. Mit der Erweiterung des Hochleistungsrechners bietet es die deutschlandweit schnellste Infrastruktur zur Datenanalyse und startet in die zweite Förderphase des Big-Data-Kompetenzzentrums ScaDS Dresden/Leipzig.

Exzellenz in Forschung und Lehre ist kein Zufall: Es gibt verschiedene Faktoren, die eine Universität – einen Standort – erfolgreich machen. Eine zuverlässige, innovative und leistungsstarke IT-Versorgung ist einer der entscheidenden Faktoren. Dresden gehört neben München, Karlsruhe und Saarbrücken zu den Standorten, an denen 1969 bundesweit die ersten universitären Informatikstudiengänge etabliert wurden, und die damit einen Grundstein für die Standortentwicklung im Bereich IT gelegt haben. Dem 50. Jubiläum der Gründung der Sektion Informationsverarbeitung und dem Start des gleichnamigen Studienganges an der TU Dresden ging am 1. November 1968 die Gründung des Rechenzentrums voraus. Morgen, am 31. Januar, wird das erfolgreiche Bestehen des ZIH in einer Festveranstaltung an der TU Dresden im Beisein der Sächsischen Staatsministerin für Wissenschaft und Kunst, Dr. Eva-Maria Stange, und Vertretern des Bundes begangen.

Basis des ZIH sind die beiden Rechenzentrums-Standorte Lehmann-Zentrum und Trefftz-Bau. Mit seiner Entscheidung für den Bau des Lehmann-Zentrums, dessen Rechenzentrum (LZR) bereits 2015 eingeweiht werden konnte, hat der Freistaat seit 2009/2010 wiederholt in ein Themengebiet investiert, das heute aus der Wissenschaftslandschaft nicht mehr wegzudenken ist: das Hochleistungsrechnen (HPC – High Performance Computing). Es ist die Grundlage für Künstliche Intelligenz und Big Data. Diese technischen Voraussetzungen haben mit dazu beigetragen, dass Dresden inzwischen nicht nur als Mikroelektronik-Standort, sondern auch als Standort für Software und Methodenentwicklung hervorragend aufgestellt ist. Am 31. Januar – zu den Feierlichkeiten für das 50-jährige Rechenzentrumsjubiläum – erhält die Rechner-Infrastruktur im LZR eine weitere wertvolle Komponente: Basierend auf neu-installierten Systemen von IBM und NEC geht mit dem HPC-DA die momentan wohl schnellste Infrastruktur Deutschlands für die Analyse von Daten auf der Basis des Maschinellen Lernens in Betrieb und steht für die bundesweite Nutzung zur Verfügung. Damit werden auch die aktuellen Herausforderungen im Themenfeld künstliche Intelligenz in Dresden weitsichtig adressiert.

Die zweite wichtige Komponente im Bereich Künstlicher Intelligenz und Big Data ist der Umgang mit großen Datenmengen. Als eines von zwei bundesdeutschen Kompetenzzentren für Big Data bündelt das ScaDS Dresden/Leipzig sowohl Algorithmen- und Methodenentwicklung als auch Service-Leistungen für die Datenanalyse. Es stellt seine Expertise und Beratungsleistung an beiden Standorten im Rahmen eines wissenschaftsgeleiteten Verfahrens für innovative Projekte in ganz Deutschland zur Verfügung. Damit ist auch in diesem Zukunftsthema der Standort Sachsen als ein bedeutender Knotenpunkt definiert. Mit der Bewilligung der zweiten Förderphase des Kompetenzzentrums kann das Konsortium seinen Ansatz aus intensiver Kooperation der Anwendungsbereiche mit der methodischen Big-Data-Forschung beibehalten und thematisch ausbauen.

50 Jahre TUD-Rechenzentrum

1968 zur offiziellen Leithochschule auf dem Gebiet „Mathematische Kybernetik und Rechentechnik“ ernannt, wurde an der TU Dresden am 1. November 1968 ein Rechenzentrum zur Grundversorgung der Universität mit Kapazität für die Datenverarbeitung gegründet. Bereits damals zählten Forschung und Lehre in Rechentechnik und Informationsverarbeitung ebenso zu den Aufgaben wie die Planung der weiteren Entwicklung und Ausstattung, der Rechenbetrieb sowie die Unterstützung und Beratung der Nutzer. Auch die Schulung und Ausbildung von schon damals fehlenden DV-Fachkräften gehörte zum Aufgabengebiet. Seit 2005 ist das Rechenzentrum als Zentrum für Informationsdienste und Hochleistungsrechnen (ZIH) auch mit der Entwicklung von Algorithmen, Methoden und dem Betrieb leistungsfähiger Infrastruktur für das Thema des wissenschaftlichen Rechnens – für die Modellierung und Simulation komplexer Systeme – betraut. Schon damals lag der Schwerpunkt auf dem datenintensiven Rechnen, das Wissen aus der Analyse von Daten extrahiert und damit wissenschaftlichen Fortschritt in vielen Forschungsgebieten erst ermöglicht hat. Inzwischen werden die Anstrengungen durch zahlreiche extern finanzierte Forschungsprojekte im vollen Spektrum des Leistungsportfolios eines Rechenzentrums belohnt, die nachhaltig Einfluss auf das umfängliche Dienstangebot für den Campus und darüber hinaus haben.

Einweihung des HPC-DA

Mit der Fusion von HPC und Data Analytics (HPC-DA), steht ein Rechnersystem zur Verfügung, in dem verschiedene Technologien zu hoch effizienten und individualisierbaren Forschungsinfrastrukturen zusammen geschaltet werden können. Durch die Erweiterung des 2015 eingeweihten Hochleistungsrechners und die Verknüpfung der beiden sehr dynamischen Forschungsbereiche Hochleistungsrechnen und Data Analytics mit einer Gesamtinvestition von weiteren zehn Millionen Euro bietet die TU Dresden den Forschenden ein bundesweit einmaliges Forschungsinstrument für die strukturierte und kontrollierte Erfassung, Analyse und Verarbeitung von komplexen und großen Datenmengen. Die Finanzierung dieser Erweiterung erfolgte je zur Hälfte durch den Bund und das Land Sachsen.

ScaDS Dresden/Leipzig: 2. Phase

Das vom Bundesministerium für Bildung und Forschung (BMBF) geförderte Big-Data-Kompetenzzentrum ScaDS Dresden/Leipzig startete im Oktober 2018 in die zweite Förderphase. Nach der Evaluierung des Zentrums und der Entwicklung eines strategischen Konzeptes für die kommenden drei Jahre kann das Konsortium seinen interdisziplinären Ansatz beibehalten und thematisch ausbauen. Alleinstellungsmerkmal des Kompetenzzentrums ist das integrierte Servicezentrum. Als zentraler Anlaufpunkt für Interessierte koordiniert es die Entwicklung von Big-Data-Anwendungen und ist das verbindende Element zwischen den Anwendungsbereichen und der methodischen Big-Data-Forschung. Dadurch konnten bereits in der ersten Förderphase intensive Kooperationen mit einer Vielzahl wissenschaftlicher Einrichtungen und Unternehmen aufgebaut werden. Dieser Ansatz wird noch intensiviert. Die aktuelle Inbetriebnahme des HPC-DA, die besonders für datenintensive Anwendungen und das Maschinelle Lernen mit der Anbindung an schnelle Speichersysteme optimiert ist, bildet dafür eine hervorragende Grundlage.