Forschungsdaten für alle

  • 05. December 2016

Helmholtz Data Federation richtet multithematische Datenzentren ein.

In der Wissenschaft liefern große Experimente und Simulationen immer mehr Daten. Der Weg von den Daten und Informationen hin zu Erkenntnissen und Wissen benötigt jedoch auch Speicher- und Analyse­möglichkeiten einer neuen Qualität. Die Helmholtz-Gemeinschaft übernimmt nun die Vorreiter­rolle, um Daten dauerhaft, sicher und nachnutzbar speichern zu können. Zur Bewältigung von Big Data in der Wissenschaft hat sie dazu die durch das KIT koordinierte Helmholtz Data Federation (HDF) gegründet. Rund 49,5 Millionen Euro sollen in den nächsten fünf Jahren in multi­thematische Datenzentren und modernes Daten­management investiert werden.

Abb.: Festplattenspeicher für Forschungsdaten in Petabyte-Dimension werden Teil der Helmholtz Data Federation sein. (Bild: KIT / SCC)

Abb.: Festplattenspeicher für Forschungsdaten in Petabyte-Dimension werden Teil der Helmholtz Data Federation sein. (Bild: KIT / SCC)

„Eine zukunftsfähige Dateninfrastruktur ist das Rückgrat des Forschungs­stand­orts Deutschland“, unterstreicht der Präsident des KIT, Holger Hanselka. „Um die großen Heraus­forderungen Energie, Mobilität und Information zu lösen, braucht es die Fähigkeit, aus Big Data schnell Smart Data zu machen. Am KIT als der Forschungs­universität in der Helmholtz-Gemeinschaft sind die dazu notwendigen Kompetenzen verknüpft.“

„Die Helmholtz-Zentren betonen ihre Bereitschaft, Forschungs­daten in geeigneten Daten­infra­strukturen lang­fristig zu bewahren und zur Nachnutzung für Wissenschaft und Gesellschaft so offen wie möglich zugänglich zu machen“, sagt Otmar D. Wiestler, Präsident der Helmholtz-Gemeinschaft.

„In der Helmholtz Data Federation schließen sich Deutschlands führende Datenzentren zusammen, um die Ströme an Forschungs­daten aus den verschiedenen Wissenschafts­disziplinen geordnet zu speichern, miteinander zu verknüpfen und einer gemeinsamen Nutzung zuzuführen“, freut sich Achim Streit vom KIT, Koordinator der HDF. „Die HDF könnte so zur Blaupause für die daten­intensive Forschung in Deutschland und Europa werden, ein offener Hafen für den Zugang zu und den Umschlag von Forschungs­daten.“

Die HDF ist ein zentraler Baustein des jüngst verabschiedeten Positions­papiers der Helmholtz-Gemeinschaft zum Umgang mit Forschungs­daten mit dem Titel „Die Ressource Information besser nutzbar machen!“. Durch den sicheren Zusammen­schluss als Föderation und den Ausbau von multi­thematischen Datenzentren wird die HDF es daten­intensiven Wissenschafts-Communities ermöglichen, wissenschaftliche Daten sichtbar zu machen, unter Beibehaltung der Daten­hoheit zu teilen, über Disziplin­grenzen hinweg zu nutzen und zuverlässig zu archivieren. Die Föderation basiert auf drei Kern­elementen: innovative Software für das Forschungs­daten­management, exzellente Benutzer­unterstützung und aktuelle Speicher- und Analyse-Hardware. Dazu werden mittel­fristig Investitionen bei den Partnern in Speicher im zweistelligen Petabyte-Bereich und in zehn­tausende Computer­kerne für Daten­analyse und -management durchgeführt. Dafür sind aus Mitteln der strategischen Ausbau­investitionen in der Helmholtz-Gemeinschaft bis 2021 derzeit 49,5 Millionen Euro eingeplant.

Partner der HDF in der ersten Phase sind sechs Zentren aus fünf Forschungs­bereichen der Helmholtz-Gemeinschaft: Alfred-Wegener-Institut Helmholtz-Zentrum für Polar- und Meeres­forschung (Erde und Umwelt), Deutsches Elektronen-Synchrotron DESY und GSI Helmholtz­zentrum für Schwer­ionen­forschung (beide Materie), Deutsches Krebs­forschungs­zentrum (Gesundheit), Forschungs­zentrum Jülich und Karlsruher Institut für Technologie (beide Energie, Schlüssel­technologien, Materie, Erde und Umwelt). Die HDF stellt eine Keimzelle für eine übergreifende nationale Forschungs­daten­infrastruktur (NFDI) dar, die offen für Nutzer im gesamten deutschen Wissenschaftssystem ist und durch internationale Verbindungen kompatibel mit der zukünftigen European Open Science Cloud (EOSC) sein wird.

Das KIT betreibt bereits einige Infra­strukturen für große Datenmengen. Das Smart Data Innovation Lab SDIL stellt bundesweit eine Forschungs­plattform mit modernsten Analyse­funktionen für Unternehmen bereit. Das Smart Data Solution Center Baden-Württemberg SDSC unterstützt kleine und mittel­ständische Unternehmen aus der Region beim Zugang zu Smart Data Technologien. Das Datenzentrum GridKa ist Teil des weltweit verteilten Netzwerkes für das europäische Teilchen­beschleuniger­zentrum CERN. Mit der Large-Scale Data Facility – LSDF für die Wissenschaft im Land Baden-Württemberg und der Initiative Large-Scale Data Management and Analysis – LSDMA der Helmholtz-<wbr>Gemeinschaft hat das KIT bereits entscheidende Grundlagen für die Koordinator­rolle der HDF gelegt. Darüber hinaus befassen sich Informatik-Institute am KIT mit Analysemethoden, Auswerte­algorithmen und Datensicherheit.

KIT / DE

Share |

Webinar

Einführung in die Simulation von Halbleiter-Bauelementen

  • 30. November 2017

Von Mosfets über LEDs bis zu Wafern – Halb­leiter­bau­elemente sind essen­tielle Bestand­teile moderner Tech­nik in nahezu allen Bran­chen. Die nume­ri­sche Simu­la­tion kann dabei ein wich­ti­ges Hilfs­mit­tel dar­stel­len, um diese Bau­elemen­te in ihrer Funk­tions­weise zu analy­sie­ren und somit deren Kon­zep­tion zu er­leich­tern.

Alle Webinare »

Site Login

Bitte einloggen

Andere Optionen Login

Website Footer