Forum

Sag mir, wo die Daten sind…

Forschungsdaten sind der unverzichtbare und kostbare Rohstoff der Wissenschaft. Ihn zu sichern und weiter nutzbar zu halten, ist eine große Herausforderung.

  • Alexander Pawlak
  • 11 / 2015 Seite: 24

Wir schreiben das 22. Jahrhundert: Auf dem Planeten Losannien ist die Forschung in einer Sackgasse gelandet. Zwar ist schon so gut wie alles Erdenkliche untersucht worden, aber keiner weiß, wo sich bestimmte Forschungsergebnisse befinden. Um dem Unwissen über das Wissen zu begegnen, rufen die Losannier eine eigene Wissen­schaft namens Ignorantik ins Leben und durchfors-ten mit einem Spürcomputer die Datenspeicher des Planeten nach verschollenen Wissensschätzen. Doch im stetig wachsenden Netzwerk dauert die Suche bereits bis zu 16 Jahre, Tendenz steigend.

Dieses fiktive Dilemma hat der polnische Schriftsteller Stanislaw Lem bereits 1982 in seinem Science Fiction-Roman „Lokaltermin“ ersonnen und legte damit den Finger in die richtige Wunde. Wie überall ist heutzutage auch in der Wissenschaft eine steigende Daten­flut zu beobachten. So erzeugen allein die Detektoren des Large Hadron Colliders am CERN jährlich rund 15 Petabyte Daten. Dafür gibt es nicht nur ein eigenes Rechenzentrum vor Ort, sondern gleich ein global verteiltes Netzwerk: Für das „Worldwide LHC Computing Grid“ stellen 170 Rechenzentren aus 34 Ländern über 100 000 Prozessoren zur Verfügung, um die Daten zu verarbeiten und für die Community verfügbar zu machen...

Doch abseits von der Großforschung, im Labor herkömmlicher Größe, sieht der Datenkreislauf meist wenig nachhaltig aus: Forscher gewinnen im Experiment Messdaten, werten sie aus, vergleichen sie mit anderen Beobachtungen oder Simulationen und veröffentlichen schließlich ihre Ergebnisse in den einschlägigen Fachzeitschriften. Dann müssen neue Daten her, die alten haben schließlich ihre Schuldigkeit getan, oder? Nein, sagte schon die Deutsche Forschungsgemeinschaft 1998 in ihrer Denkschrift zur „Sicherung guter wissenschaftlicher Praxis“. Darin empfiehlt sie: „Primärdaten als Grundlagen für Veröffentlichungen sollen auf haltbaren und gesicherten Trägern in der Institution, wo sie entstanden sind, zehn Jahre lang aufbewahrt werden.“ Ein Auslöser für die Empfehlung war ein schwerer Fall von Forschungsbetrug: Die Krebsforscher Friedhelm Herrmann und Marion Brach von der Universität Ulm hatten über viele Jahre hinweg ihre Daten manipuliert und fremde Ergebnisse kopiert und in den eigenen Publikationen verwendet. Ein verantwortungsvoller Umgang mit den Primärdaten ist daher ein entscheidender Schritt, um gute wissenschaftliche Praxis zu sichern und eventuelle Vorwürfe überprüfen zu können. Wie berechtigt die DFG-Empfehlung ist, rief der Fall des Physikers Jan Hendrik Schön im Jahr 2002 wieder eindrücklich in Erinnerung. Originaldaten konnte er nicht vorweisen...

Share |
thumbnail image: Sag mir, wo die Daten sind…

Aktuelles Heft

Inhaltsverzeichnis
10 / 2017

thumbnail image: PJ 10 2017

Anomalien von Wasser

Ursprung des Lebens

Fraunhofer-Linien

Phänomenta

Zugang Physik Journal

Nur DPG-Mitglieder haben vollen Zugriff auf alle Hefte und Online-Inhalte des Physik Journal und müssen sich dafür mit ihrer Mitgliedsnummer registrieren » 

Erst wenn die Artikel des Physik Journal älter als drei Jahre sind, stehen sie kostenlos und frei zugänglich zur Verfügung

Als DPG-Mitglied erhalten Sie den Physik Journal Newsletter, wenn Sie sich dafür bei der DPG registrieren »

Mediadaten

Die Mediadaten für Werbe­mög­lich­kei­ten im Phy­sik Jour­nal finden Sie als PDFs hier:
2017 deutsch / eng­lisch
2018 deutsch / englisch

Webinar

Warum reale akustische Systeme nur multiphysikalisch simuliert werden können

  • 02. November 2017

In diesem Webi­nar wird ge­zeigt, warum man bei­spiels­weise schon bei der Simu­la­tion eines „ein­fachen“ Laut­spre­chers auf multi­phy­si­ka­li­sche Kopp­lung an­ge­wie­sen sein kann, wenn man ex­pe­ri­men­tel­le Er­geb­nis­se kor­rekt re­pro­du­zie­ren will.

Alle Webinare »

Site Login

Bitte einloggen

Andere Optionen Login

Website Footer