Big Data - Management und Analyse großer Datenmengen

In Berlin und Dresden werden Big-Data-Kompetenzzentren eingerichtet, neue Forschungsprojekte gehen an den Start. "Wir müssen lernen, mit großen Datenmengen besser umzugehen", sagte Bundesministerin Johanna Wanka.

Die Erzeugung und Erfassung von Daten und deren Übermittlung ist heute einfach und allgegenwärtig. Die Menge der produzierten Daten wächst ungebrochen: Die Digitalisierung von Inhalten, die Integration digitaler Mess-, Steuer- und Regelsysteme - eingebetteter Systeme - in Alltagsgegenstände, die Kommunikation dieser Daten mit „intelligenten Umgebungen“, das Internet und soziale Netzwerke tragen ihr Übriges dazu bei. Die Verarbeitung der so erzeugten großen, heterogenen Datenmengen stößt jedoch an ihre Grenzen.

Big data
Big data © Thinkstock / camij

"Big Data, das Synonym für den intelligenten Umgang mit solchen großen und gleichzeitig heterogenen Datenmengen, ist eine der bedeutenden Herausforderungen unserer Zeit. Big Data birgt für Wissenschaft und Wirtschaft große Potentiale. Es kann die Art der Entscheidungsfindung in Unternehmen und die Art des Forschens in verschiedensten Wissenschaftsdisziplinen nachhaltig verändern. Big Data wird wissenschaftliche Fortschritte und Innovationen schaffen und damit die Wettbewerbsfähigkeit unserer Wissenschaft als auch unserer deutschen Unternehmen steigern. Gleichzeitig bedarf es aber auch eines besonders verantwortungsvollen Umgangs mit den Daten und den neuen intelligenten Big Data-Technologien.

Das Bundesministerium für Bildung und Forschung hat sich zum Ziel gesetzt, die Forschung zum intelligenten Umgang mit großen, heterogenen Datenmengen in Deutschland gezielt zu unterstützen:

Kompetenzen verzahnen: Aufbau von Big Data-Kompetenzzentren

Das BMBF wird in den kommenden Jahren zwei Kompetenzzentren für Big Data aufbauen:

  • das Berlin Big Data Center (BBDC) unter der Leitung von Professor Markl an der TU Berlin und
  • das Competence Center for Scalable Data Services (ScaDS) unter der Leitung von Professor Nagel an der TU Dresden.

Während das Berlin Big Data Center automatisch skalierbare Technologien entwickeln wird, die riesige heterogene Datenmengen organisieren und gleichzeitig aus all diesen Datenmengen intelligent Informationen gewinnen, wird das Competence Center for Scalable Data Services in Dresden und Leipzig durch den eher service-orientierten Ansatz bei gleichzeitiger Forschung für Big Data ein Portfolio von Big Data-Lösungen für die Wissenschaft und die Industrie erforschen, entwickeln und zugänglich machen.

Forschung zu Big Data vorantreiben

Wissenschaft und Unternehmen haben ihre Forschungsbedarfe zu Big Data-Technologien mit dem Fokus auf die Extraktion nützlicher und verlässlicher Informationen aus riesigen Datenmengen und die Transformation dessen in für Menschen verwertbare Daten (Visualisierung) identifiziert. Eine besondere Rolle spielen dabei auch Algorithmen, die eine Echtzeitfähigkeit von Datenanalysen garantieren können. Das BMBF wird in den kommenden Jahren zehn Projekte insbesondere im Anwendungsbereich Produktion, das heißt vor allem Industrie 4.0, aber auch den Lebenswissenschaften und den Geowissenschaften fördern. Die entwickelten Techniken und Werkzeuge sollen möglichst umfassend einsetzbar sein und einen Beitrag zur Lösung der gesellschaftlichen Herausforderungen der Hightech-Strategie liefern.

Mit Daten und Big Data-Technologien verantwortungsvoll umgehen

Alle Anwendungen von Big Data bergen gleichzeitig Potenziale und Herausforderungen juristischer und gesellschaftlicher Art. So verschwimmen zum Beispiel durch Big Data die Grenzen zwischen personenbezogenen und nicht-personenbezogenen Daten. Nicht-personalisierte Daten können immer mehr auch wieder auf einzelne Personen zurückgeführt werden. Diese und andere Aspekte gilt es stets mit im Blick zu haben. Das BMBF beabsichtigt, durch begleitende Forschung die Fragen zum verantwortungsvollen Umgang mit Big Data anzugehen und die Ergebnisse in den gesellschaftlichen Diskurs einzubringen.