• 13.08.2014
  • von Bodo Erler

Riesig und komplex

von Bodo Erler

Viel Stoff. Große Datenmengen verlangen neue Methoden zur Auswertung. Foto: dpa

Big-Data-Forscher trafen sich am Plattner-Institut

Um neue Methoden im Umgang mit Big Data vorzustellen, sind unlängst rund 50 internationale Forscher ans Potsdamer Hasso-Plattner-Institut gekommen. Als „Big Data“ werden riesige, sehr komplexe oder sich stetig ändernde Datenmengen bezeichnet, die sich mit klassischen Datenverarbeitungsmethoden kaum noch bearbeiten lassen. Eine Vergleichbarkeit der Leistung von Anwendungen, die diese Datenmengen verarbeiten, herzustellen, hatte sich der Workshop in der vergangenen Woche zum Ziel gesetzt. Standardisierte Verfahren hierfür gibt es bisher noch nicht. Für verschiedene Daten bedarf es spezieller IT-Lösungen und Algorithmen, um diese zu verarbeiten und auszuwerten.

Unterschiedliche Systemanforderungen sowie die Art und das Volumen der zu verarbeiteten Daten mache die Vergleichbarkeit außerordentlich schwierig, erklärte Matthias Uflacker, der den fünften internationalen Workshop zu Leistungsvergleichen im Bereich Big Data organisiert hat. So würden strukturierte Daten, wie Rechnungen oder Bestellungen, gänzlich andere Anforderungen an ein System stellen als etwa das Auswerten von geschriebenen Kundenrezensionen, Bildern oder Videos. „Insbesondere bei der Auswertung unstruktierter Daten dringen wir sehr schnell in den Bereich von Big Data vor“, erklärte Uflacker. Der Wissenschaftler ist Lehrstuhlvertreter am Hasso-Plattner-Institut (HPI) im Fachgebiet Enterprise Platform and Integration Concepts von SAP-Mitbegründer und Institutsstifter Hasso Plattner.

Fortschritte der vorangegangenen Workshops in den USA, Indien und China seien bei dem aktuellen Treffen in Potsdam deutlich geworden, so Uflacker. Von besonderer Bedeutung seien zudem auch der Austausch unter den Wissenschaftlern und die Diskussion der unterschiedlichen Ansätze. „Die Anforderungen an einen Vergleichstest sind vielfältig. Da ist es wichtig, die unterschiedlichen Perspektiven zu verstehen und in die weitere Forschung einfließen zu lassen“, sagte der Forscher. Darüber hinaus ist die intensive Einbindung der Industrie für die IT-Forscher von großer Bedeutung. Die rege Beteiligung von Firmen an dem Workshop zeige, dass eine Nachfrage nach entsprechenden Ansätzen und Lösungen da ist, so Uflacker. Unternehmen wie Cisco, Hewlett Packard, IBM, SAP und Hitachi, aber auch Forschungseinrichtungen wie das Fraunhofer-Institut waren auf dem Workshop in Potsdam vertreten. Initiiert war das Treffen vom Center for Large-Scale Data System Research des San Diego Supercomputer Centers.

Das Team des HPI hat Festplatten- und Hauptspeicherdatenhaltung miteinander verglichen. Mit betrachtet wurden hier auch sonst meist vernachlässigte Kosten, wie Energie und Kühlung. Die Potsdamer Forscher erklärten ihren Kollegen, dass die Betriebskosten mit stark steigenden Bandbreitenanforderungen bei Festplattenspeicherung deutlich stärker stiegen – und damit Speichern im Hauptspeicher günstiger sei. Das Verfahren dazu war in den vergangenen Jahren am HPI entwickelt worden. Bodo Erler

Social Media

Umfrage

Soll die Fachhochschule - so wie die Stadt es wünscht - für zwei Jahre ins Rechenzentrum ziehen, damit die historische Stadtmitte schneller rekonstruiert werden kann?