Der dauerhafte Krieg. Die Visualisierung zeigt alle Cyberattacken, die gerade stattfinden. Dabei versuchen Hacker beispielsweise, durch zu viele Zugriffe auf einmal, Seiten oder Systeme zu blockieren. Würden größere Systeme durch komplexere Angriffe lahmgelegt werden, könnte das zu Ausfällen von Bereichen des Netzes führen. Karte: Norse Securitymehr Info

Netz und Apokalypse

Immer mehr Maschinen und Prozesse sind fundamental vom Internet abhängig. Was passiert, wenn es zur digitalen Apokalypse kommt? In Berlin simulieren Wissenschaftler den Totalausfall.

Wenn Benjamin Fabian etwas in seinen Computer tippt, erhält er manchmal einen Monat lang keine Antwort. Das liegt nicht daran, dass der Rechner des Informatikers besonders langsam ist – im Gegenteil. Die Computer rechnen nur lange, weil die Aufgaben so schwierig sind, die Informatiker und Statistiker der Berliner Humboldt-Universität (HU) ihnen stellen. Die Wissenschaftler googeln keine Begriffe, schreiben keine Nachrichten in irgendein soziales Netzwerk. Sie berechnen das Internet – und zwar das gesamte. Mit den Ergebnissen, die das System ausspuckt, könnten Fabian und sein Team die weltweite Kommunikation ausschalten.

„Das Internet ist fast wie ein Naturphänomen“, sagt der 45-Jährige. Im Büro des Professors für Wirtschaftsinformatik hängt ein großes Whiteboard mit Skizzen, mathematischen Formeln und langen Kommazahlen. Mit Mathematik versuchen die Forscher, Sinn zu extrahieren aus einem System, das inzwischen ähnlich komplex ist wie das Wetter. Um es zu verstehen, muss man es so lange beobachten, bis wiederkehrende Muster erkennbar werden. Die Analysen gewinnen zunehmend an Bedeutung, weil Kommunikation und Wirtschaft abhängig sind von einem Netzwerk, dessen Vielschichtigkeit immer weiter zunimmt.

Autonome Systeme und Kühlschränke

Fast die Hälfte der Menschen nutzt laut der Internationalen Telekommunikationsunion das Internet. Tendenz steigend. Knapp 80 Prozent der Deutschen verfügten laut einer Studie von ARD und ZDF im vergangenen Jahr über einen Internetanschluss. Das Internet of Things, also der Trend, Gegenstände an die Kommunikation anzuschließen, wird den Vernetzungsgrad noch weiter erhöhen. Smarte Autos, Kühlschränke und Industrieanlagen – bis 2020, schätzt die US-Unternehmensberatung Gartner, könnten 25 Milliarden Geräte online sein.

Das Internet besteht aus kleineren Rechnerverbünden, die miteinander kommunizieren. „In einem älteren Datensatz konnten wir 44 400 dieser Autonomen Systeme beobachten. Die Zahl steigt aber ständig“, erklärt Fabian. Aktuell seien es etwa 50 000. „Das sind, wie zu erwarten, wichtige Internetprovider in Nord- und Südamerika.“ Aber auch Computer-Infrastruktur in China, Russland und vielen anderen Ländern. Die US-Organisation ICANN veröffentlicht regelmäßig eine Liste der Autonomen Systeme. Mit dabei sind die Rechenzentren großer Universitäten wie Harvard oder Yale und die großer Unternehmen und Service-Provider. In Deutschland ist beispielsweise die Betreibergesellschaft des Frankfurter Internetknotens DE-CIX registriert. Eine Analyse aller IP-Adressen wäre sehr komplex. „Aber auf dieser Ebene reicht normale Hardware und ein paar Tage Rechenzeit“, erklärt der Informatikprofessor.

Zehn Prozent Ausfall reichen für das Chaos

Mann der Netze. Benjamin Fabian erforscht, wo das Internet verwundbar ist. Bild: Privat

Außerdem seien die großen Datendrehkreuze die sensibelsten Angriffsflächen für Cyberattacken, sprich Angriffe, die sich laut Bundeskriminalamt „gegen das Internet, Datennetze, informationstechnische Systeme oder deren Daten richten.“ Wissenschaftler des Center for Strategic and International Studies (CSIS) gehen davon aus, dass Cyberkriminalität Unternehmen weltweit über 400 Milliarden Dollar im Jahr kostet. Oft kommen die Angriffe nicht aus denselben Ländern, in denen sich auch die Geschädigten befinden. Daten lassen sich von überall klauen, Server lahmlegen auch. Deshalb versuchen Forscher und Versicherungen verstärkt, Cyberrisiken global zu erfassen.

Die Gefahr eines Totalausfalls ist nicht so unwahrscheinlich, wie man bei einem so vernetzten System annehmen könnte: „Unsere Erkenntnisse belegen eine starke Fragmentierung bei einem Prozent, massive Effekte bei 2,5 Prozent und eine enorme Zersplitterung bei zehn“, sagt der Wissenschaftler. Die Zerstörung von weltweit 500 Autonomen Systemen würde theoretisch reichen, um jede Kommunikation lahmzulegen. Welche Knotenpunkte am wichtigsten sind und wo diese stehen, wissen höchstwahrscheinlich nicht nur die Berliner Wissenschaftler: „Die NSA hat die gleichen Daten wie wir, das geht aus den Snowden-Dokumenten hervor“, sagt Fabian.

Die Medici des Internet

Um die digitale Apokalypse möglichst realitätsgetreu zu simulieren, sind die Forscher auf das sogenannten Traceroute-Verfahren angewiesen. Hierfür schicken mehrere Forschungseinrichtungen täglich Daten auf eine weltweite Reise zwischen vorher festgelegten Start- und Endpunkten. Dabei dokumentiert Software, welche Router die Pakete auf ihrem Weg passieren. Wie bei einem Bergsteiger, der immer wieder ausprobiert, welche Wege zum Gipfel führen, und diese aufschreibt, entstehen so Karten des Internets. Mathematisch lässt sich dann bestimmen, wo die Knoten liegen und auch, wie wichtig jeder einzelne für den Gesamtzusammenhalt ist.

Fabian vergleicht dieses Phänomen mit dem italienischen Florenz in der Renaissance: „Die einflussreichsten Familien, wie die Medici, waren nicht die größten und wohlhabendsten, sondern die, die zentral an den Kommunikationsflüssen lagen“, sagt er. Je mehr Nachbarn ein Knoten hat und je mehr Kommunikationspfade über ihn laufen, desto relevanter ist er. Würden Hacker, Terroristen oder Geheimdienste nur die wichtigsten von ihnen ausschalten, bräche das ganze Netz zusammen. Kommunikation, Finanzwirtschaft oder Warenlogistik wären auf unbestimmte Zeit stark beeinträchtigt.

Versicherungen gegen Cyberrisiken

Wie realistisch es ist, die identifizierten Rechnernetzwerke tatsächlich gleichzeitig abzuschalten, können die Berliner Forscher nicht sagen. Die Frage, wie stabil einzelne Internetprovider an das Netz angebunden sind, lässt sich mit dem Verfahren aber beantworten. Das könnte Unternehmen und Provider konkret interessieren.

Deshalb beschäftigt sich auch der oberste Datenanalyst vom Versicherungskonzern Munich Re mit der Frage. „Dass Teilnetze oder einzelne Cloud-Anbieter früher oder später lahmgelegt werden, halten wir für möglich“, sagt Wolfgang Hauner. „Das sind Szenarien, die wir besonders genau begreifen wollen, um zu verstehen, wie sich solche Attacken künftig vermeiden lassen.“ Die Kunden der Rückversicherungssparte der Munich Re sind Versicherungen, die sich selbst gegen Großschäden schützen wollen. Neben der Versicherung von Finanzrisiken und Naturkatastrophen rücken Cyberrisiken immer mehr in den Fokus der Branche. In diesem Bereich lag die Höhe der Beitragsprämien des Konzerns 2015 bei 200 Millionen US-Dollar. Das entspricht zwar nur einem Bruchteil der jährlichen Gesamtbeiträge von rund 30 Milliarden US-Dollar, aber der Markt wächst stetig.

Zukunft ohne Vergangenheit

Um die eigenen Risiken möglichst genau einzuschätzen, wertet auch der Münchner Konzern den weltweiten Traffic über bestimmte Knotenpunkte aus. Diese Analyse gestaltet sich aber schwieriger als bei vielen anderen Bereichen. „Wenn man die Schäden von Erdbeben analysiert, sieht man sich die Schäden im Nachhinein an und kann so Erfahrungswerte für die Zukunft sammeln“, erklärt der Analyst. Diese Herangehensweise greife bei Cyberattacken aber nur bedingt. „Schaut man sich die Cyberattacken vor zwei Jahren an, dann sind das andere als heute und wenn man fünf Jahre zurückschaut, haben die Daten praktisch gar keine Relevanz mehr für das Hier und Jetzt“, sagt Hauner.

Hier liegt der wesentliche Unterschied zu Naturkatastrophen. Die Vergangenheit des Netzes lässt wenig Vorhersagen über die Zukunft zu. Für eine sich immer schneller ändernde Kommunikation müssten sich auch die Analysen ständig ändern – da sind sich Forscher und Versicherungsexperten einig. „Man bräuchte perspektivisch Echtzeitanalysen“, sagt Fabian. Eine ununterbrochene Ansicht der digitalen Kommunikationswege wäre mit der bestehenden Hardware aber nicht nur unglaublich teuer. Die ständigen Abfragen würden die Datenkanäle schlichtweg verstopfen. Und die Analyse selbst könnte zum Ausfall des Internets führen.