Berlin - Am 14. Dezember 2020 gingen bei Google die Lichter aus. Zahlreiche Dienste wie YouTube, Gmail oder Google Calendar waren eine halbe Stunde nicht erreichbar. Wer die Videoplattform YouTube aufrufen wollte, sah einen possierlichen Comic-Bären mit einem Hammer, versehen mit der Überschrift: „Something went wrong“, etwas ist schiefgelaufen. Auch Smarthome-Geräte von Google waren von dem Ausfall betroffen. Ein Nutzer berichtete, er sitze im Dunklen im Kinderzimmer, weil das Licht von Google-Home gesteuert werde. Nach gut einer Stunde konnte die Störung behoben werden. Als Auslöser für den dreiviertelstündigen Ausfall gab Google ein Speicherplatzproblem im Anmeldesystem an.

Es war nicht das erste Mal, dass es bei Google zu einem Systemausfall kam. Bereits im Juni 2019 waren Dienste wie Drive, YouTube oder Gmail mehrere Stunden nicht erreichbar. Den bislang schwersten Blackout gab es im August 2013: Da verschwand Google von der einen auf die andere Sekunde aus dem Netz. Messungen des Internet-Analysedienstes GoSquared ergaben, dass der globale Internet-Traffic in diesem Zeitraum um 40 Prozent einbrach. Der fünfminütige Ausfall kostete Google mehr als  eine halbe Million US-Dollar.

Solche Server-Probleme können immer wieder auftreten. Doch in Zeiten von Corona, wo das Netz aufgrund von Videokonferenzen und Streamingdiensten unter hoher Auslastung läuft, häufen sich solche Probleme. So hatte auch Amazons Cloudsparte AWS (Amazon Web Services) kürzlich mit massiven Ausfällen zu kämpfen. Dienste wie Adobe, Flickr oder Roku, aber auch Zeitungen wie die Washington Post sowie die Verkehrsbehörde in New York waren von dem Serverausfall betroffen: Die Websites funktionierten über mehrere Stunden entweder gar nicht oder nur sehr langsam.

Nutzer von Amazons smarter Türklingelkamera Ring konnten sich nicht in die App einloggen, und auch der Staubsaugroboter Roomba verweigerte zwischenzeitlich den Dienst. Die Cloud-Computing-Plattform ist das Rückgrat der Internet-Infrastruktur: Zahlreiche Apps und Websites laufen über Amazon-Server. Das zeigt auch, wie abhängig die Digitalwirtschaft von dem Onlineriesen ist.

Alexa verliert ihre Stimme

Amazon erklärte in einem Blogeintrag, der Auslöser sei eine Erhöhung von Serverkapazitäten im Norden Virginias. Dort betreibt der Tech-Konzern seit 2006 ein strategisch wichtiges Rechenzentrum. Konkret ging es um die sogenannten Kinesis-Server, die unter anderem für die Speicherung von Streaming-Daten und Videos genutzt werden. Schon in den vergangenen Jahren kam es immer wieder zu technischen Pannen bei Amazons Cloud-Infrastruktur, in deren Folge die cloudbasierte Sprachassistentin Alexa zeitweise ihre Stimme verlor. 2017 löste bei Routinearbeiten der Tippfehler eines Mitarbeiters eine weltweite Störung aus.

Netflix, das Cloud-Space bei Amazon anmietet, war von den Ausfällen weniger tangiert. Der Grund: Der Streamingdienst hat schon vor Jahren eine Software entwickelt, die sogenannte Simian Army, die mithilfe künstlicher Verzögerungen den Ausfall eines Knotens oder ganzen Netzes simuliert. Durch diese Experimente kann Netflix im Falle einer Störung Datenströme in andere Rechenzentren umleiten und so den Betrieb am Laufen halten. Der Netflix-Nutzer merkt auf der Couch womöglich gar nicht, dass es in der Amazon-Cloud Probleme gibt. Doch in der Corona-Pandemie, wo viele Menschen zu Hause in Videokonferenzen sitzen und Serien streamen, wächst der Datenverkehr und damit der Druck auf die Internet-Infrastruktur.

Zum Schulstart in Baden-Württemberg waren jüngst die Server der digitalen Lernplattform Moodle überlastet. Der Onlinedienst „Xbox Live“ ging wegen zu starker Nutzung in die Knie, und auch Microsofts Cloud-Computing Azure brach kurzzeitig zusammen, nachdem die Nutzung des Videokonferenzdiensts Teams exponentiell angestiegen war. Netflix hat während des Lockdowns im März 2020 zeitweise die Übertragungsrate gedrosselt, um die Netze zu entlasten. Der Streamingdienst macht rund 15 Prozent des globalen Traffics aus.

Den Gartenschlauchdurchmesser erhöhen

Rene Büst, Cloud-Analyst beim Marktforschungsunternehmen Gartner, ist trotz der Störungen überzeugt, dass die Internet-Infrastruktur das steigende Datenvolumen bewältigen kann. „Stand heute sind die Umgebungen definitiv darauf vorbereitet“, sagt er im Gespräch. Die Entwicklung habe sich bereits Ende 2019 abgezeichnet. Grundsätzlich könne die steigende Datenmenge aber kanalisiert werden. „Man kann sich das Datenvolumen wie beim Wasserfluss durch einen Gartenschlauch vorstellen“, erklärt Büst. „Wenn mehr Wasser oder – in diesem Fall – Daten fließen sollen, müssen am Backend die Schlauchdurchmesser größer werden.“

Problematischer könnten Cyberattacken auf die Internet-Infrastrukturen sein. So werden Cloud-Systeme immer häufiger zur Zielscheibe sogenannter DDoS-Attacken. Dabei werden massenhaft Anfragen gesendet, bis die Server in die Knie gehen. So gerieten im Februar 2020 Amazon-Server mit einer Datenrate von bis zu 2,3 Terabit pro Sekunde unter Beschuss. Es war die bislang größte DDoS-Attacke, die je registriert wurde. Zwar konnte Amazon den Angriff abwehren. Doch die Cyberkriminellen rüsten ihr Arsenal immer weiter auf. Zuletzt meldete das Hasso-Plattner-Institut in Potsdam zu Wochenbeginn so einen Vorgang, die Schulcloud des Instituts war attackiert worden. 

„Die Angriffsvektoren steigen ins Unendliche, weil man nicht nur interne, sondern auch externe Systeme hat, die schwieriger zu schützen sind“, sagt Analyst Büst. Nicht auszuschließen, dass nicht nur YouTube-Nutzer demnächst wieder in die Röhre schauen müssen.