Für ihre Grundlagenforschung hat Prof. Anja Feldmann den Schelling-Preis erhalten. Ihr Ziel: ein neues, zukunftssicheres Internet. Die Direktorin des Max-Planck-Instituts für Informatik baut an virtuellen Datenautobahnen.
Heute schon gesurft? Das Internet ist aus unserem Leben nicht mehr wegzudenken. Die vielfältigen Anwendungen von der Datenübertragung über Voice-over-IP-Telefonie bis hin zum „Internet der Dinge", von dem in der Industrie ständig die Rede ist, wären ohne das Internet nicht möglich. Umso erstaunlicher ist es, dass die Grundarchitektur aus den Anfängen des Internetzeitalters in den 60er-Jahren trotz stetig fortschreitender Digitalisierung nach wie vor die Basis bildet. Doch so langsam aber sicher kommen die alten Strukturen an ihre Grenzen, weil Datenmengen und Nutzerzahlen exorbitant zunehmen.
Schon länger beschäftigen sich Forscher und IT-Spezialisten weltweit mit der Grundarchitektur des Internets. Prof. Anja Feldmann, seit 2018 Direktorin am Max-Planck-Institut für Informatik in Saarbrücken, arbeitet mit ihrem internationalen Team an einer vielleicht bahnbrechenden Innovation: einem neuen Internet.
Frau Prof. Feldmann, wie hat sich das Internet aus Ihrer Sicht in den vergangenen Jahren entwickelt?
Die Anforderungen an das Internet haben enorm zugenommen. Immer mehr Anwendungen, steigende Datenmengen durch die Übertragung von Bildern und Videos, gestiegene Nutzerzahlen, um ein paar Beispiele zu nennen. Gleichzeitig basiert das Internet fast immer noch auf der Architektur der 60er-Jahre. Und an diesem Punkt setzen wir an. Im Rahmen des Software-defined Networking, dem Bau von Computernetzgeräten und Software, versuchen wir, das Internet den Anforderungen der Zukunft anzupassen.
Wie funktioniert denn das?
Unser Ziel ist es, die vorhandenen Datennetze flexibler zu machen und besser auszunutzen, damit Anwendungen nahezu gleichzeitig ohne merklichen Qualitätsverlust für den Nutzer ablaufen. Heute ist es meist so, dass die zu übertragenden Datenpakete für die unterschiedlichsten Anwendungen alle mit gleicher Priorität behandelt werden, dem letztendlich ein Internet-Protokoll zugrunde liegt. Die Grundarchitektur sieht das auch so vor.
Es gab in den 80er-Jahren tatsächlich Überlegungen, komplett neue Datennetze zu bauen. Das ist natürlich illusorisch, weil es zu teuer wäre. Außerdem gilt immer noch die altbekannte Regel „never change a running system". Aber dahinter steckt ja ein guter Gedankengang: Revolution zu denken ist gut, aber sie zu machen, geht wegen der Innovationszyklen nur langsam. Also haben wir geschaut, wie wir das vorhandene System mit seinen alten Strukturen quasi „revolutionieren" können. Dahinter verbirgt sich das sogenannte Clean Slate Design oder nennen Sie es neues Internet. Echte ernstzunehmende Überlegungen und Entwicklungen starteten so um die Jahre 2005/2006. Heute sind wir in der Grundlagenforschung ein ganzes Stück weiter − mit vorzeigbaren Ergebnissen für die Praxis.
Das klingt, als ob Sie versuchen, aus Vorhandenem mehr rauszuholen. Verändern Sie damit nicht auch die altbewährte Grundstruktur des Internets?
Unsere Idee ist es, den Verkehr der Datenpakete im Netz zu optimieren und die Netze einfacher zu verwalten. Ich gebe ein Beispiel: Stellen Sie es sich vor wie unser Straßennetz. Wir haben eine Verkehrsinfrastruktur mit Schnellstraßen, Bundes- und Landstraßen, so wie im richtigen Leben. Wir brauchen im Grunde Schnellstraßen für Telefonie-Anwendungen wie Voice-over-IP, denn der Nutzer will ja kein Rauschen oder Zeitverzögerungen. Gleiches gilt für das Streaming. Bei Videoströmen unterscheiden wir zwischen essenziellen und weniger wichtigen Daten. Die Basisdaten müssen übertragen, die weniger wichtigen minimiert werden. Das verringert die Wartezeiten und das sogenannte Lag, also das Unterbrechen beim permanenten Nachladen. Andere Anwendungen wie Downloads können auch auf einer Bundes- oder Landstraße erfolgen, also minimal zeitversetzt. Wohlbemerkt: Das geschieht alles im Sekundenbereich, sodass der Nutzer das so gut wie nicht bemerkt. Wie machen wir das? Wir bauen im Prinzip parallele Netzwerke auf; und da sind wir wieder bei der revolutionären Idee von früher, dem Aufbau neuer Netze. Nur sind diese nicht physisch vorhanden, sondern virtuell auf verschiedenen Funktionsebenen. In unternehmensinternen Netzwerken wird das ja auch praktiziert. Diese parallelen Netzwerke bieten die Möglichkeit, andere Protokolle zu benutzen, die speziell für die Anwendungen optimiert werden. Wir haben dadurch neue Strukturen geschaffen und den Datenverkehr optimiert. Die Kernfrage ist immer, wie man Daten transportieren und schnell darauf zugreifen kann.
Sie bauen also parallele virtuelle Autobahnen, um im Bild zu bleiben. Und wie steht es um das Internet der Dinge?
Auch auf diesem weiten Feld gilt das Hauptaugenmerk dem Datentransport. Bei Industrie-4.0-Anwendungen kommunizieren zum Beispiel die Sensoren untereinander und lösen Prozesse aus, die wiederum Bestellungen oder andere Anforderungen auslösen. Hier gilt ebenfalls die Frage der Priorisierung: Welche Daten müssen wann, wo und wie zur Verfügung stehen? Es ist eine dynamische Anpassung.
Welche Auswirkungen hätte das neue Internet auf die Nutzer zu Hause, in Unternehmen oder öffentlichen Institutionen?
Die Nutzer haben im Prinzip damit wenig zu tun. Sie wollen von ihrem Serviceprovider eine optimale Dienstleistung und dafür bezahlen sie. Durch die Netzoptimierung bekommen sie eine höhere Qualität. Damit kein Missverständnis entsteht: Die Nutzer kaufen keine neue Hard- oder Software. Unsere Forschungsarbeit richtet sich an Netzausrüster, an Serviceprovider, an Netz- und Rechenzentrumsbetreiber. Und dafür arbeiten wir in einer internationalen Forscher-Community mit einer quelloffenen, also einer Open-Source-Software weltweit zusammen. Wir betreiben Grundlagen- und keine Auftragsforschung. Für die Vermarktung eines Produktes oder einer Dienstleistung müsste eigens ein Start-up-Unternehmen gegründet oder ein Technologiepartner gefunden werden.