Blogpost

Bandbreitenexplosion: Welche Leistung wird für die Überwachung der Netze von morgen benötigt?

Hier erhalten Sie einen Einblick in einen der Grundwerte der NANO Corp, auf dem wir unser Unternehmen aufgebaut haben. Wir freuen uns sehr, ihn mit Ihnen zu teilen.

Florian Thebault
November 22, 2022
Teilen Sie
LinkedIn LogoX-Logo

#Netzaufsicht: Fragen waren noch nie so wichtig wie heute

Mit der Netzüberwachung werden zwei Hauptziele verfolgt: Cybersicherheit und Überwachung der Dienstqualität (sowohl in Bezug auf die Integrität als auch auf die Leistung). Eine Technologie, mit der all dies überwacht werden kann, ist die Protokollanalyse, die Kunst, einen Blick auf die Netzpakete zu werfen. Diese Technologie, die auf Netzwerksonden basiert, gibt es seit Anfang der 2000er Jahre, als die Bandbreite maximal 1 Gbit/s erreichte. Wie einige Universitäten oder staatliche Unternehmen (mit Ausnahme von Rechenzentren oder ISPs)

Die Geschwindigkeiten haben fast exponentiell zugenommen

Im professionellen Bereich stieg die Kundenbandbreite kontinuierlich von 1 Gbit/s im Jahr 2000 auf 10 Gbit/s im Jahr 2007 und dann auf 40 Gbit/s im Jahr 2010;

Für Privatpersonen hat sich die Internetgeschwindigkeit von 56k auf 512k erhöht, dann ging es schnell zu ADSL (zwischen 1 Mbit/s und 20 Mbit/s) und schließlich zu Glasfaser (zwischen 200 Mbit und jetzt 1 Gbit. In Frankreich sogar 8Gbit/s !!!).

Das Wachstum der für die Überwachung der Netze erforderlichen Rechenleistung hat jedoch nicht mit dem gleichen Rhythmus wie das der Bandbreite (lineares Wachstum) Schritt gehalten, so dass es zu einer Art Ausfall gekommen ist.

Wie konnte die Protokollanalyse in den letzten 20 Jahren mit dem gestiegenen Durchsatz Schritt halten?

Die Vervielfachung der Sonden könnte eine offensichtliche Lösung sein, um mit der explosionsartigen Zunahme der Datenströme Schritt zu halten. Die Gewährleistung einer korrekten Analyse des gesamten Netzverkehrs setzt jedoch voraus, dass alle Pakete derselben Sitzung von derselben Verarbeitungseinheit verarbeitet werden.

Um diese Einheitlichkeit der Sitzungen zu gewährleisten, wurden 3 Arten von Lösungen entwickelt:

  • Parallelisierung von Prozessen, was jedes Mal die Entwicklung neuer Parallelisierungschips (wie ASIC oder FPGA) erfordert, wenn der Durchsatz erheblich steigt. Außerdem müssen die Lösungen an spezielle Codes angepasst werden, die zur Steuerung dieser Chips entwickelt wurden. Dies macht es unmöglich, die Fähigkeiten zu verbessern, ohne die Hardware zu ändern.
  • Steigende Rechenleistung, die bei jeder Steigerung des Durchsatzes die Entwicklung neuer Chips erfordert. Dies macht es unmöglich, die Fähigkeiten zu verbessern, ohne die Hardware zu ändern.
  • Die Vervielfältigung von Sonden im Netz, die auf bestimmte Fälle beschränkt ist, unterliegt den Standortbeschränkungen des Netzes und kann zu Informationsverlusten führen.

In den letzten zwei Jahrzehnten konzentrierten sich die Forschungs- und Entwicklungsarbeiten hauptsächlich auf die Entwicklung von hochspezialisierter Hardware (FPGA, ASICS usw.), um die Leistung von Sonden zu erhöhen.

Jede Erhöhung der Bandbreite kann nur durch bedeutende technologische Innovationen aufgeholt werden, die im Laufe der Zeit entwickelt werden, was eine chronische und "mechanische" Verzögerung zwischen den Sonden der "alten Generation" und den immer dichteren und schnelleren Netzen erklärt.

Als Folge dieses Strukturwandels führten die unterschiedlichen Lösungen der derzeitigen Hersteller zu zwei großen Nachteilen. Entweder explodierten die Kosten aufgrund von Investitionen in die Hardware-Entwicklung, um effizientere Sonden zu erhalten, oder der Platzbedarf für die Infrastruktur explodierte aufgrund der Vervielfachung der Sonden im Netz.

Die Vergrößerung des Platzbedarfs oder die Erhöhung der Kosten für Sonden, um sich an die wachsende Bandbreite anzupassen, ist jedoch lange Zeit eine Standardlösung geblieben. Diese wird nun mit der Ankunft von 100G in Frage gestellt. Und das ist ein wunder Punkt geworden.

100G-Netze: die Notwendigkeit eines Paradigmenwechsels

Heutzutage ist es weder glaubwürdig noch praktikabel, an die Nachhaltigkeit der Protokollanalyse durch den Anstieg der Rechenleistung dank maßgeschneiderter Hardware zu glauben. Es ist auch weder seriös noch praktikabel, Netzsonden weit weg von den Netzkernen zu platzieren. Es ist daher notwendig, sowohl die Hardware als auch die Software zu überdenken, um die Herausforderungen von morgen zu meistern.

Um im Rennen zu bleiben, ist ein neuer Ansatz erforderlich: die Nutzung der Parallelisierungsmöglichkeiten herkömmlicher Geräte als Grundlage. Die Hersteller von Netzwerkkarten haben die Parallelisierung zum Standard erhoben (was eine hervorragende Skalierbarkeit ermöglicht). Folglich sollte die Leistung von Sonden nicht mehr nur auf der Leistung der Hardware, sondern auch auf der Leistung der Software beruhen.

Ein Ansatz, der auf einer hardwareunabhängigen Bibliothek basiert, bietet mehr Freiheit gegenüber den Anbietern und garantiert qualitativ hochwertige Software.

Überwachung und Schutz Ihrer Netzwerke: der Weg von NANO

Unsere Netzerfahrung und unsere Gewissheit, dass die Geschwindigkeiten von heute 100 Gbit/s bis morgen 400 Gbit/s steigen werden, haben uns bei der Bewältigung dieser Herausforderungen geleitet.

Jahrelange Forschung und Entwicklung auf dem Gebiet der Parallelisierung haben es ermöglicht, sowohl in Bezug auf die Hardware als auch auf die Software, unser Kernkonzept zu entwickeln: Netzwerksonden, die sowohl vertikal als auch horizontal skalierbar sind.

Bleiben Sie dran für mehr!

Florian Thebault
November 22, 2022
Teilen Sie
LinkedIn LogoX-Logo

Sind Sie bereit, die vollständige Netzwerktransparenz von
freizuschalten?

Weitere Blogbeiträge

Zum Blog gehen