Blogpost

Explosion der Debatten: Welche Leistung ist für die Überwachung der Netze von morgen erforderlich?

Sehen Sie sich einen Überblick über eine der grundlegenden Werte von NANO Corp an, die Grundlage, auf der wir unser Unternehmen aufgebaut haben. Wir freuen uns, Sie daran teilhaben zu lassen.

Florian Thebault
November 22, 2022
Teilen Sie
LinkedIn LogoX-Logo

Aufsicht über die Netze: Entwicklung der Herausforderungen

Die Überwachung der Netze dient zwei Hauptzielen: der Kontrolle der Sicherheit und der Überwachung der Dienstqualität (sowohl in Bezug auf die Integrität als auch auf die Leistung). Eine der Technologien, die diese Elemente überwachen können, ist dieProtokollanalyse. Diese Technologie, die sich auf Netzsonden stützt, gibt es bereits seit Anfang 2000, einer Zeit, in der die ersten Datenübertragungsraten maximal 1 Gbit/s erreichten.

In der Folgezeit haben sich die Streitigkeiten quasi explosionsartig vergrößert:

Im professionellen Bereich wurden die Datenübertragungsraten von 1 Gbit/s im Jahr 2000 auf 10 Gbit/s im Jahr 2007 und auf 40 Gbit/s im Jahr 2010 erhöht. Für die Teilnehmer hat sich die Internetübertragungsrate von 56k auf 512k erhöht, um dann zu ADSL (zwischen 1 Mbit und 20 Mbit) und schließlich zu Glasfaser (zwischen 200 Mbit und 1 Gbit) überzugehen. Die Entwicklung der für die Überwachung der Netze erforderlichen Rechenleistung folgt jedoch nicht dem gleichen Rhythmus wie die Entwicklung der Datenübertragungsraten (lineare Entwicklung), was zu einer Art von Entkopplung führt.

Vermehrung der Ausgaben verfolgen

Wie konnte die Protokollanalyse der Explosion der Ausgaben im Laufe der letzten 20 Jahre folgen?

Die Multiplikation von Sondierungen könnte eine eindeutige Lösung sein, um eine Explosion der Bits zu verhindern. Die Gewährleistung einer korrekten Analyse setzt jedoch voraus, dass alle Pakete einer gleichen Sitzung von einer gleichen Recheneinheit bearbeitet werden.

Um diese Einheitlichkeit der Sitzungen zu gewährleisten, wurden 3 Arten von Lösungen entwickelt:

  1. Die Parallelisierung von Funktionen, die die Entwicklung neuer Parallelisierungspakete für jede Vergrößerung der Belastung und einen speziellen Code für diese Pakete erfordert. Dies macht eine Weiterentwicklung der Kapazitäten ohne Änderung der Hardware unmöglich.
  2. Die Vergrößerung der Rechenleistung, die bei jeder Vergrößerung der Belastung die Entwicklung neuer Recheneinheiten erfordert. Dies macht eine Weiterentwicklung der Kapazitäten ohne Änderung der Hardware unmöglich.
  3. Die Vervielfältigung von Sonden, die auf bestimmte Einzelfälle beschränkt ist, unterliegt den Platzbeschränkungen des Netzes und kann zu Informationsverlusten führen.

In den letzten beiden Jahrzehnten konzentrierten sich die Forschungs- und Entwicklungsarbeiten vor allem auf die Entwicklung hyperspezialisierter Hardware(FPGA, ASICS usw.), um die Leistung von Messgeräten zu verbessern.

Jede Zunahme des Flusses kann nur durch die im Laufe der Zeit entwickelten technologischen Innovationen aufgefangen werden, die eine sowohl chronische als auch "mechanische" Verzögerung zwischen den "alten" Sonden und den immer dichteren und schnelleren Flussnetzen erklären.

Als Folge dieses Strukturwandels führen die unterschiedlichen Lösungen, die von den Unternehmen eingesetzt werden, zu zwei großen Unannehmlichkeiten. Zum einen explodieren die Kosten aufgrund der Investitionen in die Entwicklung von Hardware, um über effizientere Sonden zu verfügen, zum anderen führt die Vervielfachung der Anzahl der Sonden zu einem Anstieg der Kosten für die Infrastruktur.

Schließlich ist die Vervielfachung des Solarenergieverbrauchs oder die Erhöhung der Sondenkosten zur Anpassung an den Anstieg der Kosten eine Lösung, die erst mit der Einführung von 100G zum Tragen kommt.

100G: Paradigmenwechsel

Heute ist es weder möglich noch machbar, die Dauerhaftigkeit der Protomanalyse durch die Steigerung der Rechenleistung dank einer hyperspezialisierten Hardware zu erhöhen. Außerdem ist es weder einfach noch praktikabel, die Übertragung von Sonden außerhalb der Netzknoten vorzusehen. Es ist daher notwendig, die Hardware und die Software zu erneuern, um auf die Herausforderungen von morgen zu reagieren.

Die Aufrechterhaltung des Kurses erfordert einen Wechsel des Ansatzes: die Nutzung der Parallelitätskapazitäten herkömmlicher Geräte als Grundlage.

Die Hersteller von Netzkarten haben die Parallelisierung zur Norm erhoben (die eine hervorragende Skalierbarkeit ermöglicht). Daher muss die Leistung der Sonden nicht nur auf der Leistung der Hardware, sondern auch auf der der Software beruhen.

Ein auf einer unabhängigen Hardware-Lizenz basierendes Konzept bietet eine größere Freiheit gegenüber den Anbietern und garantiert ein Qualitätssicherungssystem.

NANO Corp, die Lösung der Zukunft für die Überwachung Ihrer Netze

Die Erfahrung mit Netzwerken und die Gewissheit, dass eine Steigerung der Datenübertragungsraten von 100 Gbit/s heute auf 400 Gbit/s in Zukunft zu erwarten ist, haben die Mitarbeiter der NANO Corp. dazu veranlasst, auf die globalen Überwachungsanforderungen zu reagieren.

Sie sind an der Parallelisierung sowohl auf Hardware- als auch auf Softwareebene beteiligt, um das NANO Corp-Konzept zu verwirklichen, das sowohl vertikale als auch horizontale Skalierbarkeit bietet.

Florian Thebault
November 22, 2022
Teilen Sie
LinkedIn LogoX-Logo

Möchten Sie
die vollständige Sichtbarkeit Ihres Netzwerks freigeben?

Weitere Blogbeiträge

Zum Blog gehen