Hasso-Plattner-Institut
 
    • de
Hasso-Plattner-Institut
 

Endet das Internet im Chaos ?

Prof. Dr.-Ing. Werner Zorn

Deutscher Internet Kongreß
Karlsruhe, 6. Mai 1996

 

1. Einleitung

Das Kapitel 1 über Komplexität im Standardwerk der Objektorientierten Programmierung von Grady Booch [Boo91] beginnt mit folgender kleinen Geschichte:

Drei Fachleute, ein Mediziner, ein Bauingenieur und ein Informatiker führen einen Disput darüber, welches wohl der älteste Beruf sei. Der Mediziner argumentiert: "Schon im alten Testament steht, daß Gott das Weib aus einer Rippe des Mannes geschaffen hat. Dies ist ein komplizierter chirurgischer Eingriff und daher ist die Medizin die älteste Wissenschaft". Der Bauingenieur hält dagegen: "Aber noch weiter vorn in der Schöpfungsgeschichte steht, daß Gott Himmel und Erde aus dem Chaos geschaffen hat und dies ist ja unbestreitbar die größte und früheste Bauleistung überhaupt. Also ist der Bauingenieur der älteste Beruf." Da lehnt sich der Informatiker genüßlich zurück und fragt: " Und wer, denken Sie, hat davor wohl das Chaos geschaffen?!"

Informatik und Chaos, ein Begriffspaar, das seit der Entdeckung der "fraktalen Schönheit im Chaos" [PeiRi86] und der Erkenntnisse der Chaostheorie ([Cast 89], [DiPe93]) inzwischen durchaus positiv besetzt ist. Doch nach allgemeinem Verständnis gilt Chaos immer noch als der Inbegriff von Unzuverlässigkeit, Unberechenbarkeit und damit Unbrauchbarkeit. Dem entspricht die wissenschaftliche Definition: ein System ist chaotisch, wenn niemand vorhersagen kann, wie es sich über längere Zeit verhalten wird. Aus diesem Grunde pflegen die Ingenieure sich mit dem Chaos bislang nur auf eine einzige Art zu befassen: es zu unterdrücken.

Mittlerweile konnten Mathematiker und Informatiker zeigen, daß Chaos beherrschbar und anwendbar, ja sogar in besonderem Maße nützlich sein kann. So bedienen sich z.B. gerade die Rechnernetze - längstens seit Ethernet die LANs beherrscht - chaotischer Techniken, wie die weitgehende zufällige Adreßzuteilung sowie die CSMA/CD Übertragungsmechanismen Ÿberhaupt.

Trotz einer Reihe von Problemen, die mit Broadcasts und fehlendem Quality of Services einhergehen, funktionieren diese chaotischen LANs doch einigermaßen zuverlässig und tun schon seit über 10 Jahre treu und brav ihren Dienst.

Insofern ist die Kernfrage auch nicht, ob Netze chaotische Eigenschaften aufweisen dürfen oder nicht, sondern ob Netze unter bestimmten Bedingungen instabil werden können, welche Auswirkungen dies hat und was man ggfls. dagegen tun kann. Natürlich haben dabei chaotische Architektureigenschaften wesentlichen Einfluß. Was sagt die Theorie dazu?

Vereinfacht weisen Chaotische Systeme zwei wichtige Eigenschaften auf:

  • Sie sind nichtlinear, d.h. Ursache und Wirkung stehen nicht in einer einfachen durchschaubaren Beziehung zueinander
  • Sie hängen empfindlich von ihren Anfangszuständen ab, d.h.: wenn sich zwei nahezu identische Systeme zu einem gewissen Anfangszeitpunkt auch nur minimal unterscheiden, können ihre Zustände schon nach kurzer Zeit sehr verschieden sein.


Eine besondere Klasse innerhalb der chaotischen Systeme bilden dabei nochmals Systeme mit exponentiellem Wachstum, die von Natur aus instabil sind.

Und damit sind wir schon beim Internet und dem Thema "Datenautobahn".

 

2. Über die "Datenautobahnen"

Lassen Sie mich, bevor ich auf das Internet als chaotisches System näher eingehe, einige Anmerkungen zum Thema "Datenautobahn" speziell hierzulande machen (wobei ich dieses Wort schon bald nicht mehr hören kann). Vor kurzem wurde ich von einer einschlägigen ortsansässigen Zeitschrift interviewt zu der Frage, ob denn die Information-Highways in Deutschland schon die Bedeutung hätten, die der Zukunft des Wirtschaftsstandortes Deutschland gerecht würden. Ich antwortete in der Druckfassung höflich aber bestimmt: Nein, denn erstens verdienten die existierenden Infrastrukturen die Bezeichnung "Information Highway" kaum und außerdem gäbe es bisher noch viel zu wenig wirtschaftlich sinnvolle Anwendungen. Ersteres ist verursacht durch das ungünstige Verhältnis der Bandbreiten von Backbone - zu Zugangsstrukturen und dieses wiederum ist eine Folge der hohen Telekommunikationsgebühren hierzulande. Und zweiteres ist u.a. - aber nicht nur - bedingt durch ersteres.

Um Analogie zum Straßenverkehr zu nutzen: die Relation ist etwa so, als würden Sie in Ihrem Garten 40 -Spurig herumfahren, ab dem Hoftor 2 spurig bis zur Autobahnauffahrt und ab dann auf einer 1 -spurigen europäischen Ringstraße zusammen mit dem europäischen Schwerverkehr über die Drehscheiben Amsterdam, Stockholm oder Paris bis hin zum Ziel, wo es wieder 40 -spurig wird.

Real kann man aber von Karlsruhe nach Paris natürlich auch einen kürzeren Weg benutzen. Dieser führt auf der A5 bis nach Rastatt, von dort mit der Rheinfähre bei Plittersdorf ins Elsaß rüber und dann bei Brumath auf die mautpflichtige Autoroute de l'Est nach Paris.

An der Rampe zur Fähre passiert es dann internetmäßig, daß man von nachkommenden LKW's in den Rhein geschoben wird und dieses nicht nur 1 x, sondern häufiger, wobei man allerdings nach dem 10. Mal überlegen darf, ob man wirklich nach Paris wollte.

So ähnlich erging es mir und meinem Mitarbeiter Egbert Fridrich im Sommer letzten Jahres, als wir uns, - völlig entnervt von den langen Antwortzeiten, - entschlossen, einmal etwas systematischer ins Internet zu schauen, um nach den Ursachen zu fahnden und dies von mehreren deutschen Service Providern aus mittels periodischem Zugriff auf p.d. (public domain) File Server weltweit. Fazit: die international erzielbaren Durchsatzraten wiesen Unterschiede bis zum Faktor 169 auf, wobei die US-Anbindung des deutschen Wissenschaftsbereiches mit z.T. weniger als 1 kBit/s am untersten Rande lag.

Eine Blitzumfrage bei anderen Uni´s ergab:

  • "Nein, natürlich sind Sie nicht alleine ... "
  • "Sieht ähnlich aus .. ""Das trifft auch für uns zu."
  • "Ich bin ziemlich unzufrieden."
  • "dem kann ich nur zustimmen"
  • "Ich kann nur zustimmen ... "
  • " ... USA -Zugang ähnlich katastrophal ... "
  • "Du hast ja so recht ... "
  • "Kann ich alles bestätigen ... "
  • "es ist grauenhaft"
  • "normalerweise müßten wir ... Geld bekommen"

Zur letzten Äußerung sei angemerkt, daß bei manchen Dienstanbietern die Gebührenstruktur derart ist, daß die Gebühren witzigerweise umso höher werden, je schlechter der Service ist.

Hinter den Kulissen wurde jedoch intensiv an den Bandbreiten gearbeitet. So wurde Ende 95 die US -Anbindung des deutschen Wissenschaftsbereichs von 1.5 auf 5.5 M Bit/sek aufgestockt, andere Service Provider verstärkten ihre Bandbreiten ebenfalls erheblich. Wir hatten unsere Meßaktivitäten derweil zugunsten der Entwicklung von Meß - und Auswertungswerkzeugen zurückgestellt, als mir Mitte Februar - per Zufall natürlich - eine Bildzeitung in die Hände fiel und mein Blick durch eine WWW -Adresse im Text angezogen wurde.

Unter der dicken Überschrift "Ein Mäuseteppich vom Zukunftsminister" in der Rubrik "BONN vertraulich" schildert Graf Nayhauß sein Erlebnis mit dem ihm kurz zuvor von Herrn Rüttgers geschenkten Mousepad, auf dem der Beschenkte zum Internet -Besuch des BMBF eingeladen wurde.

"Wollen wir's doch mal ausprobieren, dachte ich gestern, wo man angeblich über die Super -Datenautobahn in Sekundenschnelle von Kontinent zu Kontinent hüpfen kann, erst recht doch von meinem Büro zu Rüttgers' Ministerium - Luftlinie zirka 3000 Meter. Denkste. Um 12 Uhr fing ich an, um 16 Uhr hatte ich schließlich die Verbindung zu "http://www.dfn.de/bmbf" aufgebaut. Am Ende schaute Rüttgers schön gebräunt, lächelnd aus meinem Monitor.

Kürzlich bekamen alle Bundestagsabgeordneten Zugang ins globale Datennetz Internet. Rezzo Schlauch (Bündnis90/Die Grünen): "Ich hab's noch nicht versucht, bin aber wild entschlossen, einen Crashkurs zu machen. "Viel Vergnügen und auf bald! Im "Café Internet" mit Rüttgers."

Inzwischen haben wir unsere Messungen wieder aktiviert. Letzte Auswertungen (3.5.96) ergaben: innerhalb Deutschlands o.k.. mit ca. 40 - 70 K Bytes/s nachts und 20 - 50 k Bytes/s tagsüber END TO END; Richtung USA ähnlich schlecht wie vor einem halben Jahr, tagsüber wiederum in der Nähe von Null. Maximale Übertragungsraten von bis zu 30 kBytes/s in der Spitze kann man erzielen, wenn man sich nachts zwischen 3 und 6 Uhr in der Uni an die Workstation hockt, am besten sonntags.

Doch nicht nur im Internet gibt es Performance Probleme. Auch die Anbieter von ONLINE -Diensten erfahren negative Schlagzeilen [PC PRO 9/95]:

"Datenstau auf der Infobahn"

oder

Compuserve kollabiert

Der mit 3,2 Millionen Teilnehmern größte Onlinedienst der Welt stößt an seine Grenzen: Compuserve wird von Beschwerden geplagter Kunden überschwemmt.

Verbindungsabbrücke, Fehlermeldungen, gähnend langsame Datenübertragung - sind nur einige der Probleme, mit denen entnervte Teilnehmer den Onlinedienst Compuserve konfrontieren. In Beschwerden wie "Knoten Köln unbenutzbar", "Scheiß langsam" oder - quasi resümierend - "CIS - die Katastrophe "macht sich die Compuserve -Klientel via E -Mail beim Kundendienst Luft. Selbst in den sonst loyalen Sysop- Kreisen gärt es. "Unhaltbare Zustände", schimpft der Verwalter eines großen deutschen Forums.

Compuserves Schwierigkeiten sind indirekt mit dem Internet verbunden. Kurz nach Einführung eines vollwertigen WWW -Zugangs und des Gratis -Browsers Netlauncher mußte Compuserve Überlastungsprobleme einräumen, die im Zusammenhang mit den stark genutzten neuen Möglichkeiten standen. Der gleichzeitige Ausbau des Compuserve -Netzwerks, die Umstellung vieler Einwahlknoten auf 14 400 Bit pro Sekunde und Schwierigkeiten mit den Telefonleitungen sorgten für zusätzlichen Ärger."

Neulich hatte ich Gelegenheit zur Besichtigung des im Bau befindlichen Grötzinger Straßentunnels, der ca. zu 1/3 fertiggestellt ist. Ich fragte meinem Freund, der die Bauaufsicht hat, ob denn geplant sei, den fertigen Abschnitt demnächst feierlich einzuweihen und für den Verkehr freizugeben? Mein Freund - der Bauingenieur - schaute mich, - den Informatiker -, leicht irritiert an, nicht wissend, welche Assoziationen mir dabei im Kopf herumgingen.

Aber es gibt ja nicht nur Tunnels, an deren Ende noch kein oder wenig Licht schimmert, sondern sogar richtige Hochgeschwindigkeitstrecken mit 34, 155 oder mehr mBit/s, wo echt die Post abgeht. Manchmal stehen diese Super -Highways aber noch etwas isoliert in der Landschaft und erinnern den kritischen Beobachter an jene in den 60er Jahren mit Entwicklungsgeldern im Afrikanischen gebauten Autobahnstrecken, auf deren 6km Länge die lokale Aristokratie mit ihren 600er Mercedes hin- und herrasten. Unbestreitbar ein nützlicher Erfahrungszuwachs für alle Beteiligten.

 

3. Die chaotischen Mechanismen des Internet

Erinnern wir uns nochmals an die 3 Charakteristika chaotischer instabiler Systeme:

  1. Nichtlinearität
  2. kritische Zustände
  3. exponentielles Wachstum

Im Internet finden sich diese Eigenschaften in unterschiedlichen Mechanismen wieder, als da sind:

a) zufällige IP -Adreßverteilung: Die weltweite Vergabe IP -Adressen ist RANDOM. Hieraus resultieren aufwendige ROUTING und ROUTER Update Mechanismen,

b) dezentrale DNS -Zuständigkeiten: der logische Namensraum der Domain Name Server wird unterhalb der TOP LEVEL Domain dezentral verwaltet. Fehlerhafte EintrŠge können sich weltweit verbreiten und werden über CACHE -Mechanismen längere Zeit gehalten,

c) unsicherer IP -Dienst: der verbindungslose IP -Dienst läßt Paketverluste zu, die durch Retries auf höheren Schichten (TCP; ftp, WWW) korrigiert werden müssen. Hierdurch werden unvorhersagbare interne Aufträge erzeugt,

d) mangelnde Flußkontrolle: aufgrund des verbindungslosen IP -Dienstes ist eine Flußkontrolle nur sehr eingeschränkt möglich. Der SOURCE Quentch mittels ICMP greift oft zu spät, das TCP Window Management führt zu unfairen Verdrängungen auf dem selben Trunk. Mit anderen Worten: teilen sich z.B. 2 Service Provider dieselbe Backbone -Leitung, so wird derjenige mit dem anfangs größeren Übertragungsvolumen immer mehr Bandbreiten okkupieren und den Konkurrenten immer mehr zurückdrängen.

Für das exponentielle Wachstum sorgen eine Reihe von internen und externen Treibsätzen, die an der Rakete namens Internet angebracht sind:

1) Die Zahl der angeschlossenen Netze, Router, HOSTS und Endnutzer verdoppelt sich jedes Jahr. Hierzu trägt auch der weltweit boomende PC -Markt bei.

2) Die Zahl der angeschlossenen WWW -Server wächst z.Z. noch schneller

3) Die transportierten Volumina betragen bei Graphik ein Vielfaches gegenüber herkömmlichen Texten. Die Verbreitung von komfortablen Browsern wie NETSCAPE ermöglichen den Zugriff für jedermann.

4) Neue Dienste wie Multimedia Konferenzen, Diskussionsforen, X.400/X.500 siedeln sich auf der offenen PORT -Architektur des Internet an. ATM ermöglicht künftig die Integration von Video und Sprache.

5) Applikationen, bilaterale und multilaterale Geschäftsbeziehungen beginnen sich zu etablieren, ebenso wie private Nutzungsformen (Homebanking, E -Mailordering, Teleworking). JAVA wird die Realisierung neuartiger Netz -Applikationen forcieren.

6) Technologische Fortschritte erschließen immer neue Übertragungsdimensionen (der Weltrekord steht z.Z. bei ca.
500 G Bit/s über Glasfaser)

Und schließlich:

7) Der deregulierte Markt wird die sich drastisch verbessernden Preis/Leistungsverhältnisse im Wettbewerb hoffentlich bald an die Service Provider und diese auch an die Endkunden weitergeben.

Das explosionsartige Internet -Wachstum läßt sich auch an den derzeit von 32 auf demnächst 128 Bit vergrößerten IP -Adressen ablesen.

 

4. Die Netikette als Management -Ersatz

Auf der Titelseite der BNN -Samstagsausgabe (4./5.5.96) steht unter der Überschrift "Kontrolle des Internet?" die Meinung des früheren Präsidenten des BVGs Ernst Benda, wonach die Überwachung des Internet nicht mehr möglich sei. Er bezog sich dabei auf die Speicherung und Verbreitung hierzulande verbotener Inhalte, rechtsextremer oder pornographischer Art.

Dies war ja unlängst Gegenstand einer einstweiligen Verfügung gegen Compuserve, ausgelöst durch die Staatsanwaltschaft München, welche weltweit heftige Reaktion auslöste, insbesondere in den USA.

Das Internet kennt seit langem Mechanismen der freiwilligen Selbstkontrolle, als AUP's (Acceptable Use Policy's) oder auch als Netikette bekannt, welche unter anderem den Nutzer verpflichten zur

Beachtung geltenden Rechts, z.B.

-keine staatsfeindlichen Aktivitäten

-keine Erpressung, Nötigung o.ä.

- keine Pornographie

etc.

Beachtung von Nutzungseinschränkungen. z.B. in Wissenschaftsnetzen

-keine kommerzielle Nutzung

-keine Werbung

etc.

Verpflichtung zum sinnvollen Umgang mit den Ressourcen.

In einer deutschen Netikette mit den Titel "Ein Leitfaden zu ethischen und rechtlichen Fragen der Nutzung von Datennetzen" [Schwi92] steht u.a.:

"Verantwortungsvolle Nutzung"

Der Einsatz der Netze sollte zum Nutzen der Gemeinschaft erfolgen, und nicht zum Vergnügen Einzelner. Durch den Mißbrauch selbst einer kleinen Gruppe von Nutzern können
die Netze in ihrer Gesamtheit in Verruf gebracht werden.

Nicht immer ist die persönlich optimale Nutzungsform auch die global optimale; eine sorgfältige Beobachtung des Netzverkehrs
ist erforderlich, um Nachteile für die Gemeinschaft abzuwenden und die tatsächliche Last bei vertretbarem Aufwand zu bewältigen."

Und an anderer Stelle heißt es:

"Privileg"
Die Nutzung des Datennetzes ist ein Privileg und sollten als solches von jedermann behandelt werden.

Mißbrauchsbeispiele

Beispiele für unakzeptable Nutzung sind:

-der Versuch, unauthorisierten Zugang zu Netzdiensten - welcher Art auch immer - zu erhalten;

-Erzeugung von Störungen oder Unterbrechungen im laufenden Betrieb;

- Vergeudung von Ressourcen durch einen unbedachten Umgang mit den Netzdiensten;

- Verletzung der Integrität von Informationen, die über das Netz verfügbar sind;

- Eingriffe in die individuelle Arbeitsumgebung eines Netznutzers;

- jede Art des Mithörens von Datenübermittlungen, Stöberns in fremden Datenbeständen oder Weitergabe von unfreiwillig erfahrenen Angaben über Rechner und Personen."

Sowie

"Schadensersatz"

Ein mißbräuchlicher Einsatz der Netze stellt jenseits ethischer Aspekte eine Vergeudung öffentlicher Mittel dar und könnte zu Regressforderungen führen, deren rechtliche Formulierung (Beweissicherung, Aufwandschätzung etc.) einen unverhältnismäßigen und unproduktiven Arbeitsaufwand gerade für diejenigen darstellen würde, die zum Aufbau der Netze beigetragen haben. Die Wahrnehmung einer Polizistenrolle ist von allen Seiten (Nutzer, Betreiber und Finanziers) unerwünscht. Tun Sie dies Ihren Kollegen nicht an!


Jeder ist verantwortlich

Die Betreiber der Netze werden uneinsichtigen Nutzern und mißbräuchlichen Nutzungsformen nachgehen - mit dem Ziel, diese zum Vorteil aller von den Netzen fernzuhalten. Gleichwohl ist ein langfristig stabiler und effizienter Betrieb der Netze nicht möglich ohne die verantwortungsbewußte Nutzung durch jeden Einzelnen."

Alles hehre und absolut legitime Grundsätze! Nur:

Hier werden moralische/ethische, rechtliche und technische Anforderungen gestellt, die auf völlig unterschiedlichen Ebenen liegen.

Wie soll ein armer End -Nutzer denn überhaupt wissen, geschweige denn sicherstellen, daß seine Nutzung nicht an irgendeiner Stelle des Internet einen Engpaß verursacht oder verschärft, wenn dies nicht einmal die Internet Service Provider oder die Internet Society mit all ihren technischen Arbeitsgruppen zu leisten im Stande sind?

"Eine sorgfältige Beobachtung des Netzverkehrs ist erforderlich,
um Nachteile für die Gemeinschaft abzuwenden und die tatsächliche Last bei vertretbarem Aufwand zu bewältigen"

Dieser Satz läßt die Frage aufkommen, ob dies nicht eigentlich eine Aufgabe des Netzwerkmanagements sei und wie es denn überhaupt mit dem Netzwerkmanagement im Internet bestellt ist. Noch einmal zur Erinnerung: die Funktionen des Netzwerkmanagement lassen sich klassisch den 5 Bereichen zuordnen

  • Konfiguration
  • Leistung
  • Abrechnung
  • Sicherheit
  • Fehler

 

zu denen noch

  • Änderungen und
  • Dienste

 

hinzugerechnet werden können.

Um es gleich zu beantworten: ein Netzwerkmanagement, wie wir es aus dem LAN - oder proprietären Netzbereich kennen, gibt es im Internet nicht. Der Schwerpunkt des globalen Internet -Management seitens der ISOC liegt auf der Weiterentwicklung der Dienste inkl. Protokolle, sowie der Adreßräume einschließlich der Spielregeln für deren Verwaltung zur Sicherstellung der globalen Konnektivität. Bei den Service Providern liegen die Schwerpunkte beim Konfigurationsmanagement welches vorrangig aus dem

-Management des eigenen Netzes

inkl.

-Routermanagement

besteht.

Das Fehlen eines weitergehenden Netzwerk -Managements im globalen Internet ist dabei weder eine Nachlässigkeit noch eine Leichtfertigheit, sondern liegt in der Architektur des Netzes begründet:

Internet, das Netz der Netze

ist eben nun mal ein offenes System, in dem Leistungen quer über mehrere oder viele Teilnetze in Anspruch genommen werden, wobei keiner der Teilnetzbetreiber nicht nur nicht willens, sondern einfach außerstande ist, für die Gesamtleistung einzustehen. Entsprechend weich (oder "wachsweich") bzw. wenig belastbar sind dementsprechend auch die vertraglichen Garantien:

Dies sei am Beispiel der derzeit im deutschen Wissenschaftsbereich vom "WISP" (Wissenschafts-Service Provider) angewendeten Vertragsbedingungen veranschaulicht. Ich beschränke mich auf einzelne Textstellen des insgesamt 42 Seiten umfassenden Konvoluts.

"§ 7: Gewährleistung, Haftung"

Der "WISP" gewährleistet die in Anlage 2 spezifizierten Dienste und deren Güte unter den dort genannten Bedingungen.

Für Störungen, die auf das Nutzerverhalten von Anwendern und/oder Dritten zurückzuführen sind, hat der "WISP" nicht einzustehen. Dritte im Sinne dieses Absatzes sind z. B. Netze in Europa und den USA, zu denen der WISP nicht notwendigerweise Vertragsbeziehungen hat.

Zunächst also ein Haftungsausschluß in Anlage 2 heißt es unter Punkt 3. IP Dienst:

"Der IP -Dienst beinhaltet insbesondere

-Zugang zum nationalen und zum weltweiten Internet"

Sowie unter Punkt 6. Dienstgüte

"Der IP-Dienst wird nach dem "best effort- Verfahren" bereitgestellt"

-was immer "best effort" bedeutet.

Umgekehrt wird der Kunde zur Einhaltung der Benutzerordnung verpflichtet.

Dort wiederum heißt es u.a. unter Punkt 3. Mißbrauch

-Netzbehinderung, d.h.
Behinderungen und/oder Störungen des Netzbetriebes oder anderer netzteilnehmender Nutzer, z.B. durch

-ungesichertes Experimentieren im Netz, etwa durch Versuche zum "Knacken" von Paßwörtern,

-nichtangekündigte und/oder unbegründete massive Belastung des Netzes zum Nachteil anderer Nutzer oder Dritter.

Bei schuldhaft verursachten Schäden behält sich der "WISP" vor, gegenüber den Systemverantwortlichen und/oder Endnutzern des Kunden Haftungsansprüche geltend zu machen.

Soweit die Vertragsbedingungen am Beispiel der Wissenschaft. Wie sieht nun die praktische Anwendbarkeit aus:

Nehmen wir den Fall der Uni Köln von vor einem 3/4 Jahr, die aus ihrem 2 M Bit/s Netzanschluß im Tagesbetrieb gerade mal, falls überhaupt 1k Bit/s in Richtung USA an Durchsatz herausholten. Könnte dieser Anwender bei den oben genannten AGBs irgendwelche Ansprüche gegenüber seinem Service Provider geltend machen. Die Antwort ist einfach: Nein, denn

1. Lag der Engpaß in den USA und fällt damit unter die zitierte Ausschlußklausel,

und

2. Wurde die Zuleitung zum Engpaß mit den "best effort" einer 2, bzw. 1.5 MBit/s Zuleitung bereitgestellt

Tröstlich für den Kunden ist, daß er oder seine Mitarbeiter auch kaum für die Beeinträchtigung haftbar gemacht werden können, denn deren ursächlicher Beitrag zu der Netzbehinderung durch Verschärfung des Bottlenecks in den USA ist auch wiederum schwer nachzuweisen.

Die naheliegende Frage, inwieweit ein vertraglich geregeltes Umgehen mit chaotischen Effekten das Chaos vergrößert oder verringert, dürfte wohl unterschiedlich beantwortet werden, je nachdem, welche Seite man fragt.

Auch die nächste naheliegende Frage, ob denn nun die bösen Amerikaner Schuld seinen, wenn bei uns die Dienste so schlecht sind, läßt sich nicht so einfach beantworten, denn der betreffende USA -Service Provider hat nur das gemacht, was den allgemeinen Routingregeln entspricht: er hat Traffic, der keinen eigenen Kunden oder Partner betrifft, möglichst schnell am nächstgelegenen Übergabepunkt loszuwerden versucht, und dieser war ein Engpaß, nachdem der leistungsfähige NSFNet -Backbone als Default -Route am 30.4.95 abgeschaltet worden war.

Was können wir aus den AUPs, Netiketten und Netz -AGB's lernen? Antwort: daß Probleme, wie das Netzwerkmanagement -Probleme, die nicht von den Fachleuten, sprich den Computer Science -Leuten und den Netzspezialisten gelöst werden, von andern gelöst werden, z.B. den Juristen, und dann logischerweise mit deren Mitteln, die der Sache dann oft nicht oder nur sehr viel schlechter oder überhaupt nicht "gerecht" werden.

Die berechtigte Frage, warum denn die Netzwerkmanagement -Probleme bisher nicht zufriedenstellend gelöst werden konnten, führt zum nächsten Kapitel.

 

5. UPSIDE DOWN als neues Management Paradigma

Zunächst einige Gegebenheiten

1. Offene Netze wie das Internet wachsen nicht so schön wie die guten alten klassischen Kommunikationsnetze TOP DOWN von oben nach unten - zentral von großen, meist staatlichen Monopolisten geplant und betrieben-, sondern sie wachsen genau umgekehrt, nämlich BOTTOM UP: indem man sich z.B. ein Modem zu seinem PC kauft und sich für 15 DM monatlich einen Internet- Zugang besorgt. Oder indem man eine Leitung zu einem ISP (Internet Service Provider ) anmietet, einen Terminalserver aufstellt, und so selbst zum Service Provider wird. Oder indem man sich mit Providern in anderen Regionen zusammentut und nationale oder internationale Konsortien bildet.

Die ungeheure Geschwindigkeit, mit der sich das Internet ausbreitet, erklärt sich genau aus diesem neuen Paradigma, welches jedem Einzelnen oder jeder Gruppe freien Zugang und freie Entfaltung ermöglicht, sofern sie nur einen Satz von globalen Spielregeln einhalten.

Die Strukturen, die bei dem beschriebenen Wachstum der offenen Rechnernetze entstehen, tragen auch strukturell absolut chaotische Züge. Sie ähneln den Strukturen in der Natur, wie sie durch Bifurkation entstehen. Dies liegt nicht an der Undiszipliniertheit der Netzspezialisten, sondern an der Architektur der offenen Systeme. Offene Systeme verbinden sich über offene Schnittstellen, und wachsen über neue offene Schnittstellen weiter. Jeder Einzelne sieht immer nur Schnittstellen, keiner hat mehr einen globalen Überblick. Und natürlich entstehen dabei Management -Inseln, in die von außen nicht eingesehen werden kann

2. Internet ist ein typisch amerikanisches Produkt und wenn man dieses importiert und sich noch dazu als lebenswichtige Infrastruktur implantiert, muß man sich auch bewußt sein, welcher "culture change" für einen Mensch auf dieser Seite der Atlantiks damit verbunden ist.

Um dieses zu verstehen, muß man sich nur die unterschiedlichen geographischen, kulturellen und ökonomischen Gegebenheiten in USA und Europa vergegenwärtigen. Die Randbedingungen für die Entstehung von Informationsinfrastrukturen (Telekommunikations- ebenso wie Rechnernetze) waren in den USA ungleich günstiger als in Europa: ein einheitlicher Sprachraum, die Notwendigkeit, die großen Entfernungen zwischen den verschiedenen High Tec Zentren von der Boston -Area bis zum Silicon Valley zu überbrücken, niedrige Telekommunikationsgebühren durch einen liberalisierten Markt, weitblickende übergreifende Förderinstitutionen wie ARPA (Advanced Research Projects Agency des DoD) und die NSF (National Science Foundation), sowie der unbekümmerte amerikanische Pragmatismus bei der Lösung anstehender Probleme bei gleichzeitigem Erhalt größtmöglichen Wettbewerbs. Demgegenüber Europa mit seinen vielen Ländern, Kulturen, Sprachen, getrennten Wirtschaftsräumen ohne echten Bedarf an intensiver Kommunikation, monopolistischen PTTs mit hohen Gebühren, sowie dem historisch aus den spätmittelalterlichen Religionskriegen überkommenen Dogmatismus in seiner speziellen Ausprägung des technischen Perfektionismus innerhalb zentralistischer bürokratischer Strukturen.

Letzteres hatte u.a. die Ausprägung, daß man in Europa, allen voran Deutschland, in der öffentlichen Förderung über 10 Jahre lang ausschließlich mit 300 Mio DM auf die OSI -Protokollwelt setzte und die Internetwelt regelrecht bekämpfte. Dies hatte in Verbindung mit der Gutgläubigkeit der DV-Industrie und den bekannt hohen Telekommunikationgebühren die fatalen Folgen, daß sich hierzulande weder eigenständige IP-Produkte noch international wettbewerbsfähige Netzinfrastukturen entwickelten, d.h. ein riesiger Markt nicht besetzt werden kann, was jedoch hier nicht Thema sein soll.

Für unsere Thematik relevant ist, daß sich europaweit 2 flächendeckende aber unterschiedliche Anbieterstrukturen herausgebildet haben

-die vormals OSI orientierten, inzwischen aber zu TCP/IP konvertierten, aber immer noch öffentlich geförderten wissenschaftsnahen Anbieter, wie sie in der DANTE Ltd. in Cambridge UK zusammengeschlossen sind.

-die freien kommerziellen Anbieter, die unterschiedlichen Konsortien angehören (EBONE, EUNet, PIPEX)

Sowie natürlich die

-Anbieter von ONLINE -Diensten (T -ONLINE; Compuserve, AOL, EO)

Dies hat eine Reihe von nachteiligen Auswirkungen, die von

-europaweit getrennten Leitungsnetzen

-abstrusen Routen (IP und E-Mail)

bis hin zu z.T. unvereinbaren Gegensätzen beim Betrieb notwendiger gemeinsamer Entwicklungen reichen, als da sind nationale

-Übergabepunkte (DE -CIX in F. z.B.)

-Netzinformationszentren (DE -NIC in KA z.B.)

Wie weit dabei die Welten auseinander sind, läßt sich an der Tatsache erkennen, daß die Service Provider nicht wie selbstverständlich innerdeutsche Konnektivität auf gegenseitiger Basis an einem zentralen Übergabepunkt in Deutschland bereitstellen, sondern sich jeder Service Provider teuer einkaufen mu§, wenn seine Kunden mit dem Wissenschaftsbereich kommunizieren wollen.

Hier sind neue Verhaltensmuster und neue Managementtechniken gefragt.

UPSIDE DOWN heißt das neue Managementparadigma im Internet. "Kopf unter" mit aller Intelligenz und Erfahrung des oberen Managements nach unten zu schauen, was da an KNOW -HOW Strukturen und Dienst angeboten BOTTOM UP wächst, um es dann mit der eigenen Unternehmens -oder einer Globalstrategie nutzbringend in Einklang zu bringen.

Und nicht, wie es heute die Regel ist, entweder Politik TOP DOWN zu betreiben oder die Spezialisten an der Basis allein wursteln zu lassen.

UPSIDE DOWN -Management erfordert ein völliges Umdenken: Weg von dem Hierarchiegehabe, weg vom immer spiegelblank geleckten Schreibtisch, hin zu den Mitarbeiten in ihren mit PC's und Manuals vollgepfropften Büros, rein in die Netze von verschiedenen Ecken aus, um zu sehen, was da los ist.

Hätte Herr Rüttgers einmal selbst 4 Stunden auf sein WWW -Image warten müssen, würde er sicher erst seine eigene Netzanbindung auf Vordermann gebracht haben, bevor er weiter "Mäuseteppiche" verschickt.

 

6. Von der belehrten zur lernenden Gesellschaft

In der SZ vom Wochenende (4./5.5.96) kommt in der Serie "von der belehrten zur lernenden Gesellschaft" John Hormann von IBM mit dem Beitrag

"Unternehmen als lernfähige Denkfabriken"

zu Wort. Aus dem Artikel, der wärmstens zur Lektüre empfohlen sein soll, seien 2 Passagen zitiert:

"Die Probleme unserer Zeit sind das Ergebnis von Nichtlernen, der Fehleinschätzung sich schnell verändernder Muster. Um die Situation, in der wir uns alle befinden, besser zu verstehen, ist es nützlich, zuerst die Methoden des Nichtlernens anzusehen.

Der dänischen Philosoph Kierkegaard sagte: 'Es gibt 2 Möglichkeiten der Täuschung. Entweder man glaubt an etwas, das nicht so ist, oder man weigert sich an etwas zu glauben, das so ist."

Und

"You can't keep shit
Ungerechtigkeiten sind der Stoff, aus dem Systemveränderungen gemacht sind. Der russische Innenminister sagte kürzlich, daß Kolchosen 20 Jahre lang Gülle in alle erreichbaren Höhlen und Löcher geschüttet haben - und jetzt, über Nacht, die Gülle in Form von riesigen Seen aufgetaucht ist. Viele Menschen müssen auf Dauer evakuiert werden.
Er sagte: "You can't keep shit down forever." Genauso verhält sich das mit unserem Denken, jeder Verdrängungsprozeß hat ein schmerzvolles Ende.

Das Erkennen selbstzerstörerischer Prozesse reicht nicht aus, um sie aufzugeben, rationales Denken findet immer einen Grund weiterzumachen."

7. Schluss

Die Frage war: "Endet das Internet im Chaos?"

Die Antwort ist: Nein, denn der Überlebenswille und die Selbstorganisationskräfte in der Internet Community sind zu stark..

Für uns stellt sich jedoch die Frage, ob wir dabei künftig eine Rolle spielen oder ob wir uns am Rande des Geschehens wiederfinden wollen. Alarmzeichen für letzteres gibt es genug.

Ich danke Ihnen für Ihre Aufmerksamkeit!

Quellen

[Boo91]Booch, G: "Object Oriented Design
- with Applications"
The Benjamin/Cummins Publishing
Company, Inc., 1991

[Cas89]Casti, J.L.: "Alternate Realities - Mathematical Models of
Nature and Man"
John Wiley & Sons, Inc, 1989

[DFN-M]DFN -Verein: "DFN -Mitteilungen", Heft Nr. 1. (Feb 85) bis
Nr. 40 (März 96)

[DFN-V]DFN -Verein: "Vertrasbedingungen zur Nutzung der
Breitband -Infrastruktur über einen
Gemeinschaftsanschluß", (Version 2.2), 1996

[DiPe93]Ditto, W.L.: "Das Chaos meistern"

Pecora, L.M. Spektrum der Wissenschaft, 11/93

Spektrum Verlag, Heidelberg

[ISOC]Internet Society: "On The Internet", Jahrgang 91 bis 96

[Nau94]Naur, P.: "Bridging the Gap Between Pure and Applied

Computing", Proceedings of the
6. International Siemens Nixdorf IT Users
Conference, 8. - 10. Juni 94, Kopenhagen

Saur Verlag ,1994 [Hrsg. : H.W. Meuer]

[PeRi86]Peitgen, H.-O: "The Beauty of Fractals - Images of
Richter, P.H. Complex Dynamical Systems"

Springer Verlag, Berlin, Heidelberg,
New York, Tokio 1986

[Schw92]Schwichtenberg, G.:: "Datennetze - Ein Leitfaden zu ethischen und
rechtlichen Nutzung von Datennetzen"
ALWR -Kommissionsbericht, 06/92

[Zo95.1]Zorn, W.: "Leistungsmessungen im Internet - von Fridrich, E. deutschen Service Providern aus",
iX 10/95, S. 50-65

[Zo95.2]Zorn, W.: "Europas Wege zur ´Datenautobahn´", Bull Inform, 3/95, Sept. 95, S. 5-7

[Zo95.3]Zorn, W.: "Internationale Komunikationsnetze zum
Nutzen der Versichrungwirtschaft?!"
Bull AG / I.I.R., Wiesbaden, 25.Sept.1995

[Zo96.1]Zorn, W.: "Visionen zur Zukunft des Internet und
elektronischer Dienste", Vortragsmanuskript
Management Circle Fachtagung "Globaler
Marktplatz Internet", Frankfurt, Jan.96

[Zo96.2]Zorn, W.: "Multimedia in Baden-Württemberg",
Interview, SuperHighway, Nr.18 - 4/96