mercredi 13 septembre 2017

Gegenüberstellung DoD – OSI Referenzmodell

Das Architekturmodell der DoD-Protokolle entstand Mitte der 70er Jahre. Das DoD war lange Zeit Betreiber eines der größten Datennetze mit gemischter Umgebung, des ARPA-Netzes, und hatte schnell das Problem, einheitliche Protokolle für die Kommunikation der äußerst unterschiedlichen Rechner in diesem Netz festzulegen. Als Ziele der Architektur wurden damals definiert:
o   Universelle Verbindungsmöglichkeiten im gesamten Netzwerk
o   Ende-zu-Ende-Quittungen
o   Standarisierte Anwendungsprotokolle
Sicherlich war das DoD-Referenzmodell fähig auch Möglichkeiten zur direkten Beeinflussung des Rechnermarktes geltend machen, um diversen Hersteller zur Implementierung der Standards zu bewegen. In den Jahren 1983 bis 1984 hat das US-Verteidigungsministerium, einige Protokolle der TCP/IP-Architektur erkläret und als Kriterium in Ausschreibungen eingeführt. Die verwendete Protokolle in DoD-Model stellen den Kern der TCP/IP-Protokoll-Suite dar. Ihre Standard-Beschreibung erfolgt durch die DCA (Defense Communications Agency) : (Standards)
o   Internet Protocol:
o   (IP; MIL-STD-1777; 12 AUG 1983)
o   Dies Standards legt die Kriterien für das IP (Datagram Prozedur) fest. Es Beschreibt aber kein fehlergesicherten Protokoll auf der Netz-Zugangsschicht.
o   Transmission Control Protocol:
o   (TCP; MIL-STD-1778; 12 AUG 1983)
o   Die Standards spezifiziert Ende-zu-Ende-Protokoll zur fehlergesicherten Übertragung von Daten.
o   File Transfer Protocol
o   (FTP; MIL-STD-1780; 10 MAY 1984)
o   Protokoll zur Austausch von Dateien
o   Simple Mail Transfer Protocol
o   (SMTP; MIL-STD-1981; 10 MAY 1984)
o   Mailing-Routine
o   TELNET Protocol
(STD-MIL-1781; 10 MAY 1984)
Es bietet eine Standardschnittstelle zur Fernsteuerung von Computern
Die Architektur des DoD-Standards besteht aus vier Schichten. Die fehlergesicherten Prozeduren wurde nicht auf der Netz-Zugangsschicht  sondern auf die Transportsschicht abgedeckt. Auf die Internet-Schicht können Datagrammen in einem Internet zugestellt werden. Die Schichten : Netzzugang, Internet und Rechner kommunizieren durch bestimmte Primitives nach oben hin

Abblidung 3 : DoD-Shichtenmodell
·         Netzzugangsschicht:
Die Netzzugangsschicht ist die unterste Schicht. Ihre Aufgabe ist die Auslieferung von Daten an andere Rechner in einem direkt angeschlossenen Netzwerk. Die Protokolle dieser Schicht müssen die Details des Netzwerks kennen z.b Paketstruktur, Adressierung usw. Die Netzzugangsschicht von DoD-Model deckt die Funktionen der drei unteren Schicht des OSI-Referenzmodells (Vermittlung, Sicherung, Bitübertragung) ab. Es gibt viele Protokolle für diese Schicht entwickelt weil für jede neue Hardware-Technologie eine neue Netzzugangsprotokoll entwickelt müssen werden (z.B X.25, Ethernet). Daher kann es sein, dass einzelne Funktion des Netzwerk Protokolls durch DoD Protokolle verdoppelt werden, wodurch redundante Protokolleinformationen (Overhead) erzeugt wird.
·         Internetschicht
Das Internet Protokoll (IP; MIL-STD-1777) ist das wichtigste Protokoll in dieser Schicht. IP ermöglicht die gezielte Zustellung von Datagrammen in einem Verbund mehrere Teilnetze zu einem adressierbaren Ganzen. Alle Protokolle der darunter- und darüberlegenden Schichten verwenden das Internet Protokoll zur Auslieferung von Daten. So bildet das IP das Herzstück von TCP/IP. Zu seinen Funktionen gehören :
-          Definition des Datagramms.
-          Definitionen des Internet-Adressierungsschemas
-          Routing von Datagrammen
-          Fragmentierung von Datagrammen
-          Übergabe von Datagrammen an die Transportschicht
·         Transportsschicht
Auf dieser Schicht funktioniert das Transmission Control Protocol (TCP; MIL-STD-1778), der eine Fehlererkennung und –Korrektur zwischen beiden Enden der Verbindung durchgeführt. Der Protokoll liefert Daten zwischen Anwendungs- und Internet-schicht aus. Zu seinen Funktionen gehören :
o   Multiplexing
o   Verbindungsüberwachung
o   Datentransport
o   Flusssteuerung
o   Fehlererhebung
·         Anwendungsschicht
Die DoD Protocol Suite beschreibt drei Protokolle auf der Anwendungsschicht. Die Protokolle stellen Benutzerdienste zur Verfügung, aber es ist nicht durch Standards festgestellt.
o   Telnet (MIL-STD-1782)
o   Das Network Terminal Protocol, das es dem Benutzer erlaubt, sich über ein Netzwerk auf einen entfernten Rechner anzumelden.
o   SMTP (MIL-STD-1781)
o   Das Simple Mail Transfer Protocol, das der Auslieferung elektronischer Post dient.
o   FTP (MIL-STD-1780)
o   Das File Transfer Protocol, das zur interaktiven Übertragung von Daten verwendet wird.
Das Architekturmodell, das man als Open Systems Interconnect (OSI) Reference Model bezeichnet, wurde von der International Standards Organisation (ISO) entwickelt, um die Struktur und die Funktion von Datenkommunikationsprotokolle  mit einheitlichen Betrachtungsweise zu beschreiben. (Hempel, 2013)
Das OSI-Referenzmodell besteht aus sieben Schichten (layer). Jede Schicht des OSI-Modells kann der nächsthöheren Schicht in Anspruch nehmen. Der jeweils nächsthöhen Schicht wird eine definierte eigene Dienstleistung angeboten. Eine Schicht definiert keine einzelnes Protokoll sondern definiert nur die Funktion zur Datenkommunikation die vom Protokollen ausgeführt werden kann. Jedes Protokoll hat die Kommunikation mit einem Peer. Ein Peer implementiert das gleiche Protokoll in der gleichen Schicht auf einem entfernten System. Danach muss über die Übertragung der Daten zwischen den Schichten auf einem einzelnen Computer vereinbart werden. Die Daten werden um Stack von einer Schicht zur nächsten heruntergereicht bis sie von den Protokollen der Bitübertragungsschicht über das Netzwerk transportiert werden. Am anderen Ende werden die Daten durch den Stack empfangenden Anwendung hochgereicht.

Abbildung 4: OSI-Schichtenmodell
·         Bitübertragungsschicht
Die unterste Schicht des ISO-Referenzmodells definiert die Eigenschaften der Hardware, der zur physikalische Übertragung der Daten in Form eines transparenten Bitstromes notwendig ist z.B wie der Bitstrom kodiert wird. Welche Zugriffmechanismen zum Anschluss der  Gräte verwendet wird,  oder wie der Spannungsregler bzw. Übertragungsgeschwindigkeit  ist. X.21, RS232 und V.25 sind Beispiele von dem Standards auf der Bitübertragungsschicht für Verkabelung lokaler Netzwerke wie IEEF802.3.
·         Sicherungsschicht
Die Schicht 2 wird auch als Data Link Layer bezeichnet. Die Aufgabe dieser Schicht ist die zuverlässige Übertragung von Daten über das physische Netzwerk zusätzlich die Adressierung der am Übertragungsmedium angeschlossenen Station. Auf dieser Schicht werden die Daten (bits) in Paketen oder Blöcken unterteilt. Beispiele für die Protokolle auf dieser Schicht sind der IEEE-Standards 802.3 (CSMA/CD), 802.5 (Token Bus), 802.5 (Token-Ring)
·         Vermittlungsschicht
Diese Schicht bezeichnet man auch als Netzwerksschicht. Sie ist für die Funktionen des Routings verantwortlich. So wird eine virtuelle Pfade zwischen Station am Netz durch Vermitteln von Paketen über Knotenrechner errichtet. Das bekannteste Protokoll auf dieser Schicht ist IP (Internet Protokoll). Weitere Protokolle sind X.25 Protocol, Network System Protocol (XNS) und Novell Network Protcol (IPX) usw.
·         Transportschicht
Die Transportschicht des OSI- Referenzmodells garantiert, dass der Empfänger die Daten genau so erhält, wie sie gesendet wurden. Neben Unverfälschtheit der Daten steht die Multiplexmechanismen zur Verfügung. TCP (verbindungsorientierte Protokoll) und UDP (verbindungslose Protokoll) sind Transportprotokolle.


·         Kommunikationssteuerschicht
Bei OSI steuert die Kommunikationsschicht den Austausch von Nachrichten auf der Transportverbindung z.b den Wechsel der Transportrichtung, den Neustart einer Sitzung nach Abbruch der Verbindung. Bei TCP/IP wird diese Funktion Häufig von der Verbindung. Bei TCP/IP wird diese Funktionen Häufig von der Transportschicht übernommen. Dabei wird Socket und Port statt Session verwendet, um den Pfad der Kommunikation über kooperierende Anwendungen zu beschreiben. Zu dieser Schicht gehören Protokolle wie NFS und RPC.
·         Darstellungsschicht
Auf dieser Schicht wird die Kodierung verschiedener Datentypen festgelegt, damit sie zwischen die kooperierende Anwendungen ausgetauscht werden können, Beispiele sind hier ASM und XDR
·         Anwendungsschicht
Auf der Anwendungsschicht laufen eine große Zahl der Protokolle, die die Protokollegramme zur Erbringung ihrer Dienst definiert haben. Beispiele für Protokolle auf dieser Schicht sind hier ftp, mail, telnet etc.
Wenn man DoD- und OSI- Referenzmodell vergleicht, ist nicht verwunderlich die Erfahrungen des TCP/IP-Projekts in die Standardisierung eingeflossen sind. Die DoD-Schichten haben bereits damals alle wesentlichen Anforderungen zur Kommunikation zwischen unterschiedlichen Rechner klar aufgezeigt.
Die Unterschiede zwischen  DoD- und OSI- Referenzmodell gibt es unterhalb der Netzwerkschicht und oberhalb der Transportschicht. Die DoD fasst die Funktion der Kommunikations- und Darstellungsschicht in einer einzelnen Schicht nämlich die Anwendungsschicht zusammen, was man dagegen bei OSI-Model nicht als Teil der Anwendungsschicht betratet.  Anderseits wurden die Funktionen der DoD-Netzzugangsschicht bei OSI-Referenzmodell in die Bitübertragungsschicht und Sicherungsschicht getrennt.

Abbildung 5: OSI- und DoD-Schichten vergleichen
Die Forderung nach universalen Verbindungsmöglichkeiten trägt das Internet Protocol (IP) Rechnung: auf der Netzwerkebene von DoD existiert nur einziges Protokoll, das alle Netzwerk beteiligen Hosts und Knoten verstehen können. Das Internet Control Message Protocol (ICMP), Bestandteil jeder IP-Implementierung, transportiert Fehler- und Diagnose-Information für IP.

Auf der Transportebene werden neben dem Transmission Control Protocol (TCP) und dem User Datagram Protocol (UDP) im Internet noch weitere Protokolle betrieben, etwa zu Forschungszwecken. Die beiden am weitesten verbreiten Protokolle sind jedoch TCP und UDP.

Wichtige Ereignisse in der Entwicklungsgeschichte der TCP/IP

Cyclades war ein französisch experimentales Projekt, das zum Ziel hatte, ein globales Telekommunikationsnetz zu schaffen, und das die Paketvermittlung nutzt. Von Louis Pouzin wurde es 1971 entworfen und im 1979 abandonniert. Das Konzept dieses Projektes hatte einen Einfluss auf die Entwicklung des Internets. Dadurch ist das TCP/IP-Protokoll begeistert worden. (WIKIPEDIA)
Im Frühjahr 1972 Louis Pouzin in seinem Besuch in der USA, stellte einige unzureichend praktische Aspekte der ARPAnet  fest, was Cyclades durch Einführung zusätzlicher Funktionen und Vereinfachen der anderen hergebracht wurde . Im ARPAnet verwendete man zu dieser Zeit VC (Virtual Circuit). Bei Cyclades kam hingegen erstmals das sogenannte Datagramm zum Einsatz. Statt eine virtuelle Verbindung aufzubauen, werden die Datenpakete mit der jeweiligen Quell- und Zieladresse versorgen. Jedes einzelne Paket eines Bitstroms kann sich nun frei und unabhängig von den anderen Paketen seinen Weg durch das Netzwerk bahnen. Diese Methode war das Vorbild für Entwicklung die Protokollsuite TCP/IP, das das verwendete Network Control Program (NCP) ersetzte.
„Pouzin Werk brachte uns eine Menge, sagt Vinton Cerf. Wir verwendeten eine Durchflußsteuerungsystem für TCP/IP. Es war aufregend, mit ihm zu sprechen“. Eines der Teammitglieder, Gérard Le Lann, trat Vinton Cerf an der Stanford im Jahr 1973 auf TCP zu arbeiten, die im selben Jahr geboren wurde.
Die Empfehlung X.25 wurde 1976 vom CCITT vorläufig in Kraft entwickelt, 1980 erfolgte eine Überarbeitung, für 1980 ist eine weitere Anpassung erfolgt. Dier Empfehlung X.25 wurde aus Zwang heraus entwickelt, Standards zu schaffen, die das Zusammenwirken von öffentlichen Datennetzen in verschiedenen Ländern erleichtern. Sie beschreibt das Kommunikationsverhalten zwischen einer Datenendeinrichtung (DTE) und einer Datenübertragungseinrichtung (DCE) in Datennetzen mit Packetvermittlung. Die Empfehlung X.25 unterscheidet drei Funktionsebenen, die in ihrer Konzeption den unteren drei Schichten des ISO-Referenzmodells entsprechen. Da im Zusammenhang mit X.25 i.a. Da von Ebene gesprochen wird wo das ISO-Referenzmodell von Schicht spricht, finden im Folgenden die Begriffe Ebene und Schicht synonyme Verwendung.
Paketvermittlungsnetze verfügen über einige Charakteristika, die sie von herkömmlichen Datennetzen unterscheiden. Die Datenendeinrichtungen senden bzw. empfangen alle Nachrichten in Form von Paketen. Aufbau, Länge und Bedeutung der einzelnen Pakete werden in der Empfehlung X.25 festgelegt. Es sind zwei Strategien denkbar, die Wege festzulegen, die die Daten im Netz nehmen.
·         Datagrammtechnik
Jedes Paket wird auf dem gerade günstigsten Weg durch das Netz geschleust und enthält die dafür nötigen Adressinformationen. Die Wegwahl (routing ) erfolgt durch die Rechner in den Netzknoten.
·         Virtual call
Zwischen zwei Datenendeinrichtungen besteht weder eine fest geschaltete Verbindung noch werden einmal geschaltete Verbindungen exklusiv genutzt. Man spricht von einer virtuellen Verbindung.

Besteht zwischen zwei Dateneinrichtungen eine virtuellen Verbindung, so nehmen alle Pakte denselben Weg über eben diese virtuelle Verbindung der weg wird nur einmal beim Aufbau der Verbindung ausgewählt und  ist von da an für die Dauer der Verbindung fest
Im öffentlichen Datennetz der deutschen Bundespost, das paket-modus arbeitet dem Daten-p-netz, erfolgt die Wegwahl nach dem virtuell-call-Prinzip die Gebühren sind im wesentlichen Volumen orientiert da sie Datenleitung nur während des eigentlichen Datentransports von einer Verbindung genutzt sonst aber freigegeben werden.
Zum Erfolg von TCP/IP in der Unix-Welt trug im Wesentlichen die Tatsache bei, dass die Universität von Kalifornien in Berkely im Auftrag der DARPA eine Implementierung der TCP/IP Protokolle für ihn ihr UNIX-System, das bekannte 4.2 BSD (Berkely System Distribution), vornahm und der Quellcode dieser Implementierung dadurch als Public Domain Software im September 1983 verfügbar wurde. An amerikanischen Universitäten entstandene Forschungsergebnisse und Entwicklungen gehören juristisch gesehen dem amerikanischen Volk: sie sind für einen nominalen Betrag und der Verpflichtung, die Urheber namentlich zu nennen, für jeder-Implementierungen unter UNIX auf dem Berkely-Kode. Darüber hinaus haben auch viele Hersteller von nicht-UNIX-Systemen und intelligenter Peripherie auf die Berkely-Basis zurückgegriffen. Weil damit eine einzige Interpretation der Spezifikationen zur Anwendung kommt, treten bei der Vernetzung von Systemen verschiedener Hersteller keine Probleme auf.

Inzwischen gibt es neue Versionen des BSD-Systemen, in denen auch die Implementierung der TCP/IP-Protokollarchitektur korrigiert und verbessert  wurde: die meisten heute erhältlichen TCP/IP-Implementierungen enthalten in irgendeiner Form sie Modifikationen oder den gesamten Kode aus 4.3 BSD/Tahoe-Version weitre Optimierungen der TCP-Implementierung freigegeben. 

Anfänge des Internets und TCP/IP

Im Jahr 1968 leitete das Information Processing Techniques Office (IPTO), das zum amerikanischen Verteidigungsministeriums gehört, eine Serie von Versuche in die Wege, um  Grundlagen über Host-zu-Host Verbindungen an gemultiplexten Netzen zu erarbeiten. Aus diesem Experiment Ergab sich ein Vorrechner, der die Kommunikationsverarbeitung zwischen den einzelnen Rechnerstandorten, die über 24 kbit/s Telefoneinleitungen verbunden waren, vornahm. Diese Basisideen bildete die Basis eines neuen Projekts das sog. ARPAnet, (Comer, 2003) das im  Sommer 1968 von der Advanced Research Projects Agency (ARPA) unterstützt wurde. Das neues Projekt war  motiviert durch Erproben der Techniken, mit denen Daten robust, zuverlässig und herstellerunabhängig übertragen können. Zu diesem Zeitpunkt fand ein Netzwerk aus gemieteten Telefoneinleitungen statt, die durch ein spezielle Rechner, sog Internet Message Processes (IMP) verbunden waren. Dies Netzwerk enthaltet die UCLA (University of California in Los Angeles), die SRI (Stanford Research Institute), die UCSB (University of California in Santa Barbara) und die University of Utah, miteinander verbunden. (Helm) Dabei entstanden einerseits die Forderungen nach einem zuverlässigen und robusten  aber kostengeringe Datennetz, anderseits die Forderungen nach Protokolle, die auf den angeschlossenen unterschiedlichen Betriebssystemen implementiert werden können, um über das Netz für jeden Benutzer zugänglich zu machen. Im Dezember 1968 wurde dieser Auftrag von der Firma der Bolt, Beranek und Neweman (BBN) realisiert. (Santifaller, 1998)
Network Control Programm (NCP) war das erste Host-zu-Host Protokoll und gilt als Vorgänger der TCP/IP. Zwei Dienste nutzte das NCP:  File Transfer Protokoll (ähnlich FTP) für Dateitransfer und ein Virtuelles Terminal Protokoll (ähnlich Telnet) für Terminalisierung.

Abbildung 2: Wachstum des ARPANET a) Dezember 1969 b) Juli 1970 c) März 1971 d) April 1971 e) September 1972 (Die Anfänge des Internet, 2007)
Im Jahr 1972 enthielt das ARPAnet 20 Konten der Paketvermietung und 50 Host-Computer. Denn der Zahl den angeschlossen Rechner in dem Projekt nahm mehr zu und die Forderung nach eine umfassende Funktionalität als, die durch NCP unterstützt wurde, vergössen sich gleichzeitig, erarbeitete eine Arbeitsgruppe von ARPA  (INWG)  die Grundsätze zur Kommunikation zwischen unabhängigen Datennetzen. (Hein, Entwicklung der TCP/IP Protokolle, 2006)
Im May 1974 wurde basierend auf den von der INGW erarbeiteten Erkenntnissen die Ausschreibung des Protocol for Packet Network Intercommunication von V. Cerf und R. Kahn  veröffentlicht. Es basiert auf drei Grundüberlegungen:
o   Die Protokolle müssen die Interoperabilität zwischen heterogenen Systemen gewährleisten.
o   Die End-to-End-Kontrolle muss über eine Vielzahl von unterschiedlichen Datennetzen und Systemen gewährleistet sein.

o   Die Protokolle und die Datenübertragung muss auf fehlerbehafteten Übertragungsstrecken gewährleistet sein.

Im Jahre 1973 wurde klar, dass die damals in den unteren Schichten verwendeten Protokolle funktional nicht ausreichend waren. Es wurde daraufhin ein Projekt angestoßen, um eine neue Protokollbasis zu entwerfen. In einem Artikel von V Cerf und R. Kahn von 1974 (KAHN, 1974) sind zum ersten Mal die Grundzüge der TCP/IP-Protokolle und der Netzknoten-Architektur niedergelegt worden. Als Ziele der Architektur wurden damals definiert (Santifaller, 1998, S. 31):
o   Unabhängigkeit von der verwendeten Netzwerk-Technologie sowie der Architektur der Hostrechner
o   Universelle Verbindungsmöglichkeiten im gesamten Netzwerk
o   Ende-zu-Ende-Quittungen
o   Standardisierte Anwendungsprotokolle
Von den definierten Zielen waren zumindest die beiden ersten – in einer Welt, in der vorwiegend herstellereigene Protokolle verwendet wurden – ungewöhnlich: die Forderung nach Heterogenität auf der Hostrechnerseite und der Verwendbarkeit unterschiedlichster Übertragungsmedien oder Subnetzwerke. Diese Eigenschaft führt jetzt in den neunziger Jahren dazu, daß sich TCP/IP als Technologie der Open System Interconnection (OSI) etablieren kann.
In den Jahren 1983 bis 1984 hat das US-Verteidigungsministerium, einige Protokolle der TCP/IP-Architektur zu MIL-Standards erklärt und als Kriterium in Ausschreibungen eingeführt. In der Version 4, in der wir die TCP/IP-Protokolle auf UNIX-Rechnern vorfinden, wurden sie in den Jahren bis 1982 innerhalb des ARPAnets durch RFCs festgeschrieben. Erst im Jahre 1982 erfolgte im gesamten ARPAnet der endgültige Umstieg von NCP auf TCP/IP.

Protkolle: Entstehung und Standarisieung

Ein Protokoll im allgemeinen Sinn bedient für Steuerung von Abläufen und die Handlung des anderen zu interpretieren, indem man sich auf einem gemeinsamen Satz von Regeln verständigt, die allgemein bekannt und unabhängig von nationalen Gebräuchen. Z.B beim diplomatischen Protokoll wird vor dem Besuch des Staatgasts der Ablauf des Treffens festgelegt, wie das Thema, die Sprache der Kommunikation und der Einsatz des Übersetzers usw. So lässt sich  beispielsweise die unnötige Zeitverlust oder Irrtümer der Sprachbarrieren vermeiden.
In der gleiche Weise spielt ein Protokoll bei Computer gleiche Rolle. So können Computer-Anwendungen ohne Missverständnisse kommunizieren, da diese Regeln die Nachrichtenaustausch zwischen Partner koordinieren und dadurch effizient machen. Aber in der Regel ist notwendig, beide Partner  über dasselbe Protokoll zu verfügen, denn sonst werden beide Seiten nicht wissen, wie die Datenaustausch stattfindet. Viele Informationen werden zwischen Datenverarbeitungsanlagen  mit den Protokollen vereinbart beispielweise : Größe der Daten, Codierung der Daten, Art der Übertragung, Sender, Empfänger darüber hinaus die beteiligte Protokolle.

Abbildung 1: Der Aufbau eines IPv4-Pakets (Datagramm) wird in RFC 791 (Kurs: Perl und CGI, kein Datum)
Weil die Kommunikation zwischen Datenverarbeitungsanlagen ziemlich komplex ist, ist es sinnvoll, mehrere Datenübertragungsprotokolle, die die unterschiedliche Aufgaben übernehmen, gleichzeitig zu nutzen. Diese arbeiten in Form von Protokolleschichten zusammen, um eine Dienstleistung für Benutzer zu erbringen. Die Protokolle höher Sichten benutzen Dienste von Protokolle  tiefer Sichten, sodass diese Protokolleeinheiten einen Protokollstapel wie DoD-Referenzmodell oder der Nachfolger ISO- Referenzmodell zusammenbilden.
Eine wichtige Rolle bei Entstehung und Entwicklung der Protokolle spielte die sogenannte RFC-Dokumente. In homogenen Netzwerken legt ein einzelner Computerhersteller den Satz der Kommunikationsregeln fest. Diese sind stärk abhängig von Betriebssystems und der Hardware-Architektur des Herstellers. Daher lässt sich die Nutzer anderer Netzwerk-Herstellern zusammen nicht kommunizieren. Aus diesem Grund brauchte man eine offenen Protokollspezifikation zu schaffen, die jedem Hersteller freigestellt ist, Protokolle zu entwickeln, indem diese Protokolle für jedem verfügbar ist und gemeinschaftlich entwickelt und geändert aber nicht für einzelnen Hersteller unterworfen werden.  Diese offene Natur dieser Protokollentwicklung verlangt natürlicherweise einen offenen Standardisierungsrozess. Dementsprechend wurde April 1969  diesen Prozess der Standarisierung als RFC (Request for Comments) von der Internet Engineering Task Force (IETF) und die  Internet Society (ISOC) veröffentlicht. Steve Crocker, Autor des ersten RFC, begründete diese Form damit, dass die Beteiligten nur Netzwerk-Hersteller oder Doktoranden ohne jede Autorität waren. (Hein, Entwicklung der TCP/IP Protokolle, 2006)
Wenn ein RFC-Dokument veröffentlicht, weist man ihm eine RFC-Nummer zu. So werden RFCs durchlaufend nummeriert.
RFC-Editor prüft die Dokumente in verschiedene Stufen, die man als maturrity levels bezeichnet. Diese Stufen teilen sich in der Entwicklung, Testung und Akzeptanz.
Maturity Level
Bedeutung
Proposed Standard (PS)
Diese Stufe dauert mindestens 6 Monate und erfordert zwei unabhängige Implementierungen.
Draft Standard (DS)
Diese Stufe dauert mindestens 4 Monate mit Demonstrationen und einem Erfahrungsbericht mit mindestens zwei unabhängigen Implementierungen.
Standard (S oder STD)
Das RFC ist zum offiziellen Standard erhoben. Internet-Standards erhalten neben der RFC-Nummer eine so genannte STD-Nummer (z.b. Internet Protocol, RFC791, STD-5)

Jeder RFC besitzt einen Status für die Gültigkeit. Hier sind Beispiele: (Santifaller, 1998) (Hempel, 2013)
Status
Bedeutung
Requird
Muss bei allen TCP/IP-basierten Hosts und Gateways implementiert werden.
Recommended
Diese Stufe dauert mindestens 4 Monate mit Demonstrationen und einem Erfahrungsbericht mit mindestens zwei unabhängigen Implementierungen.
Elective
Die Implementierung ist optional. Der Anwendung wurde zugestimmt, ist aber nicht erforderlich
Limited Use
Nicht für die generelle Nutzung gedacht.
Not Recommended
Nicht zur Implementierung empfohlen


dimanche 18 juillet 2010


PS 4 In 12/12/2010