Alle Beiträge von Tom

Humanismus und Technologie

Ich möchte an dieser Stelle eine Erklärung und Stellungnahme zum Begriff Humanismus vermeiden. Seit Jahrhunderten diskutieren und streiten mehr oder weniger Fachleute über Humanismus und wie jemand ist, der sich damit identifiziert und wie er dann nicht sein darf. Ich sehe den Humanismus als eine Möglichkeit, miteinander über Grenzen hinweg leben zu können.  Stellt man den Anthropozentismus – also den Mensch – nicht zwingend in den Mittelpunkt, denn das macht der Humanismus nicht automatisch, dann hat sogar die freie Wahl – frei im den Sinne, den die westliche Welt als frei kennt – der Ausübung religiöser Zeremonien noch Platz.

Der Humanismus also. Wie steht es im Humanismus mit der Technologie, die uns umgibt?

Ein Ereignis, das ich im Oktober 2014 interessiert verfolgte, zeigte mir zum wiederholten male, dass wir – der Homo Technologicus der modernen Welt – unseren Kurs überdenken sollten.

Es war die Verleihung des Friedenspreises des Deutschen Buchhandels an den Informatiker Jaron Lanier [tschaeron lani-e]. Freilich möchte ein solches Ereignis in unserer Zeit Aufmerksamkeit auf sich ziehen, was in diesem Falle funktioniert hat. Sieht und hört man sich diesen Jaron Lanier näher an, erkennt man, dass er durch und durch Informatiker ist. Er spielt nicht nur auf Musikinstrumente, die vor 7000 Jahre bereits bestanden und gespielt wurden. Er bezeichnete Frank Schirrmacher als ein Licht in unserer Welt, das uns fehlen würde. Er gibt sich als Versteher, als ein Checker. Er sieht die Dinge klar, die vor sich gehen und wohin der Weg führen kann. Er ist Fellow an renomierten wissenschaftlichen Einrichtungen in den USA und er ist Softwareentwickler bei einem namhaften Hersteller, was ihn fachlich abhebt. Er versucht einen Weg zu definieren, auf dem alle Menschen die Technologie zu ihrem Gute nutzen können.  Einige seiner Aussagen und Gedanken möchte ich hier kurz nennen, die er u.a. in der Paulskirche in Frankfurt am 12.10.2014 in seiner Dankesrede verlauten lies:

  • die digitalen Netzwerke dieser Welt sollen dem Menschen zu Gute kommen. Dieser “digitale Kulturoptimismus” sollte nicht benutzt werden um mit ausgefeilten Algorithmen letztlich das menschliche Tun vorhersagen zu können. Er nennt als Beispiel die digitalen Netzwerke um Energie, den Mangel sowie den Überschuss dessen über große Distanzen hinweg erkennen und mit Hilfe von Solarstrom ausgleichen zu können.
  • die gegenwärtige Nutzung digital-vernetzter Medien sorge erst für die Möglichkeit der Überwachung der Benutzer, die das nicht erkennen. Das Sammeln von Daten erschaffe eine Klasse ultraelitärer, unberührbarer Technologen, die als kleine Gruppe Zugriff auf das Datenuniversum der Nutzer habe.
  • In der Onlinewelt (gemeint sind hier v.a. die Sozialen Netzwerke) führe die These und Antithese nicht mehr zu einer höheren Synthese. Hegel definierte den Vorgang als Weg zum wissenschaftlichen Standpunkt. Lanier vergleicht: “Hegel wurde enthauptet”.
  • Der Blick auf das große Ganze kann nur mit Medien geschehen, die außerhalb des großen Ganzen erstellt werden. Buchautoren teilen in Momenten mit dem Lesern gemeinsame Gedanken. Bücher stellen eine gedankliche Verbindung von Autor und Leser her. Heute gehen Bücher mit der Pflicht einher, Zeugnisse über Leserverhalten abzugeben um wiederum von wenigen mächtigen Stellen analysiert und bewertet zu werden.
  • Der Glaube an das menschliche Wesen solle dem Glauben an die Maschinen vorkommen. Der Glaube an den Menschen sei vereinbar mit dem Glaube an Gott. Technologen sollten zumindest versuchen, den Menschen als solchen wahrzunehmen.

Letztlich sind es Freundschaften, Familien die den Menschen ausmachen, erstaunenswert machen und wirken lassen und auf das dieser sich verlassen sollte.

Aber wieso bringe ich hier Jaron Lanier? Es gab noch einen anderen Augenblick in der nahen Vergangenheit. Es war 2008 im März. Es starb ein anderer Pionier, der Computer und Netzwerke geprägt hat. Joseph Weizenbaum war es, der wenige Monate vorher noch Interviews gab und es bis zuletzt nicht lassen konnte, mit gehobenen Zeigefinger den User zu warnen, dass der gegenwärtige Weg, sich von Maschinen abhängig zu machen, falsch sei.

  • Wenn der Computer Einsatz findet, kann diese Entwicklung nicht rückgängig gemacht werden. Er nennt Banken- und Börsensoftware als Beispiel. Er sprach damals in den 80ern von “künstlichen Intelligenzprogrammen” – heute würde er Algorithmen sagen. Der Hebel könne nicht mehr zurückgelegt werden, wenn die Maschinen lebenswichtige Dienste ausführen würden.
  • Der Mensch verlasse zu schnell die Realität und findet so die Partnerschaft zu der Maschine. Er traut der Maschinen zu schnell zuviel Kraft zu.
  • Programme zur künstlichen Intelligenz (es ging um das von ihn selbst in 1966 entwickelte “Eliza”) geben Informationen aus, die der User schlicht falsch verstehen würde. Alleine die Aussage des Computerprogrammes “Eliza” z.B. wie “Yes, i understand” als Antwort auf von User eingegebe Wörter wie “Heute hatte ich einen schönen Tag” bezeichnet der Autor der Software als “Lüge”.

Das Erlebnis mit Eliza muss ab 1966 prekär seine weitere Ansicht über die Maschine definiert haben. Er war enttäuscht wie schnell (es war damals eine Mitarbeiterin seiner Verwaltung) das Programm als ernster Kommunikationspartner akzeptiert wurde.

Bereits Anfang der 70er mahnte er publik (“Die Zeit” Hamburg, Ausgabe von Freitag, den 21. Januar 1972), dass der Mensch auf eine schwere geistige Krise zusteuern würde. Der Mensch traue der Maschine zu viel zu. Dieser ist ununterbrochen damit beschäftigt, darzulegen, der Computer beweise, dass der Mensch und seine intellektuelle Leistung doch nur eine Maschine aus Fleisch sei. Er verteufelte diese Ansichten: “Alleine eine solche These zu erwähnen bedeutet, dem Nutzen der Freiheit des Menschen, seiner Würde und seiner Anstrengung zu widersprechen”. Wie könne der Mensch sich das selbst nur antun?

Der Mensch solle versuchen, das Ende seiner Tätigkeit zu erkennen, zu erkennen wohin die Reise ginge. Und wenn er das vollendete Tun verantworten kann und wenn während der Entstehung und im letztlichen Nutzen ein Cancel möglich ist, dann solle der Mensch das tun was er für sinnvoll hält.

Der Mensch solle gegenseitigen Respekt üben und lernen bevor er sich an die Arbeit macht, er solle Vernuft dem Legen entgegen bringen und sich in Bescheidenheit besinnen.

Legendär war sein Auftritt auf dem Open Forum in Davos im Jahre 2008 (alles bei Youtube einsehbar) wo er wieder die künstliche Intelligenz kritisierte: “… und da wird ein absoluter Blödsinn gesagt, z.B. Sie sagen jetzt schon zwei mal – HALLO MIT IHNEN SPRECHE ICH – <its happening> und <es wird weitergehen> …”. Weizenbaum wetterte zurecht, dass die Audience keinen Ton von sich gibt, als der Wissenschaftler die KI prohezeit, die eh nicht verhindert werden kann. Der Gesprächspartner warf Weizenbaum vor “You are a little bit negativ” wobei Weizenbaum den Faden aufnahm: “Nein, nicht nur ein little negativ, ich bin richtig negativ” – prädikat Sehenswert, wie der Fachmann seine Meinung vertritt.

Am Ende meines Betrages erkennt man, dass obige beide Persönlichkeiten den Blick in die Büchse der Pandora geworfen haben und sich bekehrt haben.

Der Mensch müsse wieder eine bedeutendere Rolle bei der Suche seines selbst spielen. Eine Einstellung, die ich teilen möchte. Das Individuum in die Mitte rücken, den Menschen Mensch sein lassen. Seinen Glauben leben lassen, ihn akzeptieren, der wiederum weiß, dass er akzeptiert wird und ist – es wäre grandios!

 

Die Geschichte des Internets

Wie auch auf den Vorläufern von thomas-zehrer.de (seit mittlerweile die 5. Seite seit 1998), so stelle ich auch hier meine eigene Internet Story von 1999 online.  Der Text stammt aus meiner frühen Zeit im Internet, die Jahreszahlen habe ich i.G.u.G. unverändert gelassen – hat Charme. Viel Spaß beim Lesen.

Die Anfänge…

Die Grundsteinlegung des Vorgängers unseres heutigen Internets ist in der Tat nicht leicht zu finden. In einigen Quellen wird das Jahr 1957 erwähnt, da der russische Satellit “Sputnik” die Erdumlaufbahn erreichte und somit die Ära des “Kalten Krieges” begann. Die USA erkannte die Gefahr dieser Zeit und mußte sich über ein System Gedanken machen, das abhörsicher ist, und im Falle eines atomaren Angriffes trotzdem funktionsfähig bleibt. Aus diesem Grund wurde im Jahre 1958 die Einrichtung “ARPA – Advanced Research and Projects Agency” gegründet. ARPA war eine Einrichtung des US-Verteidigungsministeriums und somit militärisch begründet.

Das ARPANetwork und die IMPs…

Im Jahre 1967 übergab ARPA an die Abteilung “Information Processing Techniques” den Auftrag, Überlegungen und Theorien über ein Netzwerk anzustellen, das vorallem abhörsicher war und trotz Störungen die Kommunikation aufrechterhalten konnte. Für diesen Zweck plante der damalige Präsident von ARPA, Charles Herzfeld ein Budget von 1 Million Dollar ein um dieses Ziel realisieren zu können. Zu dieser Zeit war Robert Taylor Chef dieser IPT-Abteilung. Taylor gab die Entwicklungsarbeiten an Lawrence Roberts, einen seiner Wissenschaftler weiter. Roberts’ Theorie baute auf Netzwerkknoten auf, die untereinander ein Art Ring bildeten. Fiel ein Netzwerkknoten aus, so konnten die Daten über einen anderen angeschlossenen Netzwerkknoten geroutet werden. Um diese Theorie der Öffentlichkeit bekanntgeben zu können, veranstaltete Roberts ein Treffen in Ann Arbor/Michigan zu dem bekannte Wissenschaftler aus der damaligen Zeit eingeladen wurden. Einer dieser Gäste war Paul Baran, Mitarbeiter von RAND Corporation, der sich schon Anfang der 60er über “Packet switching”, also das weiterleiten von Daten über Kommunikationsmedien, Gedanken gemacht hatte. Beran fand gefallen an Roberts’ Idee und so versuchten sie, gemeinsam eine Lösung für die besagten Netzwerkknoten zu finden. Die Zusammenarbeit erwies sich als erfolgreich, als ein Jahr später die Theorie des “IMP – Internet Message Processor” veröffentlicht wurde. Der Auftrag, einen IMP zu entwickeln, wurde an die Firma “Bolt, Beranek and Newman” (kurz: BBN, Sitz in Cambridge/Massachusetts) weitergegeben, da sie schon Erfahrung in Bezug auf die Entwicklung von militärischen Kommunikationsmedien vorweisen konnte. Roberts war auch für die Auswahl der ersten Standorte zuständig, die Prototypen des ersten IMP in Betrieb nehmen durften. Universitäten eigneten sich sinn- und zweckmäßig hierfür am Besten.

Entwicklung und Einsatz der ersten IMPs…

Der Mann, der Neujahr 1969 bei BBN für die Entwicklung des “Interface Message Processor” zuständig wurde, hieß Frank Heart. Heart war MIT-Absolvent und leitete die Forschung von “Real-Time-Computing” an den “Lincoln Labs” in den 50er und 60er Jahren bevor er zu BBN wechselte. Er beschloss, den IMP nicht neu zu erfinden. Ein damals überaus leistungsstarker Minicomputer der Firma Honeywell, nämlich der “DDP-516” (übrigens: 12 KByte Speicher), sollte für die Zwecke eines Netzwerk-IMPs modifiziert werden. Heart bevorzugte den DDP-516, da sich dieser Rechner bereits im Dienst der Army bewährt hatte, und nach APRA-Vorschriften aufgebaut war.

BBN mit Frank Heart
BBN mit Frank Heart

 

Sein Team an Programmierern (siehe Bild, Mitte: Heart) und Hardwaretechnikern hatten 9 Monate Zeit, um die DDP-516 zu einem IMP umzuwandeln, zu programmieren und zu debuggen. Der 30.August 1968 sollte dann ein Denkmal setzten. Der erste Prototyp eines IMPs wurde in der Universität von Los Angeles/Kalifornien installiert. Hier kam als Betriebssystem SDS Sigma 7 zum Einsatz.  Ein weiterer IMP folgte am 1.Oktober 1968, diesesmal in der Abteilung “Network-Information-Center” am “Stanford Research Institute” unter der Leitung von Doug Engelbart.

Übrigens: Engelbart ist auch Erfinder der Computermaus!. Im Gegensatz zum ersten IMP wurde hier als Betriebssystem das SDS 940/Genie ausgewählt. Genau ein Monat später wurde der dritte Knoten in der Universität von Santa Barbara in Kalifornien in Betrieb genommen. IBM entwickelte hierfür das Betriebssystem “IBM OS 360/75”. Schliesslich wurde der letzten der vier Testknoten an der “University of Utah” aufgestellt. Auf diesem Host kam ein Betriebssystem von Digital, nämlich DEC PDP-10 zu Einsatz.

Der erste Loginversuch…

Bereits nachdem der zweite Knoten am “Stanford Research Institute” (SRI) installiert wurde, unternahmen die Wissenschaftler einen ersten Loginversuch über eine Distanz von mehreren hundert Meilen. Charlie Klein, ein Student an der “University of California” (UCLA) hackte das erste “L” ein. “Did you get the L?”, so die Frage nach Stanford, “Yes!” kam die Antwort zurück. Dann das “O”: “Did you get the O?”, und wieder “Yes!”. Doch zu einfach sollte es nicht werden – Nach dem “G” crashte die Verbindung.

Doch es war nicht immer so. Im Jahre 1970 wurden immer mehr IMP-Hostrechner und TIP (=Terminal Interface Message Processoren) an das junge ARPA-Netzwerk angeschlossen, bis das ungefähr folgendes Bild ergab:

Erste TIMP im Arpa-Netzwerk.
Erste TIMP im Arpa-Netzwerk.

TIP-Terminals wurden als Art Zwischenstationen zwischen Terminal und IMP eingesetzt und übernahmen Verwaltungsaufgaben im Netzwerk, hatten aber – wie Terminals eben – keine eigene Intelligenz.

Larry Roberts, inzwischen Chef von der Technikabteilung von  ARPA, wollte jetzt der Netzwerk-Welt, die ja noch in Kinderschuhen stand, zeigen zu was dieses neue Medium fähig war. Er bat Bob Kahn bei BBN diese Veranstaltung zu organisieren und entsprechende Software für ein Demo zu entwickeln. Auch Bob Metcalfe, Kollege von Kahn, damals bei XEROX beschäftigt,  war von dieser Idee überzeugt und erklärte sich bereit, möglichst einfach-verständliche Dokumente zu erstellen, um die Funktionsweise verständlicher zu machen. Doch das erwartete Ziel blieb aus, da diese Technik zu neu und komplex für die jungen Studenten und Absolventen war.

In den darauffolgenden Jahren überstürzten sich die Ereignisse: Norm Abramson, Professor an Stanford war aus einem Grund oft auf Hawaii: Surfen! Es kam so, dass die “University of Hawaii” eben einen dieser Wissenschaftler suchte und Abramson ihnen dieses Geschäft nicht abschlagen konnte. Innerhalb eines Jahres – es war 1970 – arbeitete er an einem radiowellen-basierten Kommunikationssystem um die Inseln von Hawaii – es gibt 7 davon – zu verbinden. Ein Jahr später war es soweit: Das ALOHANet war geboren. Abramson bat Roberts um einen IMP um die Inseln mit dem Festland verbinden zu können. Roberts stimmte zu, und so war es ein weiterer Meilenstein, als zwei Netzwerke verbunden wurden.

ALOHANet sagt man auch nach, dass es der Vorreiter des heutigen Ethernet-Netzwerk war. Denn da die Technik auf Hawaii es nur erlaubte durch einen einzigen Kanal Daten auszutauschen mußte sich Abramson eine Art “Collision-Detection” ausdenken, um Datenkollisionen vermeiden zu können. Er legte fest, dass jeder Sender zu einem bestimmten Zeitpunkt senden durfte, und nicht erst wenn es möglich gewesen wäre. Traten trotzdem Kollisionen auf, wurden die Datenpakete neu gesendet, wie eben in einem modernen Ethernetzwerk.

TCP/IP,  Unix und das erste EMail …

Im gleichen Jahr wurde es notwendig, die Übertragungsweise der Datenpakete ins Visier zu nehmen, da der Netzwerkverkehr ungewollte Ausmaße erreichte. Ein damaliger Student der UCLA, Vinton Cerf, testete zusammen mit Robert Kahn die Lastenfähigkeit des damaligen Protokolls “NCP – Network Control Protocol”. Cerf hatte damals schon die Vision eines Netzwerkprotolls, welches “Error-Detection”, “Packaging” und “Routing” unterstützte. So entstand das Protokoll “Transmission Control Protocol”. Das Team Kahn und Cerf – sie waren jetzt offiziell “The Internetworking Group” – wurden auch von ARPA beauftragt, Möglichkeiten für die Zusammenschließung von heterogenen Netzwerken zu finden. Sie waren auch hauptsächlich daran beteiligt, als später, 1982, ein Versuch gestartet wurde, die europäischen Netzwerke, welche hauptsächlich auf dem X.25-Standard beruhten, zusammenzuführen.

Doch es gab noch mehrere wichtige Ereignisse in den 70er Jahren. Im Jahre 1970 entschlossen Wissenschaftler der Bell-Laboratories (Teil von AT&T) das vorhandene Betriebssystem Multics zu überarbeiten. Ken Thompson wurde anfangs alleine damit beauftragt, später stieß aber Dennies Richie dazu, der gleichzeitig die Programmiersprache “C” entwickelte. Der Vorgänger von “C” war “B”, welche aber wiederum von Thompson stammte!

Thompson entwickelte für den Multics-Nachfolger UNIX die erste Shell sowie den Zeileneditor “ed”. Ritchie verfasste 1971 das erste “UNIX Programmer’s Manual”. Zusammen mit Thompson erhielt er 1983 den Turing-Award von der “Association for Computing Machinery” (kurz ACM) verliehen. Diese Auszeichnung ist vergleichbar mit dem Nobelpreis oder der Fields-Medaille.

Verleihung der Fields-Auszeichnung an Richie (Mitte) und Thompson (Links) in 1999
Verleihung der Fields-Auszeichnung an Richie (Mitte) und Thompson (Links)

Auf dem Foto oben wurden Richie (rechts) und Thompson im Weissen Haus von Präsident Bill Clinton in Empfang genommen. Ihnen wurde an diesem 27. April im Jahre 1999 die “US National Medal of Technology” für Ihre Dienste bei den Bell-Labs verliehen.

Ein anderer Pionier, Ray Tomlinson,  machte sich auf und versuchte sich an einem Programm, in C verfaßt, um Nachrichten über das Arpa-Netzwerk zu versenden. Im Jahre 1972 wurden dann erstmals Emails versendet. Der MIT-Abgänger erkannte die Notwendigkeit einer festen Notation: <NAME AT HERKUNFT>, wie es heute Standard ist. Der Geschichte nach wußte Tomlinson nicht, welches Zeichen er von seiner “Model 33 Teletyp”-Tastatur entbehren konnte um die beiden Adressteile zu trennen, und so legte er sich auf das “@” fest.

Was geschah noch in den 70er Jahren?

Die 70er Jahre waren bedeutend für die Entwicklung des späteren Internets. Arpa-Forscher stellten erste Blackboards und Diskussionsforen auf. 1972 entstand “SF-Lovers”, das erste Diskussionsforum für SF-Freaks, denn Armstrong kam “gerade” von seiner Reise zurück. Die Firma Digital entwickelte DEC-Net, IBM führte das “System-Architecture-Network” ein und Xerox rief das “Xeroxnetwork” ins Leben; alle drei Firmen mit drei verschiedenen Netzwerken in einem Jahr (1974)! Als erste europäische Staaten wurden 1975 England und Norwegen in das bestehende Internet eingebunden. Im gleichen Jahr wurde die Berkley-Unix-Variante mit TCP/IP ausgestattet, und drei Jahre später war erstmals das UUCP-Protokoll im Einsatz. Das “UNIX to UNIX Copy Protocol” wurde entwickelt um Daten per Telefonleitung zwischen zwei UNIX-Maschinen austauschen zu können. Heute ist UUCP für nahezu alle Rechnerplattformen zu finden, EMails im UNIX-Umfeld werden neben MIME ebenfalls mit UUCP versendet.

Durch die stetige Wachstumsrate der Teilnehmer im ARPANet entschied man sich auch für eine wissenschaftliche Datenbank. Von nun an wurden Fehlerprotokolle, Bemerkungen, Ideen und sogar Provokationen zentral gehalten und informell zwischen Wissenschaftlern ausgetauscht: Die RFCs, “Request for Commands”! Innerhalb 26 Jahren wurde eine Liste mit 1700 RFCs zusammengetragen.

Die 80er Jahre kamen…

Bisher waren Konzerne wie Xerox, Digital, IBM oder AT&T aus der neuen Branche nicht mehr wegzudenken. IBM schaffte 1981 den Durchbruch, als der erste Personalcomputer auf dem Markt erschien. Von nun an wuchsen “IT-Konzerne”, denn profitable Geschäfte mit den jungen PCs waren in greifbarer Nähe. Bob Metcalfe, ehemals Xerox-Wissenschaftler und ARPA-Pionier in den 70er, sah neue Wege, Computer in entsprechenden Netzwerken sinnvoll einzusetzen und gründete 3COM (Abk: Computer Comunications Compatibility). 3Com ist aus der IT-Branche nicht mehr wegzudenken! Vier 27jährige Studenten von Stanford und Berkley schlossen sich zusammen und stampften netzwerkfähige Workstations aus dem Boden, die schneller waren als damalige Mainfraimes, SUN war geboren. Ein Ehepaar, ebenfalls Studenten von Stanford gründeten einen Konzern, der heute richtungsweisend für Netzwerktechnologie ist: CISCO. Vier Programmierer der “University of Utah” – man erinnere sich an die Anfänge der IMPs im Jahre 1969 – sahen 1984 die Notwendigkeit eines leistungsfähigen Netzwerk-Betriebssystem und codierten die “NOVELL Inc” mit NETWARE ins Leben! Heute ist Netware zwar noch weit verbreitet, aber aufgrund des späten Umstiegs auf das TCP/IP-Protokoll nicht mehr die “No. 1” unter den Betriebssystemen. Diesen Posten gab Novell Anfang bis Mitte der 90er an Microsofts “Windows NT” ab. Trotzdem galt Novell Mitte der 80er Jahre als Standard.

Doch was war mit dem legendären ARPANet in den 80er Jahren? Ende der 70er Jahre teilen immer mehr Universitäten die Sympathie für ARPA und so geschah es, dass z.B. zwei Studenten der Duke-University ein UNIX-Shellscript schrieben, um Nachrichten über das UUCP versenden zu können. Unix wurde einfach der Renner! Immer mehr Universitäten schlossen sich an das ARPA-Netzwerk an, denn mit der steigenden Nachfrage wurde auch UNIX rentabel und auch für kleinere Universitäten erschwinglich. Langsam aber sicher entwickelte sich das ARPANet immer mehr zum USENET – das geschah noch vor 1980. Das USENET war im Prinzip das Arpanet für Firmen, Universitäten und Privatleute. Drei Studenten – Truscott, Ellis, Bellovin – eröffneten das erste Diskussionsforum im USENET und “hängten” Schwarze Bretter auf. Politsich-heikle Themen wurden nun auch über das neue Medium diskutiert. Die ehemaligen Arpa-Wissenschaftler nannten das USENET zynisch “das ARPANET des armen Mannes”, da die meisten Teilnehmer nicht von ARPA waren. 1980 waren 15 Rechner dem USENET angeschlossen; 10 News wurden pro Tag ausgetauscht. Im Jahre 1985 waren es bereits 1300 Teilnehmer mit über 360 versendeten News pro Tag. Da das Datenaufkommen anstieg wurde eine Einteilung notwendig. Von nun an sollte es den Bereich Wissenschaft (sci), Freizeitgestaltung (rec), Computer (comp), soziale Angelegenheiten (soc) und Neuigkeiten/Nachrichten (news) geben!

Im Jahre 1982, wie oben besprochen, wollte ARPA zeigen, welche Eigenschaften das USENET auszeichnete, und demonstrierte erstmals die Möglichkeit, Informationen zwischen dem X.25 basierten Netzwerk in Europa (hieß später EURONet) auszutauschen. TCP/IP setzte sich auch hier durch!

Da auch das Verteidigungsministerium reges Interesse an dem neuen Netzwerk zeigte, spaltete sich 1983 das USENET in den Bereich MILNET auf, wobei die Bezeichnung USENET trotzdem beibehalten wurde.

Natürlich geschahen noch einige andere, bedeutende Ereignisse in den Achtziger Jahren. Eine weitere Geschichte ereignete sich im Jahre 1986 als IBM die erste Version der Skript-Sprache “SGML”, von ISO standardisieren lies (ISO:8879). Denn: SGML – ursprünglich entwickelt von Charles Goldfarb, Edward Mosher und Raymond Lorie in den 60er Jahren – ist der Vorreiter von HTML und XML, den derzeitigen Standardsprachen für Websites im Internet. SGML wurde als Grundlage für HTML weiterentwickelt.

Die 80er Jahre vergingen, die 90er Jahre kamen…

Der Mann, der für die heutige Standard-Skript-Sprache im World-Wide-Web in die Geschichte einging, ist Dr. Tim Berners-Lee. Der Wissenschaftler, (Brite, ehemaliger Oxfort-Absolvent) damals am CERN in der Schweiz, einer Einrichtung für Kernforschung beschäftigt, wollte – so die Geschichte – um 1989 ein Hypertext-Informationssystem entwickeln, damit er die wissenschaftlichen Forschungsergebnisse am Institut veröffentlichen konnte.

Tim Berners-Lee
Tim Berners-Lee

Für dieses Vorhaben entwickelte er den Browser WorldWideWeb sowie den ersten Webserver für das Betriebssystem NeXTSTEP (ein Produk der Firma NeXT gegründet von Steve Jobs). Er trat für die Maxime ein, dass seine Entdeckung frei bleiben sollte und verzichtete auf ein Patent. Berners-Lee wurde durch die Königin Elisabeth II. am 16. Juli 2004 zum “Knight Commander, Order of the British Empire”, also zum Ritter, geschlagen. Es ist Träger des Millenium-Technologiepreises sowie des Quadriga-Preises. Derzeit ist er Inhaber des 3Com Founders-Lehrstuhls am Laboratory for Computer Science des Massachusetts Institute of Technology (MIT).

Das Internet heute…

Um diese Geschichte des Internets abzurunden will ich hier noch einige bedeutende Zahlen präsentieren: Heute, im Jahre 2006, nach dem 35. Geburtstag des Internets und dem 25. Geburtstag des Personalcomputers, geht man von einer Internet-Wachstumsrate von ca. 1% pro Tag aus. Daraus errechnet sich alle 10 Wochen eine Verdopplung des Informationsvolumens. Mehrere Hundert Millionen Benutzer sind täglich im World-Wide-Web unterwegs, wobei auch diese Zahl enorm steigt. Internet-Backbones wie SEAMEWE, Übertragungsleitungen mit mehr als 20 GBit/Sek Volumen, reichen über eine Streck von 30.000 Kilometer von Australien bis Europa und garantieren für eine sichere Verbindung. Die NASA forscht bereits jetzt an einem interplanetaren Netzwerk, welches künftige Stationen auf dem Mars mit der Erde verbinden wird. Domain-Namen wie “MyComputer.Mars.SOL” sind nicht mehr Utopie. Das legendäre TCP/IP – Protokoll wird in 3 bis 4 Jahren einer weitreichenden Änderung unterworfen werden, denn die Anzahl der dem Internet angeschlossenen Computer steigt über die Anzahl, die mit TCP/IP gezählt und verwaltet werden können.