Archiv der Kategorie: internet

Blogs zum Thema Internet

LineageOS at Samsung Galaxy S7

In this blog I want to descripe my experience to flash a Samsung Galaxy S7 with a LineageOS. Why a old S7? Because you can get a lot of Accessories like bumber cases or armored display protections and the costs are reasonable in relation to technical specifications. And the main reason is that you can get fully developed mods like LineageOS. I’ve had more smartphones in the past e.g. the sony experia Z or the sony experia Z3 – all flashed with cyanogenmod you can compare nowadays to LineageOS. Sony supported in former times a innovative „open device“ program and installed a default recovery image. yes, you lost support but you got a possibility to flash Android without tricky preperations. Please read the computer news for this historical stuff.

I can say that all flash operations with former sony were tricky. No one time was flashing withouth problems. For example on experia Z i installed cyanogen – so far so good – and after this i crypted the internal store. finally, through the encryption, the system was not able to decrypt the file(s)  with provider data. I had a smartphone just only for data connections…  i had to make the decission to use a young and buggy „nightly“ version, that was the solution – and so on!

So i decided to use a samsung s7 for the next years. And because i got a lot of errors the last 2 weeks: here is the progress of flashing and a possible solution that worked for my devices.

Please understand this blog as a part or as addition-blog to the official sites of LineageOS. If you are localized in DACH and can not go on with english sites, just take a translational software like google… (Sollten Sie der engl. Sprache nicht mächtig sein, kopieren Sie den Text einfach in einen Online-Übersetzer wie google…)

I will take no warranty to steps you will do basically at this howto. See it like a additional summary of experience.

Requirements -what do you need?

  • Unboxed Samsung Galaxy S7 type G930F
  • The original USB-Cable of your box (so you can exclude test procedures)
  • Load the battery nearly full to 100% (some devices are just flashable with a high battery status)
  • Put in a large SD card with min 16 GB of size
  • 1 day of free time

First Todos

  • Switch on the S7, step through the starting procedure
  • go to Settings an switch the developer mode on with tabbing at lesat 7 times to the build number in the smartphones properties
  • now you can see the developer mode options in the settings
  • go there to the dev options
  • set OEM dislocking ON, USB Debugging ON
  • shut down the device

What does the common LineageOS say?

At first, go to the official site of LineageOS and read the manual steps. As a summary, you can say that there are three steps. Samsung provides the flashing of there devices. And this is the first step: there is a small part on your smartphone like a bootloader with name „Download mode“. This software package does have no really usable functions but you can start it if you press on the switched off device three keys together: VOL-DOWN, HOME-BUTTON and SWITCH-ON-BUTTON. After seconds you will reach the „Download mode“. Accept the warning and you will see a screen it seems to be waiting for a action from outside the smartphone. You can restart the download mode at every time: just hold the three buttons again and you will see that the device is rebooting – hold further on the buttons and you will land in the same screen again. Easy. But as I say, the „Download mode“ can nothing as download something. Here is the second step: you have to change this part of software with a software with more functions. I have used the flash custom recoery of the TWRP (called: Team WIN)  group.  This custom recovery software does have more functions as the default samsung part. LineageOS does descripe this step with Team Win too. And with the software we reach the third step: change the OS.

First problems – the connection with the device.

My first problem startet with step 1: to transfer the custom recovery flash to the waiting device was not doable. The LineageOS manual said: use the haimdall-Suite to install driver and transfer the image. Installing the driver should be possible with another software programm called zadiag.exe which is a part of the heimdall suite. In summary, that was the problem. The manual said: as a driver use the samsung usb composite device and if you will not find this one, try the gadged serial device in zadiag  to install the driver. For my part i took the gadged serial one because there was no stuff like samsung… After installing the driver, you can simple test the connection with the command heimdall device for detecting and then heimdall print-pit   to download the device specificatio (by the way: just use the –verbose parameter to ge a more detailed log). I got this errors and warnings: „ERROR: Failed to access device. libusb error -12“, „WARNING: Control transfer #1 failed -1“, „ERROR: libusb error -7 whilst receiving packet -7“. With the -7 error it came: „ERROR: Failed to receive PIT file size!“ and „ERROR: Failed to download PIT file!“. In my environment worked the libusb0-driver with the „best“ results: the s7 was detectable but print-pit said 6 warnings with control transfer failed. The other 2 drivers stopped working at „initializing“ status. I have tried more days and many hours to go find a solution. I have tried a virtualbox with a old windows xp and a windows 7 32bit and of course a windows 10 64bit, too. I read a lot of internet articles about thes three errors: -7, -1, -12. Many others had same problems but no finally solutions. The advices hang around: Change the cable, try to reboot several times, load up the battery. At the end, i did a really complex-structured trial-and-test day just find a solution. My opinion now go around the operating system. The main problem is: the device is findably with the „device“ parameter but you can get no transfer-connection the it. probably it should work if you have physical windows 7 with 32 bit with unlocked driver signature surveillance.

The solution – change the transfer software

In my case, through reading many sites i find the TWRP group. As i mentioned above, they developed a custom recovery suite to change the default of samsung and replace it with a more functional flash part. TWRP just not only give the image, they developed a transfer software called ODIN (like heimdall), too. I have downloaded the ODIN 3.12.3 and started it and plugged in the AP-Box the TWRP-Tar-Image file (you can find it here – btw: „herolte“ means the S7, like a developement project name)

thomas-zehrer-de_ODIN-Transfer-Herolte-TWRP-Image

As i said, the phone was with the default image in waiting status. Then START and without problems, i transfered the image to the smartphone. SIMPLE. READY. NO PROBLEMS! Why? The connection should be realized through the former installed Samsung Composite Drivers.

First Restart

After this, i restarted the device by holidng VOL-UP, HOME-BUTTON and SWITCH-ON-BUTTON and got to the new Image of TWRP. Here you can see a screenshot from ther HP.thomas-zehrer-de_twrp-software-image

There are a lot of functions to do. At first, you should make a backup with go to Backup-Tab and swipe a backup to the external card. Takes about 2 hours. At second, wipe the complete storage with Wipe and Advanced Wipe.  Choose “Davlik Cache”, “System , Data”, “Cache”, “Android Secure” and swipe the wipe button. Takes about 10 minutes. Now, you can start your phone in default Waiting Mode with VOL-DOWN + POWER + HOME and in the new TWRP recovery Image with VOL-UP + POWER + HOME. From here you can later start some nice features: backup a complete image, go to the encrypted store, copy files… – all possible with adb.

Last step: Transfer the LineageOS to the phone.

Go to Advanced and set the device to listening mode again. Its called sideload. With the sideload mode you can transfer from your pc or laptop a file for installing to the device, similar a waiting status. Now you need on the windows side a Android well knows software called „android debugging bridge“ or adb. Just download this part from google site and start the command line like this: adb sideload LineageOD.zip – you can see the transmission from windows to the S7 on booth sides. After this go to to restart and restart the device. The new Image will be rolled out.

Summary

Finally, it worked for me. You need a sum of software and todos, i try to list it. so i did not use the heimdall suite. (the links are working at Jan, 19, if you need the files: just contact me).

  • At first the Samsung Composite Drivers from here and install this ones at your windows system.
  • Then create a directory and download following files:
    • The herolte Image: the alternative custom image of TWRP as a tar-File
    • The ODIN-Software to transfer the herolte image-tar-File
    • The ADB Suite (called android plattform tools) for transfering the LineageOS to the device and unpack it.
    • The LineageOS package from the website and copy it in the same directory as the adb.

Then set your phone in listen mode, start ODIN, choose in AP-box the tar-file and send it. Then restart phone holding three buttons VOL-UP_POWER_HOME and the TWRP recovery is starting. Do a backup of your current system, format / wipe the storage and set the device in sideload mode. Do in your windows the adb sideload command and transfer the image to the device.

So flashing a device can make a lot of fun because you learn a lot of your device. What could be the next steps after flashing? Crypting the storage, loading apps from f-droid. You have a unbounded fresh Android with no needless apps you never use or need.

Have a nice day.

Virtuelle Maschinen für spezielle Aufgaben? Achtung: Langzeitgedächtnis!

Möchte man Aufgaben auf dem privaten PC trennen, so bieten sich virtuelle Maschinen unter VirtualBox oder vmware an. Es ist also möglich, dass für das Surfen im Web mehrere virtuelle Maschinen erstellt werden oder für Einzelaufgaben – z.B. Homebanking mit HBCI, die Facharbeit, Softwareentwicklung, Multimedia – verschiedene virtuelle Systeme in Betrieb genommen werden. Sicherlich gibt es für Laien einige Hürden zu Meistern: welches System soll verwendet werden? Auch Patches, Updates und nicht zuletzt die Sicherung der angefallenen Daten müssen durchdacht sein. Aber funktioniert das Biotop so hat man getrennte Systeme für spezielle Aufgaben.

Die Vorteile, die sich daraus ergeben: Am Internetzugang können die Daten einzelner Maschinen aufgrund z.B. der IP-Adresse unterschieden werden und geblockt werden: Die Perimeterserver von Microsoft dürfen nicht kontaktiert werden oder nur Webdaten Port HTTP/HTTPS dürfen passieren. Dann können die Maschinen einfach gesichert werden: Backup-Festplatte einschalten bzw. NAS verbinden und Files regelmäßig kopieren. Zudem können die virtuellen Maschinen auf Basis des Betriebssystems verschlüsselt werden. Linux bietet hier dm-crypt und für Windows gibt es VeraCrypt oder Bitlocker. So kann auch ein Transport über USB erfolgen. Es könnte der komplette Container mit samt virtuellen Festplatten in einem Archiv mit Kennwort gesichert werden – als Transportsicherung. Das Starten und Stoppen der Systeme dauert auf aktueller Hardware nur Sekunden. Letztlich verteilt man Sicherheit und das lokale, pyhsikalische System dient im Allgemeinen als Host. Trotz der vielen Vorteile muss das Langzeitgedächtnis virtueller Maschinen beachtet werden.

Virtuelle Maschinen unter VirtualBox

Wir legen uns also für verschiedene Aufgaben mehrer virtuelle Machinen an. Angenommen eine Maschine dient nur zum Surfen im Internet. Ein Linux-System wie Debian und Firefox reichen hier völlig aus.

thomas-zehrer_vbox_01Bild: VirtualBox mit mehreren virt. Maschinen

Mit der Virtualisierungssoftware VirtualBox kann das System nach wenigen Minuten betriebsbereit hergestellt werden. Dabei ist auch ein Webclient: surfen, Multimedia, youtube, AddOns – alles sofort verfügbar.

Achtung: Langzeitgedächtnis!

Wie steht es jetzt um die Sicherheit der Daten in dieser Maschine? Ein Test zeigt Potential zur Vorsicht! Startet man die Maschine, z.B. surfing und gibt im dortigen Firefox Zeichen ein, so versucht der Client denServer:

thomas-zehrer_vbox_03

Bild: VirtualBox und Firefox: Zugriff auf Server

Das klappt nicht da es die Adresse thomas-zehrer.de zwar gibt, jedoch nicht den Teil der URL trallalla – aber egal an dieser Stelle. Beendet man die Maschine durch Ruhezustand oder einen Shutdown und untersucht selbige in einem Hex-Editor (ich verwende den kostenlosen HxD von Mael Hoerz da dieser auch mit sehr großen Dateien umgehen kann) so kommen genau die eingegebenen Daten zum Vorschein:

thomas-zehrer_vbox_04

Bild: Die virt. Festplatte im HexEditor HxD

Die virtuelle Maschine hat also ein Gedächtnis. Exkurs: Funktioniert das auch mit Dateien? Extrapoliert man das Verhalten, so bekommt man einen guten Überblick über die Filehistorie: So könnte man mit OpenOffice eine test.docx erstellen und auf dem Desktop ablegen: Informationen dafür im HxD:

thomas-zehrer_vbox_05

Nach dem Löschen in den Trash: Informationen dafür im HxD:

thomas-zehrer_vbox_06

Nach dem Löschen aus dem Trash: Daten persistent:

thomas-zehrer_vbox_07

Nochmals Achtung: Daten persistent!

Verschiedene Tests mit den Daten im Client ergeben: Datei und Daten im Binärfile bleiben bestehen! Am Beispiel der Browserhistorie: Löschen der Browserhistorie mit samt Cookies, Reboot der Maschine, Update Client: nach allen Standardaktionen konnten die Daten nach einem Shutdown im Binärfile weiter festgestellt werden!

Abhilfe schaffen.

Abgesehend davon, dass bestimmte Daten mit besonderer Vorsicht zu behandeln sind (Patientendaten, Daten zu Krankheiten, religiöse Zugehörigkeiten, politische Meinungen) stellt sich die Frage, wie obiges Risiko minimiert werden kann? Gegen wen oder was sollen die Daten geschützt werden? Offensichtlich gegen physikalischen Zugriff auf die Maschinendaten oder eine Software „Schädling“, der über ein Speicherabbild Daten Dritten zur Verfügung stellt. Speicherabbild-Dateien werden während der Laufzeit erzeugt und geben ein Snapshot des laufenden Systems wieder – vergleichbar mit dem physikalischem File. Die Speicherabbilder können über den Taskmanager in Windows erzeugt werden.

Zunächst sollte der physikalische Zugriff auf das Host-System durch Verschlüsselung beschränkt werden. Wie oben angemerkt könnte das VeraCrypt oder dm-crypt sein. Dann sollten die virtuellen Maschinen ebenfalls durch Verschlüsselung abgesichert werden. Verschlüsselt man die hdd-Container unter dem virt. Linux bei der Installation mit dm-crypt bzw. Windows mit VeraCrypt so können diese Offline nicht mehr analysiert werden.

Es bleiben noch die Snapshots wenn das System lediglich in den Ruhezustand gefahren wird: Systeme dürfen nicht mehr in den Energiesparmodus oder den Ruhezustand versetzt werden. Die daraus folgenden Files sind wiederum lesbar! Werden trotzdem Dateien um das virtuelle System herum erstellt, so müssen diese über einen Eraser-Task regelmäßig geshreddert werden. Am Ende müssen lange Kennwörter vergeben werden. Es ist mittlerweile der Standard, sog. secret phrases zu setzen, d.h. unheimlich lange Passwörter, meist Wörter aneinander gereiht mit Sonderzeichen und Ziffern. Das gilt für die Verschlüsselung ebenso wie für das Userkonto in der virtuellen Maschine.

Als oberstes Gebot steht die Erstellung eines Backups: wenn die virtuelle Maschine beschädigt wird, sind die Daten weg. Und sind die Host-Festplatten oder die virtuellen Datenträger verschlüsselt, so kann man mit hoher Wahrscheinlichkeit die Daten schlicht abschreiben.

Speedport W723V mit ISDN auf Annex-J

Vor kurzem: Ein guter Bekannter bat mich, seinen ISDN-Anschluß auf IP-Anschluß umzustellen. Zum Hintergrund:

Die Telekom möchte (jetzt aber wirklich) „zeitnah“ alle ihre (Universal-) ISDN-Anschlüsse deaktivieren und dafür die splitterlosen Annex-J-Anschlüsse platzieren.

Begriffe und Kürzel

Fangen wir kurz mit einem Überblick an. Es gibt seit über 150 Jahren die ITU – die Intrantional Telecommunication Union. Interessierte Leser mögen bitte weiter bei Wikipedia lesen. Seit langer Zeit macht sich die ITU Gedanken über technische Standards und definiert diese. z.B. ist der ITU-R die Definition für die Übertagung von Radiosignalen. Und so kam es zum Standard ITU-G für die Definition von Netzwerkanschlüssen, auch für den Heimbereich. Innerhalb von ITU-G gibt es den G.992, der ADSL definiert. Wiederum unterhalb gibt es den G.992.3 der Annex-A und Annex-B definiert. Um die beiden geht es: Annex-A beschreibt die Übertragung von Sprach- und DSL-Signalen über analoge Telefonanschlüsse und Annex-B das Senden/Empfangen von Telefon- und DSL-Signalen über ISDN-Anschlüssen.

Annex kann als Anschluß, Anbau, Erweiterung oder Anschluß verstanden werden, offensichtlich gibt es dafür kein Akronym.

Die Telekom möchte also die Annex-A und Annex-B-Anschlüsse auf Annex-J-Endpunkte (definiert in ITU-G.992.3 und .5) rekonfigurieren. Man sagt: „Man bekommt einen IP-Anschluß“. Technisch trennte der Splitter bisher die Frequenzen bei 120 kHz da darunter nach Standards das Telefonsignal transportiert wurde und oberhalb ab 138 kHz das DSL-Signal übertragen wurde (siehe G-Standards). Da bei neuen Annex-J-Anschlüssen nur DSL-Frequenzen ab 138 kHz übertragen werden, ist ein Splitter also hinfällig. Somit kann es ein splitterloser Anschluß werden. Die Betonung ist: Kann, muss nicht zwangsläufig.

Die Telekom meldet sich

Bereits 4 Monate vorher bekam der Anschlußinhaber bescheid, dass zu einem Zeitpunkt im Herbst die Umstellung erfolgen wird. Angegeben war ein Tag mit Datum und Uhrzeit – also bis spätestens 21.00 Uhr sollte die Umstellung abgeschlossen sein. Hier gab es den  ersten Fallstrick: die Umstellung dauerte 2 Tage! Man konfiguriert sich den Wolf Abends um 21.00 Uhr und nichts geht. Auch am nächsten Tag „geht“ nichts und auch am übernächsten Tag „geht“ noch nichts! Aber: wir konnten schon am ersten Tag im Kundencenter der Telekom prüfen: „Ihr Anschluß wird zur Zeit umgestellt.“  Diese Meldung verschwand nicht bis zum übernächsten Tag! Ratschlag: Falls Sie Ihrer Meinung nach keinen Konfigurationsfehler gemacht haben und der Telefon ODER Internet nicht funktionieren: Schauen Sie in den Kundencenter der Telekom und prüfen Sie dort den Status Ihres Anschlusses. In diesem Fall bekam der Anschlußinhaber eine SMS über die Fertigstellung.

Geräte im Einsatz

Als Endpunkt gab es bereits einen Router „Telekom Speedport W723V Typ A“, den Splitter, den NTBA und eine TeleDat-Telefonanlage aus Ende der 90er „Made in Germany“. Zudem gab es zwei analoge Telefone, die über obige TK-Anlage betrieben wurden. Diese Telefone kann der Speedport über seine eigene analoge Anschlüsse verwalten. Vorab: Der Speedport ist für einen IP-Anschluß brauchbar. Man sollte darauf achten, dass der neuste Firmware-Stand vorliegt (2017: Version 1.01.018 aus April 2017).  Der Splitter, die TeleDat ISDN-Anlage mit zwei analogen Anschlüssen sowie der ISDN-NTBA wurde demontiert. Bei der Gelegenheit wurden auch alle Netzwer- und Telefonkabel entfernt, so dass nur mehr der W723V „dastand“.

Dann wurde das mit dem Speedport mitgelieferte Telefonkabel für die Verbindung von TA-Dose mit Speedport verbunden. Aus der Erfahrung heraus müssen alternative Stecker-Kabel-Kombinationen nicht immer funktionieren. Bitte darauf achten: das Original-Speedport-Kabel (GS-Kabel, grau, siehe Link unten) für Anschluß TA-Dose auf DSL-Eingang Router Farbe grau verwenden!

Nach der Verbindung des Speedports über das graue Kabel mit der TA-Dose und einem Router-Neustart sollten nach ca. 2 Minuten die LEDs Power, DSL, Online und ggf. noch WLAN leuchten, nicht blinken. Dann wäre der erste Schritt geschafft und es sollte (wieder) Internet verfügbar sein. Die Zugangsdaten sind im Gerät noch wie vorher gespeichert.

Nun muss das Telefon noch konfiguriert werden: Über Browser stellt man die Verbindung zum Router her und wählt sich mit dem Kennwort, das auf der Rückseite des Routers zu lesen ist, in das Gerät ein.

Im Menüpunkt „Telefonie“ wechselt man um Unterpunkt „IP basierte Telefonie“ in den Dialog „Zugangsdaten“. Dort wichtig: Als Anbieter muss „Telekom“ ausgewählt werden und im Feld „Rufnummer mit Vorwahl“ muss die Vorwahl und Rufnummer des Anschlusses eingetragen werden. Individuelle Zugangsdaten sind nicht notwendig. Schließt man den Dialog mit „OK und WEITER“ so dauert die Speicherung und Prüfung wenige Sekunden. In dieser Zeit meldet der Router bei der Telekom IP-Telefonie an.

Interessant war, dass in diesem Fall alles auch mit Splitter funktioniert hätte. Ich habs ausprobiert 🙂  Es ist erklärbar: die hohen DSL-Frequenzen über 138 kHz werden 1:1 über den Splitter durchgeschliffen – es gibt nichts mehr zu splitten – und so wird die Funktion des Splitters (also die Trennung der Frequenzen) nicht mehr wahrgenommen. Ergo: er kann entfallen und abgebaut werden. Der Vorteil ist dass bei künftigen Störungen bei der Problemsuche eine Fehlerquelle wegfällt.

Zusammenfassung: Im Kundencenter sollte der Umstellungstermin verfolgt werden. Für den Anschluß sollten die originalen Speedport-Kabel verwendet werden und am Ende muss der Speedport als IP-Telefongerät bei der Telekom angemeldet werden.

Links:

Hinweise zu Kabel, Anschluß, Dose: https://telekomhilft.telekom.de/t5/Telefonie-Internet/Was-ist-eigentlich-ein-quot-splitterloser-Anschluss-quot-oder/td-p/885353#kann_ich_am_annex_j_anschluss_stets_auf_den_splitter_verzichten

Speedport W723V Firmware Typ A:  https://www.telekom.de/hilfe/geraete-zubehoer/router/speedport-w-723v/firmware-speedport-w723v-typa.bin

Die Geschichte des Internets

Wie auch auf den Vorläufern von thomas-zehrer.de (seit mittlerweile die 5. Seite seit 1998), so stelle ich auch hier meine eigene Internet Story von 1999 online.  Der Text stammt aus meiner frühen Zeit im Internet, die Jahreszahlen habe ich i.G.u.G. unverändert gelassen – hat Charme. Viel Spaß beim Lesen.

Die Anfänge…

Die Grundsteinlegung des Vorgängers unseres heutigen Internets ist in der Tat nicht leicht zu finden. In einigen Quellen wird das Jahr 1957 erwähnt, da der russische Satellit „Sputnik“ die Erdumlaufbahn erreichte und somit die Ära des „Kalten Krieges“ begann. Die USA erkannte die Gefahr dieser Zeit und mußte sich über ein System Gedanken machen, das abhörsicher ist, und im Falle eines atomaren Angriffes trotzdem funktionsfähig bleibt. Aus diesem Grund wurde im Jahre 1958 die Einrichtung „ARPA – Advanced Research and Projects Agency“ gegründet. ARPA war eine Einrichtung des US-Verteidigungsministeriums und somit militärisch begründet.

Das ARPANetwork und die IMPs…

Im Jahre 1967 übergab ARPA an die Abteilung „Information Processing Techniques“ den Auftrag, Überlegungen und Theorien über ein Netzwerk anzustellen, das vorallem abhörsicher war und trotz Störungen die Kommunikation aufrechterhalten konnte. Für diesen Zweck plante der damalige Präsident von ARPA, Charles Herzfeld ein Budget von 1 Million Dollar ein um dieses Ziel realisieren zu können. Zu dieser Zeit war Robert Taylor Chef dieser IPT-Abteilung. Taylor gab die Entwicklungsarbeiten an Lawrence Roberts, einen seiner Wissenschaftler weiter. Roberts‘ Theorie baute auf Netzwerkknoten auf, die untereinander ein Art Ring bildeten. Fiel ein Netzwerkknoten aus, so konnten die Daten über einen anderen angeschlossenen Netzwerkknoten geroutet werden. Um diese Theorie der Öffentlichkeit bekanntgeben zu können, veranstaltete Roberts ein Treffen in Ann Arbor/Michigan zu dem bekannte Wissenschaftler aus der damaligen Zeit eingeladen wurden. Einer dieser Gäste war Paul Baran, Mitarbeiter von RAND Corporation, der sich schon Anfang der 60er über „Packet switching“, also das weiterleiten von Daten über Kommunikationsmedien, Gedanken gemacht hatte. Beran fand gefallen an Roberts‘ Idee und so versuchten sie, gemeinsam eine Lösung für die besagten Netzwerkknoten zu finden. Die Zusammenarbeit erwies sich als erfolgreich, als ein Jahr später die Theorie des „IMP – Internet Message Processor“ veröffentlicht wurde. Der Auftrag, einen IMP zu entwickeln, wurde an die Firma „Bolt, Beranek and Newman“ (kurz: BBN, Sitz in Cambridge/Massachusetts) weitergegeben, da sie schon Erfahrung in Bezug auf die Entwicklung von militärischen Kommunikationsmedien vorweisen konnte. Roberts war auch für die Auswahl der ersten Standorte zuständig, die Prototypen des ersten IMP in Betrieb nehmen durften. Universitäten eigneten sich sinn- und zweckmäßig hierfür am Besten.

Entwicklung und Einsatz der ersten IMPs…

Der Mann, der Neujahr 1969 bei BBN für die Entwicklung des „Interface Message Processor“ zuständig wurde, hieß Frank Heart. Heart war MIT-Absolvent und leitete die Forschung von „Real-Time-Computing“ an den „Lincoln Labs“ in den 50er und 60er Jahren bevor er zu BBN wechselte. Er beschloss, den IMP nicht neu zu erfinden. Ein damals überaus leistungsstarker Minicomputer der Firma Honeywell, nämlich der „DDP-516“ (übrigens: 12 KByte Speicher), sollte für die Zwecke eines Netzwerk-IMPs modifiziert werden. Heart bevorzugte den DDP-516, da sich dieser Rechner bereits im Dienst der Army bewährt hatte, und nach APRA-Vorschriften aufgebaut war.

BBN mit Frank Heart
BBN mit Frank Heart

 

Sein Team an Programmierern (siehe Bild, Mitte: Heart) und Hardwaretechnikern hatten 9 Monate Zeit, um die DDP-516 zu einem IMP umzuwandeln, zu programmieren und zu debuggen. Der 30.August 1968 sollte dann ein Denkmal setzten. Der erste Prototyp eines IMPs wurde in der Universität von Los Angeles/Kalifornien installiert. Hier kam als Betriebssystem SDS Sigma 7 zum Einsatz.  Ein weiterer IMP folgte am 1.Oktober 1968, diesesmal in der Abteilung „Network-Information-Center“ am „Stanford Research Institute“ unter der Leitung von Doug Engelbart.

Übrigens: Engelbart ist auch Erfinder der Computermaus!. Im Gegensatz zum ersten IMP wurde hier als Betriebssystem das SDS 940/Genie ausgewählt. Genau ein Monat später wurde der dritte Knoten in der Universität von Santa Barbara in Kalifornien in Betrieb genommen. IBM entwickelte hierfür das Betriebssystem „IBM OS 360/75“. Schliesslich wurde der letzten der vier Testknoten an der „University of Utah“ aufgestellt. Auf diesem Host kam ein Betriebssystem von Digital, nämlich DEC PDP-10 zu Einsatz.

Der erste Loginversuch…

Bereits nachdem der zweite Knoten am „Stanford Research Institute“ (SRI) installiert wurde, unternahmen die Wissenschaftler einen ersten Loginversuch über eine Distanz von mehreren hundert Meilen. Charlie Klein, ein Student an der „University of California“ (UCLA) hackte das erste „L“ ein. „Did you get the L?“, so die Frage nach Stanford, „Yes!“ kam die Antwort zurück. Dann das „O“: „Did you get the O?“, und wieder „Yes!“. Doch zu einfach sollte es nicht werden – Nach dem „G“ crashte die Verbindung.

Doch es war nicht immer so. Im Jahre 1970 wurden immer mehr IMP-Hostrechner und TIP (=Terminal Interface Message Processoren) an das junge ARPA-Netzwerk angeschlossen, bis das ungefähr folgendes Bild ergab:

Erste TIMP im Arpa-Netzwerk.
Erste TIMP im Arpa-Netzwerk.

TIP-Terminals wurden als Art Zwischenstationen zwischen Terminal und IMP eingesetzt und übernahmen Verwaltungsaufgaben im Netzwerk, hatten aber – wie Terminals eben – keine eigene Intelligenz.

Larry Roberts, inzwischen Chef von der Technikabteilung von  ARPA, wollte jetzt der Netzwerk-Welt, die ja noch in Kinderschuhen stand, zeigen zu was dieses neue Medium fähig war. Er bat Bob Kahn bei BBN diese Veranstaltung zu organisieren und entsprechende Software für ein Demo zu entwickeln. Auch Bob Metcalfe, Kollege von Kahn, damals bei XEROX beschäftigt,  war von dieser Idee überzeugt und erklärte sich bereit, möglichst einfach-verständliche Dokumente zu erstellen, um die Funktionsweise verständlicher zu machen. Doch das erwartete Ziel blieb aus, da diese Technik zu neu und komplex für die jungen Studenten und Absolventen war.

In den darauffolgenden Jahren überstürzten sich die Ereignisse: Norm Abramson, Professor an Stanford war aus einem Grund oft auf Hawaii: Surfen! Es kam so, dass die „University of Hawaii“ eben einen dieser Wissenschaftler suchte und Abramson ihnen dieses Geschäft nicht abschlagen konnte. Innerhalb eines Jahres – es war 1970 – arbeitete er an einem radiowellen-basierten Kommunikationssystem um die Inseln von Hawaii – es gibt 7 davon – zu verbinden. Ein Jahr später war es soweit: Das ALOHANet war geboren. Abramson bat Roberts um einen IMP um die Inseln mit dem Festland verbinden zu können. Roberts stimmte zu, und so war es ein weiterer Meilenstein, als zwei Netzwerke verbunden wurden.

ALOHANet sagt man auch nach, dass es der Vorreiter des heutigen Ethernet-Netzwerk war. Denn da die Technik auf Hawaii es nur erlaubte durch einen einzigen Kanal Daten auszutauschen mußte sich Abramson eine Art „Collision-Detection“ ausdenken, um Datenkollisionen vermeiden zu können. Er legte fest, dass jeder Sender zu einem bestimmten Zeitpunkt senden durfte, und nicht erst wenn es möglich gewesen wäre. Traten trotzdem Kollisionen auf, wurden die Datenpakete neu gesendet, wie eben in einem modernen Ethernetzwerk.

TCP/IP,  Unix und das erste EMail …

Im gleichen Jahr wurde es notwendig, die Übertragungsweise der Datenpakete ins Visier zu nehmen, da der Netzwerkverkehr ungewollte Ausmaße erreichte. Ein damaliger Student der UCLA, Vinton Cerf, testete zusammen mit Robert Kahn die Lastenfähigkeit des damaligen Protokolls „NCP – Network Control Protocol“. Cerf hatte damals schon die Vision eines Netzwerkprotolls, welches „Error-Detection“, „Packaging“ und „Routing“ unterstützte. So entstand das Protokoll „Transmission Control Protocol“. Das Team Kahn und Cerf – sie waren jetzt offiziell „The Internetworking Group“ – wurden auch von ARPA beauftragt, Möglichkeiten für die Zusammenschließung von heterogenen Netzwerken zu finden. Sie waren auch hauptsächlich daran beteiligt, als später, 1982, ein Versuch gestartet wurde, die europäischen Netzwerke, welche hauptsächlich auf dem X.25-Standard beruhten, zusammenzuführen.

Doch es gab noch mehrere wichtige Ereignisse in den 70er Jahren. Im Jahre 1970 entschlossen Wissenschaftler der Bell-Laboratories (Teil von AT&T) das vorhandene Betriebssystem Multics zu überarbeiten. Ken Thompson wurde anfangs alleine damit beauftragt, später stieß aber Dennies Richie dazu, der gleichzeitig die Programmiersprache „C“ entwickelte. Der Vorgänger von „C“ war „B“, welche aber wiederum von Thompson stammte!

Thompson entwickelte für den Multics-Nachfolger UNIX die erste Shell sowie den Zeileneditor „ed“. Ritchie verfasste 1971 das erste „UNIX Programmer’s Manual“. Zusammen mit Thompson erhielt er 1983 den Turing-Award von der „Association for Computing Machinery“ (kurz ACM) verliehen. Diese Auszeichnung ist vergleichbar mit dem Nobelpreis oder der Fields-Medaille.

Verleihung der Fields-Auszeichnung an Richie (Mitte) und Thompson (Links) in 1999
Verleihung der Fields-Auszeichnung an Richie (Mitte) und Thompson (Links)

Auf dem Foto oben wurden Richie (rechts) und Thompson im Weissen Haus von Präsident Bill Clinton in Empfang genommen. Ihnen wurde an diesem 27. April im Jahre 1999 die „US National Medal of Technology“ für Ihre Dienste bei den Bell-Labs verliehen.

Ein anderer Pionier, Ray Tomlinson,  machte sich auf und versuchte sich an einem Programm, in C verfaßt, um Nachrichten über das Arpa-Netzwerk zu versenden. Im Jahre 1972 wurden dann erstmals Emails versendet. Der MIT-Abgänger erkannte die Notwendigkeit einer festen Notation: <NAME AT HERKUNFT>, wie es heute Standard ist. Der Geschichte nach wußte Tomlinson nicht, welches Zeichen er von seiner „Model 33 Teletyp“-Tastatur entbehren konnte um die beiden Adressteile zu trennen, und so legte er sich auf das „@“ fest.

Was geschah noch in den 70er Jahren?

Die 70er Jahre waren bedeutend für die Entwicklung des späteren Internets. Arpa-Forscher stellten erste Blackboards und Diskussionsforen auf. 1972 entstand „SF-Lovers“, das erste Diskussionsforum für SF-Freaks, denn Armstrong kam „gerade“ von seiner Reise zurück. Die Firma Digital entwickelte DEC-Net, IBM führte das „System-Architecture-Network“ ein und Xerox rief das „Xeroxnetwork“ ins Leben; alle drei Firmen mit drei verschiedenen Netzwerken in einem Jahr (1974)! Als erste europäische Staaten wurden 1975 England und Norwegen in das bestehende Internet eingebunden. Im gleichen Jahr wurde die Berkley-Unix-Variante mit TCP/IP ausgestattet, und drei Jahre später war erstmals das UUCP-Protokoll im Einsatz. Das „UNIX to UNIX Copy Protocol“ wurde entwickelt um Daten per Telefonleitung zwischen zwei UNIX-Maschinen austauschen zu können. Heute ist UUCP für nahezu alle Rechnerplattformen zu finden, EMails im UNIX-Umfeld werden neben MIME ebenfalls mit UUCP versendet.

Durch die stetige Wachstumsrate der Teilnehmer im ARPANet entschied man sich auch für eine wissenschaftliche Datenbank. Von nun an wurden Fehlerprotokolle, Bemerkungen, Ideen und sogar Provokationen zentral gehalten und informell zwischen Wissenschaftlern ausgetauscht: Die RFCs, „Request for Commands“! Innerhalb 26 Jahren wurde eine Liste mit 1700 RFCs zusammengetragen.

Die 80er Jahre kamen…

Bisher waren Konzerne wie Xerox, Digital, IBM oder AT&T aus der neuen Branche nicht mehr wegzudenken. IBM schaffte 1981 den Durchbruch, als der erste Personalcomputer auf dem Markt erschien. Von nun an wuchsen „IT-Konzerne“, denn profitable Geschäfte mit den jungen PCs waren in greifbarer Nähe. Bob Metcalfe, ehemals Xerox-Wissenschaftler und ARPA-Pionier in den 70er, sah neue Wege, Computer in entsprechenden Netzwerken sinnvoll einzusetzen und gründete 3COM (Abk: Computer Comunications Compatibility). 3Com ist aus der IT-Branche nicht mehr wegzudenken! Vier 27jährige Studenten von Stanford und Berkley schlossen sich zusammen und stampften netzwerkfähige Workstations aus dem Boden, die schneller waren als damalige Mainfraimes, SUN war geboren. Ein Ehepaar, ebenfalls Studenten von Stanford gründeten einen Konzern, der heute richtungsweisend für Netzwerktechnologie ist: CISCO. Vier Programmierer der „University of Utah“ – man erinnere sich an die Anfänge der IMPs im Jahre 1969 – sahen 1984 die Notwendigkeit eines leistungsfähigen Netzwerk-Betriebssystem und codierten die „NOVELL Inc“ mit NETWARE ins Leben! Heute ist Netware zwar noch weit verbreitet, aber aufgrund des späten Umstiegs auf das TCP/IP-Protokoll nicht mehr die „No. 1“ unter den Betriebssystemen. Diesen Posten gab Novell Anfang bis Mitte der 90er an Microsofts „Windows NT“ ab. Trotzdem galt Novell Mitte der 80er Jahre als Standard.

Doch was war mit dem legendären ARPANet in den 80er Jahren? Ende der 70er Jahre teilen immer mehr Universitäten die Sympathie für ARPA und so geschah es, dass z.B. zwei Studenten der Duke-University ein UNIX-Shellscript schrieben, um Nachrichten über das UUCP versenden zu können. Unix wurde einfach der Renner! Immer mehr Universitäten schlossen sich an das ARPA-Netzwerk an, denn mit der steigenden Nachfrage wurde auch UNIX rentabel und auch für kleinere Universitäten erschwinglich. Langsam aber sicher entwickelte sich das ARPANet immer mehr zum USENET – das geschah noch vor 1980. Das USENET war im Prinzip das Arpanet für Firmen, Universitäten und Privatleute. Drei Studenten – Truscott, Ellis, Bellovin – eröffneten das erste Diskussionsforum im USENET und „hängten“ Schwarze Bretter auf. Politsich-heikle Themen wurden nun auch über das neue Medium diskutiert. Die ehemaligen Arpa-Wissenschaftler nannten das USENET zynisch „das ARPANET des armen Mannes“, da die meisten Teilnehmer nicht von ARPA waren. 1980 waren 15 Rechner dem USENET angeschlossen; 10 News wurden pro Tag ausgetauscht. Im Jahre 1985 waren es bereits 1300 Teilnehmer mit über 360 versendeten News pro Tag. Da das Datenaufkommen anstieg wurde eine Einteilung notwendig. Von nun an sollte es den Bereich Wissenschaft (sci), Freizeitgestaltung (rec), Computer (comp), soziale Angelegenheiten (soc) und Neuigkeiten/Nachrichten (news) geben!

Im Jahre 1982, wie oben besprochen, wollte ARPA zeigen, welche Eigenschaften das USENET auszeichnete, und demonstrierte erstmals die Möglichkeit, Informationen zwischen dem X.25 basierten Netzwerk in Europa (hieß später EURONet) auszutauschen. TCP/IP setzte sich auch hier durch!

Da auch das Verteidigungsministerium reges Interesse an dem neuen Netzwerk zeigte, spaltete sich 1983 das USENET in den Bereich MILNET auf, wobei die Bezeichnung USENET trotzdem beibehalten wurde.

Natürlich geschahen noch einige andere, bedeutende Ereignisse in den Achtziger Jahren. Eine weitere Geschichte ereignete sich im Jahre 1986 als IBM die erste Version der Skript-Sprache „SGML“, von ISO standardisieren lies (ISO:8879). Denn: SGML – ursprünglich entwickelt von Charles Goldfarb, Edward Mosher und Raymond Lorie in den 60er Jahren – ist der Vorreiter von HTML und XML, den derzeitigen Standardsprachen für Websites im Internet. SGML wurde als Grundlage für HTML weiterentwickelt.

Die 80er Jahre vergingen, die 90er Jahre kamen…

Der Mann, der für die heutige Standard-Skript-Sprache im World-Wide-Web in die Geschichte einging, ist Dr. Tim Berners-Lee. Der Wissenschaftler, (Brite, ehemaliger Oxfort-Absolvent) damals am CERN in der Schweiz, einer Einrichtung für Kernforschung beschäftigt, wollte – so die Geschichte – um 1989 ein Hypertext-Informationssystem entwickeln, damit er die wissenschaftlichen Forschungsergebnisse am Institut veröffentlichen konnte.

Tim Berners-Lee
Tim Berners-Lee

Für dieses Vorhaben entwickelte er den Browser WorldWideWeb sowie den ersten Webserver für das Betriebssystem NeXTSTEP (ein Produk der Firma NeXT gegründet von Steve Jobs). Er trat für die Maxime ein, dass seine Entdeckung frei bleiben sollte und verzichtete auf ein Patent. Berners-Lee wurde durch die Königin Elisabeth II. am 16. Juli 2004 zum „Knight Commander, Order of the British Empire“, also zum Ritter, geschlagen. Es ist Träger des Millenium-Technologiepreises sowie des Quadriga-Preises. Derzeit ist er Inhaber des 3Com Founders-Lehrstuhls am Laboratory for Computer Science des Massachusetts Institute of Technology (MIT).

Das Internet heute…

Um diese Geschichte des Internets abzurunden will ich hier noch einige bedeutende Zahlen präsentieren: Heute, im Jahre 2006, nach dem 35. Geburtstag des Internets und dem 25. Geburtstag des Personalcomputers, geht man von einer Internet-Wachstumsrate von ca. 1% pro Tag aus. Daraus errechnet sich alle 10 Wochen eine Verdopplung des Informationsvolumens. Mehrere Hundert Millionen Benutzer sind täglich im World-Wide-Web unterwegs, wobei auch diese Zahl enorm steigt. Internet-Backbones wie SEAMEWE, Übertragungsleitungen mit mehr als 20 GBit/Sek Volumen, reichen über eine Streck von 30.000 Kilometer von Australien bis Europa und garantieren für eine sichere Verbindung. Die NASA forscht bereits jetzt an einem interplanetaren Netzwerk, welches künftige Stationen auf dem Mars mit der Erde verbinden wird. Domain-Namen wie „MyComputer.Mars.SOL“ sind nicht mehr Utopie. Das legendäre TCP/IP – Protokoll wird in 3 bis 4 Jahren einer weitreichenden Änderung unterworfen werden, denn die Anzahl der dem Internet angeschlossenen Computer steigt über die Anzahl, die mit TCP/IP gezählt und verwaltet werden können.