Der Personal Computeridiot

1. Geschichtliches zur Hardware:
Genau genommen sind Rechenmaschinen eigentlich ein alter Hut, denn schon 1000 vor Christus wurde in China eine mechanische Rechenmaschine entwickelt, mit deren Hilfe man einfache Rechnungen ausführen konnte. Unter dem Namen Abakus fand dieses mit Kugeln bestückte Gerät lange Zeit in verschiedenen Teilen Asiens Verwendung. Auch hierzulande ist der Rechenschieber nicht unbekannt, arbeitete er doch zu Omas Zeiten sogar völlig stromlos. Der Wunsch nach schnelleren, genaueren und komfortableren Rechenmaschinen veranlasste jahrhundertlang viele Gehirnakrobaten dazu, sich Prinzipien und Modelle auszudenken. Darunter befanden sich Wilhelm Schickard und Gottfried Wilhelm Leibniz, die im sechzehnten Jahrhundert bereits Modelle beschrieben, die durchaus funktionstüchtig gewesen wären, wenn man die nötige feinmechanische Präzision gehabt hätte, um sie zu verwirklichen. Leibniz trägt übrigens die Schuld für das Binärsystem, welches er 1679 erfunden hat. Selbst die Idee programmierbarer Rechenmaschinen kam schon Mitte des 18. Jahrhunderts auf.
Die eigentliche Computerentwicklung begann dann 1934, als der 26-jährige deutsche Ingenieur Konrad Zuse aus selbst gesägten Blechen mechanische Schaltglieder fertigte, ähnlich den heutigen Relais. Seine Arbeit dauerte nur knapp zwei Jahre, und schon konnte auf diesem Ungetüm (Z1 genannt) gerechnet werden. Nur dumm, dass dabei auch gleich das gesamte Wohnzimmer seiner Eltern vollständig ausgefüllt wurde. Weitere Versionen folgten, bis die Z3 mit ihren 2000 Relais dann für den militärischen Einsatz ihre Dienste leistete und 1944 im Krieg vollends zerstört wurde. Mit ihr wurde übrigens der Grundstein zur heutigen Siemens-Nixdorf AG gelegt. Zur selben Zeit klapperte dann in Amerika die von Howard Aiken erfundene Mark 1 noch mit ihren über 3000 elektrischen Relais, obwohl zwei Jahre vorher bereits die ersten Computer auf Röhrenbasis entstanden. Elektronikröhren konnten bis zu zehntausendmal in der Sekunde schalten, während es die Relais auf gemütliche 10 Operationen in derselben Zeitspanne brachten. Ob Röhren oder Relais, ständig mussten defekte Elemente ausgetauscht werden, und bei dieser Menge war natürlich andauernd irgend ein Bauteil kaputt.
Der Durchbruch gelang 1947 mit der Erfindung des Transistors durch die Amerikaner Shockley, Bardeen und Brattain. Diese Transistoren waren nicht nur zehnmal kleiner als Röhren und Relais, sondern konnten auch hundertmal schneller schalten. Und genau diese Schaltvorgänge machen die Rechengeschwindigkeit eines Computers aus. Eine Million Schaltungen pro Sekunde hörte sich schon unfassbar an, und die ersten Rechner auf Transistorbasis wurden gebaut. Später war man in der Lage, Transistoren auf Planarbasis, also flach, zu fertigen und benötigte deshalb wesentlich weniger Platz, so dass man bis zu tausend solcher Schaltelemente auf einem Kubikzentimeter unterbrachte.
Durch ständige Miniaturisierung konnten 1958 erste integrierte Schaltungen (ICs) entwickelt werden, welche es dann auf bis zu 10 Millionen Schaltoperationen pro Sekunde (MHz) brachten. Immer kleiner und kleiner werdend, entstanden dann die hochintegrierten Schaltungen. Diese sind heute in der Lage, ab 100 Millionen Schaltungen pro Sekunde aufwärts zu operieren. Die Chips (Scheibchen) werden aus speziell gezüchteten Siliziumkristallen geschnitten und in mehreren aufwendigen Arbeitsschritten mit Leiterbahnen versehen. Dies geschieht durch Oxidation, Ätzung und Diffusion. Dabei werden bestimmte Schaltmuster durch gezieltes Belichten über eine mikroskopische Maske auf einer dünn aufgetragenen Polymerschicht abgebildet, die dann später durch spezielle Chemikalien abgeätzt wird. Dadurch werden die Schaltbahnen auf dem Halbleitermetall Silizium wieder frei. In der Folge wird das Silizium dann durch weitere Chemikalien verunreinigt, man spricht von dotieren, um so die Transistorfähigkeit zu gewinnen. Mehrere solcher Vorgänge sind nötig, um bis zu zehn Ebenen übereinander zulegen. Auf einer einzigen, hauchdünnen Siliziumscheibe finden dann bis zu hundert Chips ihren Platz. Aus ihr werden dann die einzelnen Chips herausgeschnitten und geprüft. Sind sie funktionstüchtig, so werden sie anschließend in einen Plastikrahmen gesetzt und mit Füßchen versehen. Das Endprodukt sehen Sie dann auf Ihrem Mainboard in einem Sockel sitzen.
Die Miniaturisierung wird immer weiter vorangetrieben, strebt aber demnächst einem Ende zu, weil man an die physikalischen Grenzen der Elektronik stößt. Zum einen erwärmen sich durch den ohmschen Widerstand der Leiterbahnen die Chips derart, dass es zu einer Funktionsuntauglichkeit und sogar zur Zerstörung kommen kann. An der Oberfläche eines 486er mit 33 MHz Taktfrequenz sind Temperaturen bis zu 80 Grad Celsius keine Seltenheit. Bei noch höheren Taktraten und Leistungen droht daher der Ausfall. Ein anderes Problem stellt die Schaltzeit selbst dar, denn dieser Vorgang benötigt natürlich auch Zeit. Ist diese auch nahezu unendlich klein, so summiert sich dieses »fast Nichts« bei über 100 Millionen Schaltungen pro Sekunde doch zu einer ärgerlichen Größe. Schließlich gesellt sich noch ein Hochfrequenzproblem hinzu, weil die Leiterbahnen durch die hohe Taktfrequenz wie eine Antenne fungieren und so falsche Impulse (Elektronenübersprünge) auffangen können. In der Folge rechnet der Chip dann nicht mehr einwandfrei.
Die heutigen Entwicklungs- und Forschungskosten sind bereits in astronomische Höhen geklettert und versperren somit kleineren Firmen den Weg zur Chipherstellung. Erfreulich ist dabei die noch schneller ansteigende Integrationsdichte, die letztendlich dafür verantwortlich ist, dass die Prozessoren immer billiger werden. Erste Entwicklungen gehen von elektronischen Prozessoren hin zu optischen, die dann nicht mehr mit Strom, sondern mit Lichtimpulsen arbeiten, und man hofft, damit vielen Problemen aus dem Weg zu gehen. Die drei genannten Hauptprobleme fallen bei optischen Chips natürlich nicht an. Ob dieser Entwicklung Bedeutung zukommt, wird die Zukunft zeigen.
Eine andere Richtung wird mit so genannten Biochips eingeschlagen, an denen im IBM-Labor geforscht wurde. Sie bestehen aus organischen Substanzen, die zwei verschiedene elektrische Zustände annehmen können. Ideal also, um die Schalterfunktion für die binäre Computertechnologie anzunehmen. Der größte Trumpf dabei ist aber, dass man diese Substanzen dreidimensional anordnen und so komplexere Schaltungen auf weniger Raum verwirklichen kann.
Anfang der 70er Jahre entwickelten viele Hersteller eigene Mikrochips, die auch gleich mit den Gehäusen ausgeliefert wurden. Von Standard oder flexibler Erweiterbarkeit war hier natürlich nicht zu sprechen. Die erste Firma, die dann ein offenes System auf den Markt brachte, war IBM (abkürzend für International Business Machines, Internationale Büromaschinen). Die eingesetzten Mikroprozessoren wurden jedoch nicht selbst entwickelt, sondern von der Firma INTEL, die schon seit gut zehn Jahren mit mäßigem Erfolg Chips herstellte, übernommen.

CPUs:
1968 wurde die Firma INTEL ins Leben gerufen und stellte 1970 ihren ersten Mikroprozessor mit der Bezeichnung 8008 vor. Dieser war in der Lage, 4 Bit gleichzeitig zu verarbeiten. Seinen Haupteinsatz fand er im Hobbykeller vieler Bastler und Elektroniker dar.
Sein Nachfolger wurde 1974 unter der Bezeichnung 8080 veröffentlicht und konnte 8 Bit gleichzeitig verarbeiten. Er arbeitete mit einer Taktfrequenz von 1 MHz und fand bei den Bastlern ein noch größeres Interesse. Auf dem Markt erschienen daher viele Bausätze mit diesem Chip, weshalb er wieder hauptsächlich für die Anlagensteuerung herhalten musste.
Nach dieser zweiten Generation entwickelten die Ingenieure von INTEL 1979 den 8086 mit 16 Bit Busbreite und 4,77 MHz Taktfrequenz. Er war in der Lage, zwei Byte gleichzeitig verarbeiten zu können. Allerdings nur intern, da er mit seiner Außenwelt nur 8 Bit austauschen konnte. Diese dritte Generation verdiente nun den Namen Computer bereits, war aber noch zu teuer, um einen großen Siegeszug zu halten. Deshalb entschied sich INTEL auch, einen weiteren 8-Bit-Prozessor zu bauen. Unter der Bezeichnung 8088 fand er durch sein Preis/Leistungsverhältnis bei den Leuten von IBM Gefallen. Die Büromaschinenfirma entschloss sich 1981, ihn fortan als Schaltzentrale in ihre Rechnern einzusetzen. Diese Symbiose war es auch, die INTEL und IBM den damaligen Erfolg einbrachte. Jahrelang war dieses Gespann weltweiter Marktführer, heute bröckelt es aber schon am Gestein, weil man die eine oder andere Entwicklung einfach übersehen hatte.

Mit der Bezeichnung 80286 kam dann ein Prozessor mit vollwertigem 16-Bit- Bus auf den Markt und wurde auch gleich von IBM in die AT-Rechnerklasse eingebaut (AT steht für advanced Technology). Mit seinen 24 Adressleitungen konnte der 80286 jetzt 16 MByte Hauptspeicher adressieren. Erstaunlich aber war die Abwärtskompatibilität zu den alten Rechnerklassen der XT- und PC-Serie. Abwärtskompatibilität bedeutet, dass der neue 16-Bit-Rechner auch mit der Software der 8-Bit-Kollegen betrieben werden konnte. Speziell für den neuen 80286 geschriebene Programme waren natürlich leistungsfähiger, weil sie auf die Möglichkeiten des Prozessors zugeschnitten waren.
Diese Kompatibilität erreichte man durch die Möglichkeit, den Prozessor in zwei verschiedenen Modi zu betreiben. Im Real Mode verhielt sich der 80286 wie ein 8088/8086, nur viel schneller. Typisch für diesen Modus ist die feste Einteilung des Speichers für bestimmte Aufgaben. Die Programmierung wurde dadurch wesentlich vereinfacht. Durch den Real Mode war die gesamte Palette der MS-DOS-Programme auf den 286ern lauffähig. MS-DOS (für Microsoft Disk Operating System) war auf diesen Modus zugeschnitten und läuft ausschließlich in Diesem. Der zweite Modus nennt sich Protected Mode (geschützter Modus), und in ihm gibt es keine feste Speichereinteilung mehr. Schließlich muss er sich darum kümmern, dass abgelegte Daten auch wieder an derselben Stelle gefunden werden, ohne in der Zwischenzeit von anderen Daten überschrieben worden zu sein, die Daten dort also geschützt werden. Damit wuchs auch der Programmieraufwand, weshalb dieser Modus in seiner Anfangszeit eher stiefmütterlich behandelt wurde. Großer Nachteil ist jedoch, dass man aus dem Real Mode im laufenden Betrieb nicht mehr in den Protected Mode wechseln konnte, zumindest nicht durch einen Maschinenbefehl, wie bei den Prozessoren höherer Klassen.

1986 wurde dann mit dem 80386-Prozessor die fünfte Prozessorgeneration eingeläutet. Diese leistungsfähigen Prozessoren verfügen über einen 32-Bit-Adreßbus und sind damit der Lage, bis zu 4 GByte, zu adressieren. Ein GByte entspricht genau 1024 MByte, so dass ein 386er über viertausend mal mehr Speicher ansprechen kann als die alten 8088-Prozessoren. Zudem arbeitet er intern und extern mit 32 Bit breiten Daten. Ansonsten bietet er wie sein Vorgänger den Real Mode und den Protected Mode und zusätzlich noch einen Modus mit der Bezeichnung Virtual Real Mode. In diesem Modus kann sich ein Prozessor wie mehrere 8088- bzw. 8086-Prozessoren verhalten, er hat also quasi mehrere Real Modes zur Verfügung. In jedem dieser Real Modes kann dann ein Programm ablaufen, ohne eines der anderen zu stören. Ihm wird dann vorgegaukelt, es liefe auf einem eigenen PC/XT mit 1 MByte Speicher. Diese Fähigkeit wird Multitasking genannt (»Multi Task« bedeutet »mehrere Aufgaben«). Die grafischen Benutzeroberflächen Windows und OS/2 können zum Beispiel in diesem Modus arbeiten. Der Anwender hat dann die Möglichkeit, auf Tastendruck zwischen den verschiedenen Programmen zu wechseln, und findet diese immer in dem Zustand wieder vor, in dem er sie verlassen hat. Ein weiterer Vorteil des neuen Prozessors ist ein größerer Befehlssatz und die Möglichkeit, virtuellen Speicher zu benützen. Virtueller Speicher heißt soviel wie »vorgegaukelter Speicher«, denn der virtuelle Speicher hat nichts mit dem tatsächlichen Hauptspeicher des Computers zu tun. Vielmehr ist er eine Verlängerung dessen auf die Festplatte. Das bedeutet, dass Festplattenspeicher genauso genutzt und angesprochen werden kann wie echter Hauptspeicher. Damit ist der Rechner in der Lage, bis zu 64 Terabyte anzusprechen. Dazu muss man aber erwähnen, dass dieser virtuelle Speicher natürlich um einiges langsamer ist als richtiger Speicher und zwar abhängig von den verwendeten Festplatten und Controllern. Nachdem MS-DOS für den Real Mode geschrieben ist, steht virtueller Speicher in dieser Form natürlich nicht zur Verfügung. Jedoch bieten Betriebssysteme wie OS/2, Windows, Unix oder das Netzwerkbetriebssystem Novell NetWare diese Möglichkeit. Die 80386-Prozessoren werden üblicherweise mit 20, 25, 33 oder 50 MHz betrieben.

1989 wurde schließlich INTELs sechste Prozessorgeneration mit dem Flaggschiff i486 gezeugt. Der neue Chip der 80x86-Reihe - so die Bezeichnung aller Chips der INTEL-Serie ab dem 8086 - stellt keine weiteren neuen Modi oder Eigenschaften zur Verfügung, sondern er ist vielmehr einfach als in der Leistung verbesserter 386er zu sehen. Durch die Miniaturisierung gelang es, auf diesem Chip mehrere, bis dahin einzelne Chips zu integrieren. So findet sich im Gehäuse eines i486 (i steht übrigens für Integrated) serienmäßig bereits ein Coprozessor und ein 8-KByte-Cache. Durch die nun drastisch verkürzten Leiterbahnen konnte man die Rechengeschwindigkeit deutlich erhöhen. Mussten sonst die Rechendaten vom Prozessor zum oft mehrere Zentimeter entfernten Coprozessor über Leitungsbahnen des Mainboards und zurück transportiert werden, so hat sich dieser Weg jetzt auf ein paar Millimeter im selben Gehäuse verkürzt. Ein Coprozessor wird für spezielle Fließkommaberechnungen eingesetzt. Durch eine wachsende Anzahl an Programmen, die den Coprozessor unterstützen, macht es deshalb Sinn, ihn als Einheit mit der CPU (Central Prozessing Unit = zentrale Befehlseinheit) auszuliefern. Einen weiteren Zeitgewinn erzielt man durch den sogenannten Cache. Dazu müssen wir uns noch einmal vergegenwärtigen, dass der Zugriff auf den Hauptspeicher, im Gegensatz zur Prozessorgeschwindigkeit, langsam über die Bühne geht. Je nach verwendeten Speicherchips muss der Prozessor dann sogenannte Waitstates (Wartezeiten) einlegen, was natürlich die Rechenleistung reduziert. Der Trick besteht nun darin, dass die CPU, statt die Daten aus dem Hauptspeicher zu holen, direkt auf den schnellen Cache-Speicher zugreift und damit Waitstates umgeht. Durch die Integration auf einem Chip ist auch der Cache, der bisher irgendwo auf dem Mainboard saß, um einiges schneller. Zudem wurden auf dem i486 ausgeklügelte Verfahren wie das Pipelining und ein RISC Befehlssatz verwendet, womit er bis zu viermal schneller ist als gleich getaktete 386er. Schon lange erkannte man, dass die CPU um so schneller ist, je weniger Befehle es gibt. In Workstations und Großrechner ist RISC schon lange ein alter Hut. Des Weiteren wurde beim i486 die Integrationsdichte erhöht, so dass man auf einem einzigen Chip nun 1.200.000 Transistoren unterbringt.

1993 kam dann als siebte Generation ein Prozessor namens Pentium (i586), auf den Markt, dabei wurde, aus patentrechtlichen Gründen (Zahlen auf einem Produkt kann man nicht schützen lassen), erstmals ein richtiger Name für die CPU vergeben. Er stellt eine Weiterentwicklung des i486 dar, bei der Pipelining, Cache und RISC Verfahren noch ausgeklügelter sind. Die Integrationsdichte ist von 1,2 Millionen auf unfassbare 3 Millionen Transistoren gestiegen. Dabei wurde eine Taktfrequenz von 50 MHz bis zu 300 MHz erreicht. Eine eingebaute 80386-Einheit erhält die Abwärtskompatibilität des Hauses aufrecht. Der Pentium Prozessor legt mit allen Raffinessen bis zu 100 MIPS an den Tag. MIPS steht für Million Instructions Per Second, also eine Million Befehle pro Sekunde. Damit verwischen die Grenzen zu Workstations und Großrechnern.
Zu den Intel Prozessoren gibt es auch eine preisgünstige Alternative: Der Hersteller AMD fertigt kompatible Prozessoren mit etwas anderer Technologie. Während Intel die Rechengeschwindigkeit aus der Taktrate gewinnt, setzt AMD auf andere Befehlssätze im Prozessor.

1997 wurde INTELs neueste CPU ins Leben gerufen. Die Pentium II Prozessoren, die inzwischen mit unglaublichen 400 MHz getaktet werden, haben eine völlig neue Bauform, ähnlich einer Steckkarte, um die Konkurrenz von AMD und IBM, deren Prozessoren denen von INTEL kaum mehr nachstehen, etwas auszubremsen. Zurzeit werden die Pentium II ausschließlich von INTEL gebaut. Die MMX - Technologie (Multi Media Extention = Sound und Video Erweiterung), die einige zusätzliche Befehle enthält und teilweise erstmals in den normalen Pentium Prozessoren eingesetzt wurde, ist hier jetzt standardmäßig integriert.

1999 erschien der INTEL Pentium III und der AMD Athlon Prozessor und zum ersten Mal ist die Konkurrenz schneller als das Original von Intel.

2000 überschreiten die Prozessoren beider Hersteller die 1 GHz Grenze, Intel entwickelt den Pentium 4 Prozessor, der anfangs noch teure RAMBUS Speicher benötigt.

2006 hat Intel wieder die Nase in der Prozessorentwicklung vorn. Die Taktraten der Intel und AMD CPUs werden wieder unter 3GHz reduziert, wodurch sich die Wärmeentwicklung und Stromaufnahme verringert, dafür werden aber 2 bzw. 4 Prozessorkerne in einem Gehäuse integriert. Außerdem wird die Energieaufnahme forciert verringert, daher sollten Sie im Bios die Optionen EIST bzw. CoolnQuiet aktivieren.

Festplatten:
Feinmechanische Präzisionstechnik, die sich in einem unscheinbaren Metallgehäuse versteckt beinhaltet die Festplatte. Das Herzstück bilden die fest eingebauten, rotierende Aluminium-Scheiben mit beidseitig elektromagnetischer Oberfläche, über denen, an beweglichen Armen, die Schreib-/Leseköpfe schweben. Sie magnetisieren die Oberfläche der Scheiben beim Schreiben in eine von zwei möglichen Richtungen, die für die binäre 1 oder 0 steht. Scheiben und Köpfe sind von der restlichen Elektronik sicher abgekapselt, damit Staub und Feuchtigkeit keine Chance haben.
Die Kopfeinheiten sind extrem kleine, komplexe Gebilde. Sie und die beweglichen Arme, an denen sie sich befinden, sind nach aerodynamischen Kriterien geformt. Die Köpfe berühren die Scheiben nicht, sondern schweben in einer Höhe von circa 25 Nanometern über den rotierenden Scheiben. Solch ein geringer Abstand ist nötig, damit die Signalübertragung von der Platte zum Kopf stark genug ist. Auf eine direkte Berührung verzichten die Plattenhersteller, da sich dadurch die Oberfläche und der Kopf zu sehr abnutzen würden.
Die Daten werden in Spuren geschrieben. Diese kann man sich als eng aneinander liegende Kreise vorstellen, die zur Mitte der Magnetscheibe hin immer kleiner werden. Die Spuren sind in mehrere Sektoren unterteilt. Diese fassen in der Regel je 512 Byte. Mehre Sektoren ergeben auf Dateisystemebene zusammen einen Cluster. Besitzt eine Festplatte mehrere Magnetscheiben, bezeichnet man die jeweils übereinander liegenden Spuren als Zylinder. Für jede der Scheiben gibt es einen eigenen Schreib-/Lesekopf. Diese sind so verbunden, dass sie immer auf denselben Zylinder positionieren. Dadurch wird besonders beim Lesen und Schreiben von großen Dateien eine hohe Übertragungsrate erreicht.
Nach diesem Exkurs über die Grundlagen der Festplattentechnik geht es jetzt an die Bereiche, mit denen Sie als Anwender in Berührung kommen und die Sie mit Spezialtools anpassen können.
Damit Sie auf einer fabrikneuen Festplatte Daten ablegen können, müssen Sie mindestens eine Partition anlegen und sie anschließend mit einem Dateisystem formatieren. Eine Partition ist ein Bereich von zusammenhängendem Speicherplatz, der unter einem eigenen Laufwerksbuchstaben angesprochen wird. In vielen Fällen ist es sinnvoll, die Festplatte in mehrere Partitionen aufzuteilen. Auch, wenn Sie nur ein Betriebssystem nutzen, sollten Sie mindestens zwei Partitionen besitzen. Auf die Erste kommt Windows, und auf der Zweiten speichern Sie alle Daten, die Sie selbst erstellt haben. Wenn das System eines Tages nicht mehr läuft, können Sie bedenkenlos die Systempartition löschen und neu anlegen, ohne Angst vor einem Datenverlust haben zu müssen.

2. Software:
Um die Bedeutung eines Betriebssystems zu verstehen, wollen wir einen kleinen Abstecher in die Anfangszeiten der Entstehung der Personal Computer machen. Die ersten Personal Computer bestanden eigentlich nur aus der Hardware, also dem Prozessor, der die Rechenarbeit erledigte. Programme, die entweder über Lochstreifen, kleine Schalter oder die Tastatur in den PC eingegeben bzw. geladen wurden, waren wieder aus dem PC verschwunden, nachdem er ausgeschaltet wurde. Dies war natürlich kein befriedigender Zustand, da jedes Ausführen eines Programms mit dem aufwendigen Laden verbunden war. Die Lösung für das Problem waren Disketten, auf denen die Programme und auch Daten, die mit den Programmen bearbeitet wurden, abgespeichert werden. Die Programmroutinen, die das Abspeichern auf der Diskette erledigten, mussten von den Entwicklern des Programms erstellt werden. Die Programmierer hatten keine Möglichkeit, auf fertige Routinen zurückzugreifen, da die ersten PCs ohne ein Betriebssystem ausgeliefert wurden.
Die nächste Stufe der PC-Geschichte war die Entwicklung eines »Disc Operation System«, abgekürzt DOS. Die Aufgabe von DOS war es, Entwicklern von Anwendungsprogrammen die Basisroutinen zum Ansteuern der Hardware, also auch die zum Ansteuern eines Diskettenlaufwerkes, abzunehmen, und diese Routinen allen Programmen in Form einer Basissoftware, des Betriebssystems, zur Verfügung zu stellen.

Der Vorgang, der sich beim Einschalten eines PCs automatisch abspielt, ist der Bootvorgang mit dem das Betriebssystem geladen wird. Mit dem Booten wird als erstes die Hardware des PCs einem Selbsttest, im Fachjargon »POST« (Power On Self Test) unterzogen. Dabei überprüft die Hardware sich selbst. Der Arbeitsspeicher des PCs wird getestet, die vorhandenen Laufwerke werden ermittelt und die Funktionsfähigkeit der Tastatur wird überprüft. Sind diese Tests erfolgreich verlaufen, versucht der PC, das Betriebssystem zu laden. Dazu ist in der Hardware des PCs ein kleines Programm vorhanden, das BIOS, welches von einer vorgegebenen Stelle der Diskette oder Festplatte das sogenannte Ladeprogramm in den Arbeitsspeicher liest und dann aufruft. Wenn dieses Ladeprogramm nicht gefunden werden kann, erhalten Sie lediglich die lapidare Meldung »Kein Betriebssystem vorhanden«. Das Betriebssystem nimmt Ihnen als Anwender viele Aufgaben ab und stellt Ihnen unerlässliche Dienste zur Verfügung. Es regelt als Softwareprogramm höchster Priorität das Zusammenspiel der Hardwarekomponenten und sorgt für deren reibungslosen Datenaustausch. Das Betriebssystem verwaltet für Sie das Dateisystem und übernimmt die Wartung des Inhaltsverzeichnisses. Außerdem sorgt es dafür, dass mehrere Prozesse oder Programme ablaufen und zusammenarbeiten können, ohne sich gegenseitig zu stören oder zu überschreiben. Nur durch das Betriebssystem ist es möglich, eigene Anwendungen und Programme auf dem Rechner zu erstellen und ablaufen zu lassen. Denn auch diesen Programmen wird einiges an Unterstützung und Hilfe angeboten, um mit der Hardware kooperieren zu können. Sie schreiben z.B. gerade mit Ihrem Textprogramm einen Brief. Dieser Brief soll nun auf der Diskette abgespeichert werden. Wenn Sie den Befehl »Speichern« geben, überträgt das Textprogramm diese Aufgabe dem Betriebssystem. Das Textprogramm erteilt dem Betriebssystem den Auftrag zum Speichern der Datei. Die Hardware alleine kann noch nicht als Computer angesehen werden. Selbst wenn Sie den schnellsten Prozessor, das teuerste Motherboard und die größte und schnellste Festplatte haben, nutzt Ihnen das ohne Betriebssystem rein gar nichts. Sie müssten sonst dem Prozessor zuerst einmal ein Programm geben, damit er in der Lage ist, mit den Komponenten, aus denen das Gesamtsystem zusammengebaut ist, zu kooperieren und diese in geschickter Weise zu steuern.
Darüber hinaus erhält der Anwender eine Reihe von Befehlen, mit denen er beispielsweise Dateien kopieren, die Festplatte optimieren oder andere sinnvolle Dinge tun kann. Fakt ist, dass ohne das Betriebssystem im Rechner überhaupt nichts läuft. Daher müssen grundlegende Teile des Betriebssystems nach dem Einschalten des Rechners von der Diskette oder Festplatte in den Arbeitsspeicher gelesen werden, um während der gesamten Zeit der Nutzung des Rechners vorhanden zu sein. Wenn das Betriebssystem geladen werden kann, Sie erkennen dies bei MS-DOS 6.22 an der Meldung »Starten von MS-DOS«, die auf dem Bildschirm ausgegeben wird, werden die beiden Startdateien CONFIG.SYS und AUTOEXEC.BAT gesucht, und die dort enthaltenen Befehle ausgeführt. Diese beiden Dateien legen die Konfiguration des PCs fest. Nach erfolgreichem Laden des Betriebssystems sehen Sie die Meldung »C:\>« auf dem Bildschirm. Nun sind Sie an der Reihe und können einen DOS-Befehl eingeben.

Irgendjemand muss dieses Betriebssystem natürlich einmal schreiben, und zwar möglichst so, dass es dem Anwender nicht allzu schwer fällt, damit umzugehen. Und nicht nur das, es muss auch von der Mehrzahl der Anwender und Computerhersteller soweit akzeptiert werden, dass es sich als Standard durchsetzt.
Und genau das ist auch geschehen. Im Juli 1981 kaufte ein Zwei-Mann-Unternehmen die Rechte an dem ersten Betriebssystem 86-DOS. Geleitet wurde das Unternehmen von einem gewissen Bill Gates, der auch heute noch der Boss dieser Firma ist, die unter dem Namen Microsoft aus der Computerbranche nicht mehr wegzudenken ist. Kurz danach brachte Microsoft dann die MS-DOS-Version 1.0 auf den Markt, die auch mit den Rechnern der Firma IBM ausgeliefert wurde. Der Begriff DOS ist die Abkürzung für den englischen Ausdruck »Disc Operation System«, was so viel bedeutet wie Diskettenbetriebssystem. Die Abkürzung MS steht für die Firma Microsoft, die dieses Betriebssystem entwickelt und vertreibt, und damit zum wichtigsten Softwareproduzenten der PC-Welt wurde, Bill Gates ist nebenbei zum reichsten Mann der Welt geworden und MS-DOS wird schon lange als Standard anerkannt. Das heißt aber nicht gleichzeitig, dass es auch das beste Betriebssystem ist, denn gerade für die neueste Hardware (ab 80386) ist es eigentlich nicht leistungsfähig genug und schöpft die Möglichkeiten der neuen Prozessoren nicht aus. Das liegt aber nicht daran, dass man es nicht besser programmieren konnte, sondern an der stets aufrechtzuerhaltenden Kompatibilität zu den alten Prozessorklassen. Nur dadurch ist gewährleistet, dass die gängige Software auch auf den neuen Rechnern läuft. Einige Fehler und die Anpassung an die ständig verbesserte Hardware machten es notwendig, laufend neue Versionen des Betriebssystems MS-DOS zu entwickeln. Um aber die Prozessorleistung voll auszunutzen, gibt es Betriebssystemerweiterungen wie z.B. Windows, das sich auch immer mehr als Standard durchsetzt, nicht zuletzt deswegen, weil es ebenfalls von Microsoft ist.
Die MS-DOS Version 3.3 unterstützt dann auch die 3½” Diskette mit 1,44-MByte-Kapazität gleichen Formates. Und ab der Version 4.0 können dann endlich Festplatten größer als 32 MByte als Ganzes verwaltet werden, d.h. ohne sie partitionieren zu müssen.
Nachdem das Betriebssystem ein Programm ist, ist klar, dass es einen bestimmten Teil des Speichers belegt und für sich beansprucht, der dann für den Anwender und seine Programme verloren ist. So belegt DOS 5.0 etwas mehr als 61 KByte des konventionellen Speichers, also knapp zehn Prozent, sofern es nicht in den High-Memory-Bereich ausgelagert ist. Bedenkt man, dass lange Zeit nur 640 KByte konventioneller DOS- Speicher zur Verfügung standen, dann ist klar, dass DOS möglichst wenig Platz belegen sollte. Hier musste also ein Kompromiss zwischen Leistungsfähigkeit und Speicherbelegung gefunden werden. Aus diesem Grund wurden nur die wichtigsten Funktionen und Befehle, die ständig gebraucht werden, in den Betriebssystemkern aufgenommen. Und dieser Kern ist es dann, der beim »Hochfahren« des Rechners in den Speicher geladen wird und dort die oben genannten 61 KByte belegt. Die von ihm zur Verfügung gestellten Befehle nennt man aus diesem Grund »interne Befehle«. Zu diesen zählt zum Beispiel der Befehl »DIR«, der den Inhalt eines Verzeichnisses auflistet und vielleicht sogar der am meisten benötigte Befehl ist. Ebenso zählen der Verzeichniswechselbefehl »CD«, der Kopierbefehl »COPY« und der Löschbefehl »DEL« zu den internen Befehlen.
Externe Befehle stehen nicht sofort zur Verfügung, sind also nicht im Speicher abgelegt, sondern befinden sich auf der Festplatte, von wo sie bei Bedarf geladen und gestartet werden. Der Benutzer merkt diesen Vorgang eigentlich kaum, außer dass hier kurz die Festplatten LED aufblinkt. Er tippt den Befehl wie gewohnt ein und wartet auf das Ergebnis. Aber im Gegensatz zu den internen Befehlen gibt es den Befehl für DOS gar nicht, so dass als nächstes die Suche im aktuellen Verzeichnis losgeht. Das passiert immer dann, wenn DOS die Eingabe nicht als internen Befehl interpretieren kann, also auch bei Tippfehlern.
Findet sich im Verzeichnis eine Datei, die den Namen der Eingabe und die Endung ».EXE«, ».COM« oder ».BAT« trägt, dann wird genau dieses Programm ausgeführt.
Ist das nicht der Fall, dann sucht DOS in allen Verzeichnissen nach, die in der Pfadangabe »PATH« aufgezählt sind. Wird die Datei auch dort nicht gefunden, dann erscheint die Meldung »Befehl oder Dateiname nicht gefunden«. Wird die Datei in einem der unter »PATH« angegebenen Verzeichnisse gefunden, dann wird sie von dort gestartet. Das ist auch der Grund, weshalb die Eingabe »FORMAT A:« zur gewünschten Formatierung der Diskette in Laufwerk A führt, obwohl der Formatbefehl kein interner, sondern ein externer Befehl ist. Ein externer Befehl bedeutet, dass es eine Datei mit der Endung ».EXE« oder ».COM« gibt. In diesem Fall heißt die Datei FORMAT.COM und befindet sich im Verzeichnis DOS, in dem alle externen Befehle von DOS untergebracht sind. Wenn Sie also an irgendeiner Stelle im Dateisystem den Befehl »FORMAT A:« absetzen, dann wird aufgrund des Pfades, der stets das Wurzelverzeichnis und das Verzeichnis DOS enthalten soll, das Programm FORMAT.COM gestartet, das seinerseits alle nachfolgenden Abfragen und Formatierungen durchführt. Zu den externen Befehlen zählen unter anderem auch DOSKEY (Befehlswiederholung), XCOPY (Kopierbefehl) und SYS zum Übertragen der Systemdateien auf ein anderes Speichermedium.
Je besser ein Betriebssystem arbeitet, umso weniger wird es der Anwender bemerken und sich mit ihm beschäftigen müssen. In der Regel ist es für den Anwender also vollkommen uninteressant, ob der Befehl nun intern oder extern ist, der Unterschied in der Wartezeit ist minimal. Der vom Betriebssystemkern belegte Speicher wiederum ist für den Anwender sehr wichtig, und da möchte er natürlich kleinste Werte sehen. Aus diesem Grund soll der Anwender auch gar nicht das Gefühl bekommen, dass die eingetippten Befehle eigentlich gar keine Befehle sind, sondern Programme. Neben DOS gibt es natürlich noch andere Betriebssysteme, die auf dem PC eingesetzt werden können. Diese kommen meist aus der Welt der Großrechner und sind speziell nur für die leistungsfähigeren Rechnerklassen mindestens 80386DX geschrieben.
DOS ist nur mit Betriebssystemerweiterungen wie Windows oder ähnlichem in der Lage, mehrere Programme gleichzeitig laufen zu lassen, also Multitasking zu betreiben. Bei genügend großem Speicher, ab ca. 2 MByte, kann DOS zwar mehrere Programme in den Speicher laden und zwischen diesen umschalten, aber das ist kein richtiges Multitasking, weil die nicht aktiven Programme vollkommen ruhen und nicht im Hintergrund weiterarbeiten. Ein echtes Multitasking Betriebssystem ist beispielsweise OS/2 der Firma IBM. Es erlaubt dem Benutzer mehrere Programme zur selben Zeit in einzelnen Fenstern ablaufen zu lassen, wobei die nicht aktiven natürlich im Hintergrund weiterlaufen. OS/2 konnte ab der Rechnerklasse 80286 eingesetzt werden und hätte das Betriebssystem MS-DOS ablösen sollen. Durch Anfangsschwierigkeiten und Fehlmanagement setzte es sich aber nie richtig durch. OS/2 bietet ebenfalls eine grafische Benutzeroberfläche und ist von den Funktionen her um einiges mächtiger als DOS. Probleme treten aber meist mit irgendwelchen Treibern auf, die man für die Hardware benötigt, damit sie unter OS/2 benutzt werden kann. Ein anderes Betriebssystem kommt direkt aus der Großrechnerwelt und nennt sich Unix. Dort ist es aufgrund seines hohen Alters (seit 1969) ein sehr weit verbreitetes Betriebssystem, das theoretisch beliebig vielen Benutzern das Starten von beliebig vielen Programmen erlaubt. Unix ist, ebenso wie DOS, ein zeilenorientiertes Betriebssystem und bietet daher keine grafisch aufwendige Unterstützung an. Das lag natürlich hauptsächlich daran, dass die an den Großrechner angeschlossenen Terminals gar nicht grafikfähig waren. Es gibt also auch Alternativen zu MS-DOS, die zurzeit aber nicht den Marktanteil von Microsoft erreichen. Auf knapp 90 Prozent aller IBM-kompatiblen PCs läuft derzeit MS-DOS oder ein vergleichbares Betriebssystem. Um das eigene Produkt für die Rechnerklassen ab dem 80386 auf Hochglanz zu polieren, wurde von Microsoft die Betriebssystemerweiterung Windows entwickelt. Windows bietet eine grafische Benutzeroberfläche, das heißt, der Anwender benötigt nicht mehr das Wissen um die DOS-Befehle, sondern kann das System über Menüs und Hilfsprogramme bedienen. Zumindest theoretisch, denn DOS ist Voraussetzung für Windows. Aus DOS heraus wird es gestartet, und es benutzt auch die gleiche Dateistruktur wie DOS. Für den Anfänger ist es zwar ungleich einfacher zu erlernen, besonders weil die Setup-Programme alles so einrichten, dass er sich gar nicht mit DOS auseinandersetzen muss. Vielfach ist DOS und Windows sogar schon beim Kauf eines Komplettangebotes auf der Festplatte installiert. Durch einfaches Tippen von »WIN« wird Windows gestartet, und das Schicksal nimmt seinen Lauf, denn wenn etwas nicht so abläuft, wie es soll, oder wenn der Anwender unglücklicherweise die falschen Dateien löscht, dann ist er ohne DOS-Kenntnisse überhaupt nicht in der Lage, das System wieder zum Laufen zu bringen. Trotzdem würde ich allen Anfängern den Einsatz von Windows empfehlen, weil es von der Konzeption her viel verständlicher ist als das konservative Betriebssystem DOS, zudem werden fast alle neuen Anwendungen nur noch für Windows entwickelt. In nicht allzu ferner Zukunft wird DOS sicherlich durch eine der grafischen Benutzeroberflächen abgelöst, und es wäre nicht sehr verwunderlich, wenn dies durch Windows NT geschehen würde. Windows NT ist so ähnlich aufgebaut wie das gewöhnliche Windows, nur dass es vollkommen ohne DOS auskommt, das heißt ein richtiges Betriebssystem ist und daher keine bloße Erweiterung mehr.

3. Das Betriebssystem Windows:
Computer beinhalten jede Menge Technik in Form von hochintegrierten, elektronischen Bauteilen und Komponenten. Diese müssen aber irgendwie miteinander kommunizieren und zusammenarbeiten. Dafür benötigt man die Software. Die grundlegende Software, die in jedem PC fest integriert ist, ist das BIOS (=Basic Input Output System). Das BIOS steuert die grundlegenden Einstellungen für Ihren Computer. Durch diese kann man viel Leistung aus dem System herausholen und Windows stabilisieren. In das BIOS gelangt man unmittelbar nach dem Einschalten des Computers durch Betätigen der Taste "Entf" oder "F2". Verrät Ihnen Ihr Computer die magische BIOS Taste nicht von allein, dann tricksen Sie ihn einfach aus. Halten Sie während des Starts schlicht eine Taste gedrückt. Der Computer hält das für eine verklemmte Taste, und fast immer rückt er spätestens in dieser Notsituation den ersehnten Hinweis heraus.
Im CPU Internal Cache wird der L1-Cache im Prozessor aktiviert, sollte also immer »ENABLED« sein, da er richtig Leistung bringt. Das »Video BIOS Shadow« bewirkt, dass die im BIOS gespeicherte Software der Grafikkarte in den RAM gespiegelt (kopiert) wird, da aus dem RAM wesentlich schneller Daten gelesen werden können als aus dem EPROM. Windows hat aber eigene Routinen eingebaut, die das BIOS weitgehend überflüssig machen. Deshalb sollte diese Einstellung, wenn Sie Windows ab der Version 95 benutzen, »DISABLED« werden, da sie nur unnötig Grundspeicher belegt. Verwenden Sie noch MS-DOS Programme mit aufwendigen Grafiken, sollten Sie diese Option nicht ausschalten. Inzwischen werden praktisch alle PCs mit Windows ausgeliefert - bei vielen Computern ist das Betriebssystem auch schon komplett eingerichtet.

Schon bei der Installation von Windows 95 kann man so einiges an Leistung herausholen bzw. verschenken. Die schlechteste Möglichkeit Windows 95 zu installieren, ist mittels eines Updates Windows 95 einfach über das alte Windows 3.x zu installieren. Es werden dann nicht nur die ganzen bereits installierten Anwendungen übernommen, sondern auch die ganzen alten Treiber. Und diese sind nun mal für das alte Windows 3.x programmiert worden. Unter Windows 95 laufen diese mehr schlecht als recht und führen so zu Instabilität. Das Update besteht auf ein installiertes Windows 3.x und natürlich auch auf DOS. Doch werden von dem Update nur die Dateien WIN.COM und WINVER.EXE überprüft (oder eine Datei GDI.EX_ auf Diskette, unabhängig von Größe und Inhalt). Für maximale Geschwindigkeit und Stabilität unter Windows 95 ist es nötig Windows 3.x bis auf diese Dateien zu löschen. Nach der Installation müssen allerdings auch alle Anwendungen neu installiert werden. Unmittelbar vor der Installation sollten die Startdateien CONFIG.SYS und AUTOEXEC.BAT auf ein Minimum reduziert werden, denn Windows 95 analysiert diese bei der Installation und übernimmt die Treiber, wenn es keine Eigenen für die Geräte besitzt. Diese Treiber führen dann zu erheblich geringerer Leistung und Stabilität. Es gibt mittlerweile für fast alle Geräte im Internet neue Treiber, die speziell für Windows 95 programmiert wurden. Die Startdateien sollten, wenn möglich, nach dem Minimieren nur noch den Treiber für das CD-ROM enthalten.
Von MS-DOS aus starten Sie die Installation, indem Sie in der Kommandozeile den Befehl »d:\setup« eingeben. Jetzt wird automatisch ein Programm namens »Scandisk« gestartet, das die Festplatte nach Fehlern untersucht. Danach startet das Windows Setup. Wenn Sie eine Maus an den Computer angeschlossen haben, sollte diese schon funktionieren. Ein spezielles Programm, der Setup-Assistent von Windows 95, wird nun als erstes geladen und begleitet Sie ab jetzt durch die gesamte Installation, die Sie dann Schritt für Schritt zum Ziel führen wird. Je nach der Arbeitsgeschwindigkeit des Computers dauert die Installation zwischen 30 und 60 Minuten. Er zeigt zunächst ein Fenster mit dem Lizenzvertrag, den Sie für die Nutzung von Windows 95 mit dem Hersteller Microsoft abschließen. Erst nach der Annahme des Vertrags beginnt der Assistent so richtig seine Arbeit. Er informiert Sie darüber, dass die gesamte Installation in drei Schritten erfolgt. Als erstes werden zunächst wichtige Informationen abgefragt. Falls Sie die Update-Version installieren wollen und kein Windows auf Ihrem Computer haben, merkt der Setup-Assistent das an dieser Stelle. Er meldet, dass kein Windows gefunden wurde. Da es aber sein kann, dass er nicht genau genug gesucht hat, können Sie selbst festlegen, wo er nach Windows suchen soll. Legen Sie dazu die erste Windows Diskette (oder eine Diskette mit einer Datei namens GDI.EX_) ins Laufwerk ein, und beschränken Sie die Suche auf Laufwerk A. Sofort wird der Setup-Assistent akzeptieren dass Sie das Update völlig zu Recht installieren. Jetzt müssen Sie einen Namen für das Verzeichnis angeben, in das Windows 95 installiert werden soll. Falls Sie schon einmal davon gehört haben, dass Windows 95 lange Dateinamen akzeptiert, ist das völlig richtig. Nur an dieser Stelle noch nicht. Hier müssen Sie einen Namen mit maximal acht Zeichen wählen. Nun beginnt der Assistent, das neue Verzeichnis einzurichten. Dabei wird gleichzeitig überprüft, ob überhaupt genügend freier Speicherplatz auf der Festplatte vorhanden ist. Dann müssen Sie zum ersten Mal aktiv werden und über die Tastatur Ihren Namen und gegebenenfalls den Firmennamen eintippen. Diese Angaben stehen übrigens dann auch anderen Windows 95 - Anwendungen zur Verfügung.

Der Setup-Assistent beginnt mit dem Versuch, die gesamte, im Computer vorhandene Hardware selbständig zu erkennen. Das gelingt auch in der Regel sehr gut. Nur bei Baugruppen, die sehr selten verwendet werden, kann es schon mal vorkommen, dass die Hardwareerkennung nicht korrekt arbeitet oder die Installation sogar hängen bleibt. Erschrecken Sie dann nicht, denn selbst auf so etwas ist Windows 95 gut vorbereitet. Es zeigt dann entsprechende Hinweise, die Sie befolgen sollten. Falls der Setup-Assistent nicht ganz sicher ist, ob beispielsweise eine bestimmte Karte im Computer wirklich eine Soundkarte ist, fragt er noch einmal nach. Sie können das dann bestätigen oder einfach übergehen. Nun können Sie festlegen, was installiert werden soll. Die erste Auswahl betrifft die Kommunikationsprogramme. Wenn Sie weder Faxe verschicken, noch E-Mails versenden, oder sich beim Microsoft Netzwerk anmelden wollen, lassen Sie alle Auswahlmöglichkeiten einfach leer. Wenn Sie irgendwann doch ein Modem kaufen, lassen sich diese Programme nachträglich genauso einfach hinzufügen. Danach können weitere Windowsprogramme installiert werden. Der Assistent zeigt eine ganze Reihe von Windows Bestandteilen an, die jetzt installierbar sind. Einige Komponenten sind schon mit einem Haken versehen, andere nicht. Einige Haken sind grau unterlegt. Das zeigt an, dass sich hinter diesem Eintrag eine weitere Liste verbirgt, von der nicht alle Einträge markiert sind. Mit einem Mausklick auf DETAILS erhalten Sie nun diese Liste. Haben Sie alle Komponenten ausgewählt, folgt noch ein Zwischenschritt, falls eine Netzwerkkarte gefunden wurde. Der Setup-Assistent schlägt nun vor, eine Startdiskette zu erstellen. Die ist ganz praktisch, wenn im unwahrscheinlichen Fall Windows 95 einmal den Start von der Festplatte verweigern sollte. Dann lässt sich der Computer mit eingelegter Startdiskette hochfahren. Vermutlich werden Sie jetzt hastig eine leere Diskette suchen und natürlich keine finden. Unnötig, weil Sie die Startdiskette derzeit nachträglich noch herstellen können. Nur vergessen sollten Sie es nicht. Jetzt hat der Assistent alle Informationen, die er benötigt, und es geht zum zweiten Punkt, dem Kopieren der Windows95-Dateien von der CD-ROM auf die Festplatte. Das wird schon eine Weile dauern, weil Windows 95 eine ganze Menge Platz auf der Festplatte beansprucht. Ein kleines Fenster am unteren Bildrand zeigt an, was jetzt passiert. Sind alle Dateien übertragen, meldet sich der Assistent mit dem Hinweis, dass es jetzt zum dritten und letzten Schritt, dem Neustart des Computers, geht. Auch jetzt ist der Assistent beim ersten Starten des Computers mit Windows 95 noch aktiv. Warten Sie einen kurzen Moment, denn beim Starten erhalten Sie am Bildschirm Hinweise wie »Windows 95 wird für den ersten Start vorbereitet« oder dass Konfigurationsdateien aktualisiert werden müssen. Dabei wird noch einmal die Hardware genau überprüft, und alle Einstellungen landen in den Konfigurationsdateien. Geht alles gut und das ist durchaus die Regel, erscheint nach kurzem Warten der letzte Teil der Installation. Windows 95 wird jetzt noch etwas genauer eingerichtet. Aber das läuft ebenfalls fast vollautomatisch ab. Zuerst wird die Systemsteuerung eingerichtet. Anwender von Windows 3.x kennen diese Programmgruppe ja bereits. Dann werden das Startmenü erstellt und die Windowshilfe vervollständigt, die Sie jederzeit im Startmenü aufrufen können. Jetzt fehlt noch die Einstellung der Zeitzone, die für die Anzeige des korrekten Datums und der Uhrzeit wichtig ist. Sogar die Einstellung der automatischen Umstellung von Sommer- und Winterzeit kennt Windows 95. Zum Abschluss müssen Sie noch angeben, mit welchem Drucker Sie arbeiten. Alle Einstellungen, die Sie zu diesem Zeitpunkt vornehmen, lassen sich später problemlos über die Systemsteuerung von Windows 95 wieder verändern oder erweitern. Nach kurzer Zeit erscheint zum ersten Mal die neue Oberfläche von Windows 95 und zeigt Ihnen ein Begrüßungsfenster.

Der Bootvorgang:
Wenn Sie Ihren PC einschalten, führt das BIOS zunächst den so genannten Power On Self Test durch. Nachdem dieser festgestellt hat, dass mit Ihrem System alles in Ordnung ist, wird die Kontrolle an das Betriebssystem übergeben. Unter Windows XP wird nun erst mal der NT Bootloader NTLDR in den Speicher geladen. Dieser sucht auf der ersten physikalischen Festplatte auf der physikalisch ersten primären Partition nach der Datei "boot.ini", die alle nötigen Informationen zum weiteren Startvorgang enthält.
Ist die Datei gefunden, sucht der Loader anschließend auf dem in der Datei angegebenen Laufwerk nach der Datei hiberfil.sys, einem Ruhezustand - Speicherabbild. Wird diese Datei nicht gefunden, werden der Windows Kernel "ntoskrnl.exe" und der Hardware Abstraction Layer "hal.dll" geladen. Die beiden laden nun wiederum alle benötigten Treiber. Dieser Vorgang dauert insgesamt nur wenige Sekunden und wird unter XP durch einen weißen Ladebalken auf schwarzem Hintergrund dargestellt. Moderne PCs sind jedoch so schnell, dass Sie diesen Balken gar nicht mehr zu Gesicht bekommen. Unter Windows Vista hat sich dieser frühe Startvorgang erstmals seit der Einführung von Windows NT 4.0 geändert. Den eben erwähnten NT Loader gibt es hier nicht mehr, stattdessen wird die Kontrolle vom BIOS-Setup an den Windows Bootmanager übergeben. Dieser lädt die, Boot Configuration Data (BCD), welche die bisherige "boot.ini" ersetzt. Die BCD ist dabei keine einfache Textdatei mehr, sondern eine kleine Datenbank und liegt auf dem Startlaufwerk im Ordner "Boot". Wählen Sie im Bootmanager Vista aus, wird die Datei "winload.exe" geladen, die jetzt den Windows Kernel "ntoskrnl.exe" lädt. Ab diesem Moment unterscheidet sich der weitere Startprozess von Vista kaum mehr von XP. Interessant wird es ab dem Moment, an dem der Session-Manager smss.exe die Kontrolle vom NT Loader NTLDR übernimmt. Neben der Einbindung aller bekannten Laufwerke und Partitionen übernimmt er auch das Anlegen der Aus1agerungsdateien sowie die Umbenennung zuletzt deinstallierter Programmteile, die nicht im laufenden Betrieb entfernt werden konnten und startet zum Schluss mit der Datei winlogon.exe den Windows Logon Manager.
Dieser lädt zuerst ein Programmmodul namens "Graphical Identification and Authentication", welches den allseits bekannten Anmeldebildschirm anzeigt und zum Anmelden auffordert. Weitere Aufgaben von Winlogon, dessen Aufgabenbereich unter Vista erweitert wurde, kommen hauptsächlich in Netzwerken zum Zuge. Nach der Anmeldung werden der "Service Control Manager" und der "Local Security Authority Subsystem Service“ (lsass.exe) geladen. Zuletzt werden noch sämtliche Programme aus dem Autostart ausgeführt.

Windows XP Service Pack 2:
Das Service Pack 2 für Windows XP ist nach Microsofts eigenen Aussagen das wichtigste Update, das das Unternehmen in seiner Geschichte jemals veröffentlicht hat. Microsoft-Insider betrachten das SP2 sogar als eine "komplett neue Version von Windows XP". Das will etwas heißen.
Das in der Admin-Version mit 272 MByte aufwartende Update-Paket (zum Vergleich: Installationsdateien der Windows XP Original-CD - 493 MByte) bringt neben Problembehebungen eine ganze Palette neuer Funktionalitäten mit sich, insbesondere im Bereich Security.

Service Pack 3:
Obwohl Service Packs unabhängig von bereits installierten Updates oder Service Packs sind, läßt sich das SP3 für Windows XP nicht ohne SP2 installieren.
Anders als in vielen Computerzeitschriften behauptet, startet Windows bei abgeschaltetem Startbild allerdings keineswegs rasanter. Die Abschaltung ist eher für Computerpuristen interessant, die während des Startvorgangs mit zusammengekniffenen Augen ganz genau herausfinden wollen, was sich hinter den Kulissen abspielt. Wer nur mal kurz das Werbebild lüften will, braucht es nicht extra abzuschalten. Drücken Sie einfach auf »Esc« während das Startbild angezeigt wird, und schon verschwindet es. Schon haben Sie den Blick auf alle Treibermeldungen frei. Obwohl der Startbildschirm eigentlich die technokratischen Treibermeldungen der DOS-Ebene übertünchen soll, blitzen trotzdem häufig vereinzelte Textmeldungen auf und sorgen dafür, dass Ihr Bildschirm unschön flackert und das Startbild immer wieder unterbrochen wird. Falls Sie das stört, brauchen Sie die Textmeldungen der DOS-Treiber nur ins Computer Nirwana zu schicken, so dass sie nicht mehr dazwischenfunken. Fügen Sie hinter jeder Zeile der CONFIG.SYS und AUTOEXEC.BAT »>nul« an. Dadurch werden etwaige Textmeldungen nicht auf dem Bildschirm ausgegeben, sondern verschluckt. Das @ Zeichen funktioniert noch simpler: wird es einem DOS-Befehl vorangestellt, dann führt Windows ihn zwar aus, gibt ihn aber nicht auf den Bildschirm aus.
Früher wurden nach der Meldung »Starten von MS-DOS« die Dateien CONFIG.SYS und AUTOEXEC.BAT abgearbeitet, die Sie vorher mit viel Mühe und ständiger Begleitung durch die Redakteure eines halben Dutzend Fachzeitschriften optimal getunt hatten. Durch die CONFIG.SYS wurden die für den Betrieb ihres Systems notwendigen Gerätetreiber geladen, die zwischen Gerät und Betriebssystem vermitteln sollten. Diese Gerätetreiber hatten meist die Erweiterung ».SYS« und konnten nach dem Laden nicht mehr entfernt oder in ihrer Funktionalität beeinflußt werden. Später kamen dynamische Treiber mit der Erweiterung ».EXE« hinzu, die nach dem Laden noch Änderungen ihrer Arbeitsweise erlaubten. Die AUTOEXEC.BAT lud zum einen resistente Programme, die nach ihrem Start im Speicher verblieben und dort verschiedene Aufgaben im Hintergrund wahrnahmen. Der Tastaturtreiber KEYB.COM für das Einstellen der deutschen Tastaturbelegung ist wohl das bekannteste Beispiel für diese Zunft. Doch auch die Umgebungsvariablen wurden gesetzt, es wurden also Variablen im Speicher mit bestimmten Werten versehen, die dann die Ausführung anderer Programme beeinflußten, ein Schwarzes Brett für Befehle, wenn Sie so wollen. Nach diesen beiden Dateien wurde in der AUTOEXEC.BAT meist als letzter Befehl das Programm WIN.COM gestartet, das wiederum den recht komplizierten Start von Windows 3.x bewerkstelligte. So war es früher. Und wie ist es heute? Wie verläuft zu Zeiten des neuen Betriebssystems Windows 95 der Systemstart?
Um es vorwegzunehmen: Es hat sich eigentlich überhaupt nichts geändert Es gibt zwar weder MS-DOS noch ein separates Windows, doch der Start von Windows läuft in der gleichen Weise ab, wie früher. Hat man Ihnen auch erzählt, Windows 95 sei ein neues Betriebssystem, das endlich das gute alte MS-DOS überflüssig macht? Auf einem Rechner mit Windows 95 wird nach dem Start die Meldung »Starten von Windows 95« angezeigt und sofort die grafische Oberfläche, man nennt sie GUI, Graphical User Interface, von Windows 95 gestartet. Wurde bei mir früher auch, werden Sie nun einwenden, denn Sie hatten, wie nahezu alle Anwender den Aufruf von Windows 3.x in die AUTOEXEC.BAT eingebaut, um Windows nicht per Hand starten zu müssen. Doch wenn Sie sich die nach wie vor vorhandene AUTOEXEC.BAT einmal näher anschauen, so werden Sie dort den Aufruf von WIN.COM vergebens suchen. Also stimmt die Behauptung der Marketingleute von Microsoft, dass Windows 95 ein Betriebssystem ohne MS-DOS sei?
Gleich nach dem Einschalten meldet sich zuerst das BIOS, das Minibetriebssystem, das in jedem Rechner fest eingebaut ist, zu Wort und prüft die gegenwärtigen Hardwareeinstellungen.
Anschließend wird von der Festplatte das Real-Mode-Betriebssystem IO.SYS gestartet. Wie in alten Tagen wird dazu WIN.COM aufgerufen, nur brauchen Sie das nicht mehr selbst zu tun.

Kennwörter und Benutzerkonten:
Wenn Sie Ihren PC mit mehreren Personen teilen müssen, empfiehlt sich die Einrichtung von Benutzerkonten. Dabei erhält jeder Anwender sein eigenes Benutzerkonto, in dem seine persönlichen Einstellungen, wie z.B. Desktop, Farben, Startmenü, usw. dauerhaft abgespeichert werden. Damit Windows aber weiß, wer gerade am Computer sitzt, müssen Sie sich ab sofort bei jedem Windows Start mit Ihrem Namen (und evtl. Kennwort) anmelden.
Wenn Sie zu Hause ein Netzwerk verwenden, empfiehlt sich ein Benutzerkonto mit Kennwort, denn nur mit eingestelltem Kennwort merkt sich Windows die Zugangsdaten für Netzlaufwerke. Ansonsten müssen Sie bei jedem Neustart des PCs das Kennwort vor dem Zugriff für einen Server oder NAS eingeben.
Die Windows Anmeldung läßt sich allerdings automatisieren, so dass Sie beim Starten des PCs kein Kennwort eingeben müssen (siehe Informationssammlung - Automatische Anmeldung).

Deinstallation von Programmen:
Genau so einfach, wie Sie neue Programme auf der Festplatte einrichten, können Sie diese auch wieder von der Platte putzen. Vorausgesetzt, es handelt sich mindestens um ein Windows 95-Programm, das dann im Softwarefenster aufgelistet ist. Bringen Sie das Softwarefenster auf den Bildschirm. Klicken Sie dann einmal in der Liste der vorhandenen Anwendungen auf den Namen des Programms, das Sie entfernen wollen. Er wird dadurch markiert. Klicken Sie dann auf »Hinzufügen/Entfernen«. Damit wird das Programm mit all seinen Dateien automatisch von Ihrer Festplatte entfernt. Eventuell kommen danach noch einige Abfragen, die Sie mit Mausklicks entsprechend beantworten müssen. In einigen Fällen werden Sie auch zum Neustart des Computers aufgefordert. Folgen Sie einfach den Anweisungen auf dem Bildschirm.
Falls die Deinstallationsroutine nicht sauber arbeitet, kann es passieren, dass das Programm noch immer in der Systemsteuerung → Software aufgelistet wird. In diesem Fall hilft nur die manuelle Löschung des Programmrestes unter HKEY_LOCAL_MACHINE\Software\Microsoft\Windows\CurrentVersion\Uninstall.
Hier müssen Sie die Schlüssel, die leider nicht als Klartext dargestellt sind, nach dem zu löschenden Programmnamen suchen und anschließend den kompletten Hauptschlüssel entfernen.

Der Windows - Explorer:
Windows 95 verfügt über eine integrierte Schnellansicht für Dateien wie Texte oder INI - Dateien. Sie zeigen eine Datei an, indem sie im Explorer eine Datei markieren und mit der rechten Maustaste klicken. Im eingeblendeten Menü wählen sie nun die Option Schnellansicht aus, woraufhin Windows 95 die ausgewählte Datei darstellt. Sollte für die Datei keine Schnellansicht existieren, zeigt das Kontextmenü die Option Schnellansicht nicht an. Ein weiterer Grund dafür ist, dass Sie die Schnellansicht nicht installiert haben. Das läßt sich jedoch schnell ändern, indem Sie die Schnellansicht nachträglich von der Windows 95-CD installieren. Löschen, Kopieren oder auch Starten von Dateien und Programmen. Unter Windows 3.x hat der Dateimanager diese Aufgaben übernommen, das Arbeiten mit Dateien und Verzeichnissen zu vereinfachen. Den Dateimanager gibt es unter Windows 95 übrigens immer noch, wenngleich er unscheinbar und eher gut versteckt im Windows Verzeichnis sein Dasein fristet. Und das aus gutem Grund, denn mit Windows 95 gibt es jetzt eine völlig neue Schaltzentrale, den Explorer. Der bringt zwar für alle, die an den Datei-Manager gewöhnt sind, zunächst eine unangenehme Umgewöhnung mit sich. Doch Sie werden schnell merken, dass der Explorer um einiges leistungsfähiger ist als sein Vorgänger. Da der Explorer während der Arbeit häufiger benötigt wird, schließen Sie ihn nicht, sondern legen Sie ihn lediglich als Symbol in der Startleiste ab. Der Explorer präsentiert sich ähnlich, wie der Datei-Manager, mit einem zweigeteilten Fenster. Die linke Seite zeigt zunächst eine Übersicht über Ihren Computer. Auf der rechten Seite des Explorer-Fensters wird der Inhalt dessen angezeigt, was auf der linken Seite markiert ist. Vor manchen Einträgen im linken Fensterbereich sehen Sie auch ein Pluszeichen. Das ist ein eindeutiges Zeichen dafür, dass hier noch Einiges mehr angezeigt werden könnte. Auf Ihrem Schreibtisch dürften Sie schnell die Übersicht verlieren, wenn Sie Ihre Unterlagen einfach nur auf einen großen Haufen ablegen. Sinnvoller ist es, die Unterlagen in verschiedenen Aktenordnern oder Hängeregistern nach Themen zu sortieren. Dieses System gilt auch für das Speichern von Dateien auf Ihrer Festplatte. Eine sinnvolle Struktur beim Sichern Ihrer Daten verhilft Ihnen zu besserer Übersicht. Sobald Sie im Explorer auf das Pluszeichen vor einem Laufwerkssymbol klicken, werden die vorhandenen Ordner dieses Laufwerks sichtbar. Auch vor manchen Ordnern sehen Sie hier wieder ein Pluszeichen hier sind dann so genannte Unterordner vorhanden. Sie können also Ihre Daten in diesem System aus Gruppen und Untergruppen übersichtlich ablegen, die sich wie ein Stammbaum aus einem Anfangspunkt immer feiner verzweigen. Als Wurzel des Baums, also als oberste Gruppe, steht bei Windows 95 der Desktop. Das wird übrigens schnell deutlich, wenn Sie im Explorer auf der linken Seite doppelt auf Desktop klicken. Alle anderen Einträge verschwinden dann im linken Fenster des Explorers. Jetzt dürfte auch klar sein, welche Funktion diese linke Seite des Explorers hat. Sie zeigt immer die Verzweigungen an, angefangen vom Desktop über den Arbeitsplatz mit seinen Laufwerken bis hin zu den Unterordnern. Der Explorer verdeutlicht das zusätzlich auch mit den Linien ganz links. Die rechte Seite des Explorer-Fensters dagegen zeigt immer die Objekte an, die zu einer gerade markierten, also angeklickten Ebene gehören. Beim Desktop also die Objekte, die auf dem Desktop abgelegt sind, bei einem Laufwerk die vorhandenen Dateien und Ordner.

Ordner:
Während für diese Strukturen unter DOS und Windows 3.x noch der Name Verzeichnis gebräuchlich war, übernimmt Windows 95 auch dafür einen Begriff aus der Bürowelt. Unter Windows 95 legen Sie Ihre Daten in einen Ordner. Es ist eigentlich nicht ganz korrekt, einfach den Begriff »Verzeichnis« oder »Unterverzeichnis«, wie er bei Windows 3.x oder DOS gebräuchlich ist, durch »Ordner« und »Unterordner« zu ersetzen. Verzeichnisse gelten immer nur für ein einzelnes Laufwerk. Der oberste Gipfel der Verzeichnisse ist daher immer das Hauptverzeichnis eines Laufwerks. Die Ordnerhierarchie von Windows 95 geht im Unterschied dazu weiter, denn mit dem Laufwerk ist hier ja nicht die Spitze des Stammbaums erreicht. Eine Ebene darüber finden Sie noch den Arbeitsplatzordner, und die Spitze ist der Desktop. Der Einfachheit halber hat es sich dennoch eingebürgert, beide Begriffe gleichzusetzen. Anwendungen, die Sie auf der Festplatte installieren, legen selbst schon Ordner an. Das gilt natürlich auch für Windows 95, das eine Menge an Unterordnern enthält. Bei Ihrer Arbeit mit dem Computer werden Sie aber auch eigene Ordner anlegen wollen, zum Beispiel um Ihren Schriftverkehr in einem Ordner mit dem Namen Briefe zu sammeln. Das ist zwar schön kurz, doch es geht auch anders. Windows 95 erlaubt Ihnen, weit aus längere und aussagekräftigere Namen für Ordner und Dateien zu vergeben. Unter MS-DOS und Windows 3.x sind Sie bei der Namensvergabe doch arg eingeschränkt. Lausige acht Buchstaben für den Datei oder Verzeichnisnamen sind hier möglich. Hinzu kommen noch drei Buchstaben für eine Dateierweiterung, wobei viele Anwendungen diese selbst schon vergeben. Windows 95 erweist sich da als viel flexibler, weil Sie Namen nach Herzenslust vergeben dürfen. Rund 250 Zeichen dürften mehr als ausreichend sein, um jede Datei eindeutig zu bezeichnen. Sogar Leerzeichen sind dabei im Namen möglich. Wie schnell ist eine Datei aus Versehen gelöscht oder verkehrt kopiert worden. Windows 95 kann aber die letzte Aktion, die Sie im Explorer ausgeführt haben, wieder ungeschehen machen. Haben Sie aus Versehen mal eine Datei gelöscht, und fällt Ihnen das sofort auf, klicken Sie einfach das Menü »Bearbeiten« an. Dort finden Sie den Befehl »Rückgängig«. Sie können auch andere Aktionen auf diese Weise rückgängig machen. Normalerweise verzichtet der Explorer darauf, bei Dateinamen auch die Dateiendung darzustellen, also die drei Zeichen nach dem Punkt. Das ist nicht immer sinnvoll, weil Sie dann nur an den Dateisymbolen erkennen, um welche Art von Datei (Textdatei, Programmdatei) es sich handelt. Sie können aber Windows 95 dazu überreden, die vollständigen Dateinamen anzuzeigen. Wie in den Fenstern der Systemsteuerung können Sie im Explorer festlegen, wie die Programme angezeigt werden. Mit großen oder kleinen Symbolen oder mit Zusatzinformationen. Auch hier können Sie dies über das Menü »Ansicht« beeinflussen. Allerdings ist es im Explorer sinnvoll, nicht die großen Symbole einzustellen. Dabei bleiben nämlich einige nützliche Informationen verborgen. Stellen Sie jetzt im Menü Ansicht auf Details um, sehen Sie plötzlich über dem rechten Teil des Explorer-Fensters eine Titelzeile. Sie sehen das hier eine alphabetische Reihenfolge nach dem Dateinamen eingestellt ist. Zuerst werden alle Ordner aufgeführt dann folgen die Dateinamen, ebenfalls alphabetisch. Der Dateityp, der ja durch die drei Buchstaben am Dateiende gekennzeichnet wird, ist allerdings dadurch völlig ungeordnet. Das ist unpraktisch, wenn Sie alle Dateien eines bestimmten Typs markieren und löschen wollen. Klicken Sie einmal auf die Überschrift Typ. Sofort werden die Dateien nach dem Typ sortiert. Jetzt lassen sich gleiche Dateitypen einfach erkennen und markieren. Klicken Sie dazu auf die erste Datei des Dateityps, halten Sie die Umschalttaste gedrückt und klicken auf die letzte Datei dieses Typs. Sofort sind auch alle dazwischen liegenden Dateien markiert. Sie müssen zum Markieren immer auf den Dateinamen klicken. Wenn Sie auf Einträge wie den Dateityp klicken, passiert nichts. So, wie Sie jetzt alle Einträge nach Typ sortiert haben, können Sie Dateien auch nach Datum, Größe und natürlich Namen sortieren. Ein Klick auf die Überschrift, sortiert die Dateien aufsteigend, ein zweiter Klick umgekehrt. Nicht nur die Dateiendungen sind normalerweise im Explorer unsichtbar. So manche Datei werden Sie nie zu Gesicht bekommen, wenn Sie die Grundeinstellung des Explorers belassen. Einige Dateitypen sind einfach unsichtbar. Das schafft zwar mehr Übersicht, sorgt aber spätestens dann für Verwirrung, wenn eine solche unsichtbare Datei kopiert oder gelöscht werden soll. Besser ist es daher meist, alle Dateien anzeigen zu lassen. Natürlich kann sich auch die Standardeinstellung von Windows 95, durchaus sehen lassen, aber Windows 95 läßt sich noch besser an den eigenen Computer und an die eigenen Vorlieben anpassen. Vor allem die Systemsteuerung bietet noch einiges mehr. So müssen Sie sich nicht mit den vorgegebenen Einstellungen für Farbe und Muster des Desktops zufrieden geben, sondern können auch hier über das Programm, das sich hinter dem Symbol Anzeige verbirgt, Veränderungen nach eigenem Geschmack vornehmen. Sie können dabei nichts kaputt machen.
Bei dem EDV Begriff Archiv Attribut bzw. Archivbit handelt es sich um ein Dateiattribut. Dieses Dateiattribut wird vorwiegend von sogenannten Backupprogrammen bei der Datensicherung verwendet. Dabei werden Dateien, die verändert oder neu angelegt werden, mit dem Archiv Attribut versehen, um zu kennzeichnen, das diese bei der nächsten Datensicherung archiviert werden müssen. Nachdem die Datei archiviert wurde, wird das Archiv Attribut wieder aufgehoben und erst beim Anlegen eines Dokuments oder einer Änderung erneut gesetzt.

Für den Start für Windows 2000 und Windows XP ist die Datei boot.ini verantwortlich.
Das Starten und Herunterfahren ist vielleicht der Teil von XP, der am häufigsten übersehen wird. Zum Starten drücken Sie an Ihrem PC auf einen Knopf, und zum Herunterfahren klicken Sie auf ein paar Schaltflächen.
Doch in Wirklichkeit können Sie beim Starten und Herunterfahren viel für Ihre Produktivität tun. Sie können Startmenüs erstellen und aus benutzerdefinierten Startoptionen wählen, einen eigenen Startbildschirm kreieren, bei jedem Hoch- und Herunterfahren automatisierte Tasks abwickeln und überflüssige Programme aus den Autostart-Einstellungen herausnehmen, damit es schneller geht.
Wenn Sie zusätzlich zu XP noch ein anderes Betriebssystem auf Ihrem Computer installiert haben, fährt dieser mit einem Betriebssystem-Auswahlmenü hoch, aus dem Sie sich ein Betriebssystem aussuchen können. Das Menü bleibt für 30 Sekunden aktiv, wobei Ihnen ein Countdown anzeigt, wie viel Zeit Ihnen bleibt, um Ihre Wahl zu treffen. Wenn die 30 Sekunden um sind, wird das Standardbetriebssystem gestartet, in der Regel das zuletzt installierte.
Sie können dieses Auswahlmenü und den Startprozess ändern, indem Sie die Datei boot.ini bearbeiten. Diese ist eine verborgene Systemdatei, die eine Reihe von Startoptionen steuert. Zum Beispiel wie lange das Menü angezeigt wird, welches Betriebssystem als Standard voreingestellt ist, ob beim Starten der Startbildschirm von XP verwendet wird und Ähnliches mehr.
Die Datei boot.ini ist eine einfache Textdatei im Wurzelordner C:\.
Eventuell wird sie gar nicht angezeigt, da sie eine Systemdatei ist, und falls sie doch angezeigt wird, können Sie sie nicht bearbeiten, weil sie überdies schreibgeschützt ist. Um sie zu bearbeiten, starten Sie die Systemeigenschaften, wählen Erweitert -> Starten und Wiederherstellen.

[boot loader]
timeout=30
default=multi(0)disk(0)rdisk(0)partition(l)\WINDOWS
[operating systems]
multi(0)disk(0)rdisk(0)partition(l)\WINDOWS="Microsoft Windows XP Home Edition" /fastdetect
multi(0)disk(0)rdisk(0)partition(2)\WINNT="Windows 2000 Professional" /fastdetect

Dienste:
Der Windows-Systemstart besteht aus verschiedenen Stadien wie z.B. der Initialisierung der Treiber oder dem Laden benötigter Systemdateien. Im späteren Stadium werden so genannte Dienste gestartet, die für verschiedene Bereiche wie z.B. automatische Updates oder Netzwerk zuständig sind. Einige dieser Dienste (Services im Fachjargon) sind für den Arbeitsbetrieb des Rechners notwendig, andere wiederum fristen ein Mauerblümchendasein und finden auf den meisten Heim PCs kaum Gebrauch.
Die Deaktivierung läßt die Hintergrundaktivitäten sinken, Systemressourcen gewinnen und schaufelt Arbeitsspeicher frei, der für andere Programme genutzt werden kann.
Microsoft hat die Konfiguration der Dienste ein wenig versteckt untergebracht. Rufen Sie die gesamte Liste auf, indem Sie auf Start → Systemsteuerung → Verwaltung → Dienste klicken.
Um einen Dienst ihrer Wahl, gemäß der unten anzutreffenden Liste, zu deaktivieren oder auf manuellen Autostart zu setzen sind lediglich ein paar kleine Handgriffe nötig. Doppelklicken Sie auf einen gewünschten Eintrag und wählen Sie die gewünschte Einstellung unter Starttyp.

Prozesse:
Haben Sie Windows schon mal unter die Haube geschaut? Dutzende von sogenannten Programmprozessen wuseln dort durcheinander und arbeiten Spezialaufträge ab. Zum Beispiel überwacht einer permanent, ob Sie ein Gerät anschließen. Ein anderer kümmert sich um das Herstellen von Internetverbindungen. So ist jeder Prozeß ein Rädchen im Windows-Getriebe.
Doch so manches Rädchen ist überflüssig und macht den PC langsam. Und der ein oder andere Kandidat könnte sogar gefährlich sein.
Jeder Prozeß verbraucht Arbeitsspeicher und beansprucht die Rechenkraft Ihres Computers. Im Laufe der Zeit kommen durch zusätzliche Software immer mehr Prozesse hinzu, die den Computer langsamer machen. Deswegen sollten Sie überflüssige Prozesse abschalten.
Mit dem Taskmanager lassen sich die laufenden Prozesse genau anschauen und gegebenenfalls auch beenden, aber leider liefert das Programm nur den Namen der Prozesse, mit dem man allerdings kaum etwas anfangen kann.
- Die csrss.exe steuert die gesamte Darstellung von Fenstern in Windows. Sobald ein Fenster erscheint, verwaltet die csrss.exe den Zugriff darauf. Gleichzeitig sorgt die Datei für die Steuerung von anderen Prozessen. Sollten Sie mehr als zwei Einträge von csrss.exe gleichzeitig im Taskmanager entdecken und die die Datei eine sehr hohe Prozessorauslastung hat, steckt dahinter vermutlich eine schädliche Software.
- lsass.exe sorgt für die Sicherheitsprogramme und Sicherheitsrichtlinien in Windows, häufig tarnt sich ein Virus mit dem Namen isass.exe
- svchost.exe ist ein sehr wichtiger Prozeß und taucht immer wieder in der Liste des Taskmanagers auf. Er gehört zu Windows und regelt die Zusammenarbeit von Prozessen auf dem Computer. Gleichzeitig startet er eine Vielzahl von anderen Prozessen, zum Beispiel das Windows-Update, die Internetverbindung oder die Windows-Suche. Deswegen ist es normal, dass von svchost.exe mehrere Einträge im Taskmanager sichtbar sind.

Die Registry:
Ab Windows 95 verwaltet das Betriebssystem seine Einstellungen in einer Datenbank, der Registry. Diese kann mit dem Registriereditor „regedit.exe“ geöffnet, angesehen und verändert werden.
Zum Schutz vor unsachgemäßer Anwendung taucht der Registrierungs-Editor in keinem Standardmenü von Windows XP auf. Er kann ohne manuelle Verknüpfung nur über Start/Ausführen aufgerufen werden.
Wenn Sie den Registriereditor, in dem man auch Favoriten anlegen kann, starten, präsentiert er Ihnen eine riesige Datenbank, die allerdings aus 7 verschiedenenDateien besteht:

- components im Ordner c:\windows\system32\config
- default im Ordner c:\windows\system32\config
- sam im Ordner c:\windows\system32\config
- security im Ordner c:\windows\system32\config
- system im Ordner c:\windows\system32\config
- software im Ordner c:\windows\system32\config
- ntuser.dat im Ordner c:\dokumente und einstellungen\[Benutzername]

Die Registry enthält 5 Hauptschlüssel, wobei 3 dieser Schlüssel nur Abkürzungen zu vorhandenen Einträgen sind.

- HKEY_CLASSES_ROOT (ist eine Kopie von HKEY_LOCAL_MACHINE\Software\Classes)
- HKEY_CURRENT_USER (ist ein Unterschlüssel von HKEY_USERS\[aktueller Benutzername])
- HKEY_LOCAL_MACHINE (allgemeine Windows- und Programmeinstellungen)
- HKEY_USERS (Benutzereinstellungen)
- HKEY_CURRENT_CONFIG (ist eine Kopie von HKEY_LOCAL_MACHINE\Config)

Beachten Sie bei Änderungen in der Registry, dass Löschen von Einträgen ohne Rückfrage und Rückgängig - Option erfolgt, außerdem erscheinen manche Änderungen erst nach einem Neustart.
Registry Einträge müssen selbst im normalen Betrieb ständig geändert werden, an manchen Stellen der Registry möchte man aber doch vor einer Veränderung sicher sein.
Nehmen Sie dazu als Administrator den anderen Benutzern Berechtigungen auf bestimmte RegistryZweige weg, kann auch kein Programm, das von diesen Benutzern gestartet wird, an den betreffenden Schlüsseln herumpfuschen. Für jeden einzelnen RegistryZweig können Sie einzelnen Benutzern Berechtigungen geben oder wegnehmen, ob sie diesen Zweig lesen oder bearbeiten dürfen.
Um einem Benutzer den Registry Zugriff komplett zu sperren, müssen Sie mit Administratorrechten angemeldet sein und legen unter HKEY_USERS\[Benutzer-ID]\Software\Microsoft\Windows\CurrentVersion\Policies\System einen DWORD-Wert namens DisableRegistryTools mit dem Wert "1" an.
Diesen Zweig sollten Sie aber unbedingt exportieren und speichern, denn möchten oder müssen Sie, falls Sie sich selbst ausgesperrt haben, die Registry später wieder bearbeiten, können Sie nur eine .reg-Datei importieren, die die Einschränkung wieder aufhebt. Dazu müssen Sie die .reg-Datei bearbeiten, den Wert "1" mit dem Wert "0" ersetzen, per Doppelklick importieren und sich von Windows abmelden und wieder anmelden.
Die [Benutzer-ID] müssen Sie allerdings zuerst unter HKEY_LOCAL_MACHINE\Software\Microsoft\Windows NT\CurrentVersion\ProfileList\S-1-5XX auslesen. Der Name steht als Klartext neben ProfileImagePath.

Sehen Sie ggf. ebenfalls in der Datei "win.ini" nach. Einstellungen in dieser Datei, die aus Kompatibilität noch immer vorhanden ist, werden bei jedem Windows Start in die Registry übernommen.
Im Schlüssel HKEY_CLASSES_ROOT finden Sie unter anderem auch die sogenannten ClassID oder kurz CLSID, mit deren Hilfe OLE-Objekte und ActiveX Elemente verwaltet werden Diese können Sie auch als Verknüpfungen anlegen:

- Aktenkoffer.{85BBD920-42A0-1069-A2E4-08002B30309D}
- DFÜ-Netzwerk.{992CFFA0-F557-101A-88EC-00DD010CCC48}
- Drucker.{2227A280-3AEA-1069-A2DE-08002B30309D}
- Papierkorb.{645FF040-5081-101B-9F08-00AA002F954E}
- Posteingang.{00020D75-0000-0000-C000-000000000046}
- Systemsteuerung.{21EC2020-3AEA-1069-A2DD-08002B30309D}
Für den Tastplaner verwenden Sie diese Verknüpfung: %SystemRoot%\explorer.exe ::{20D04FE0-3AEA-1069-A2D8-08002B30309D}\::{21EC2020-3AEA-1069-A2DD-08002B30309D}\::{D6277990-4C6A-11CF-8D87-00AA0060F5BF}


4. Netzwerke:
Die Verbindung von Computern in einem Netzwerk zahlt sich schnell aus. Beim Datenaustausch entfällt das Kopieren auf Disketten, ein Drucker und ein Internet-Zugang etwa können von mehreren Computern gemeinsam benutzt werden. Doch aller Anfang ist schwer. Wer sich zum ersten Mal mit Netzwerken befaßt, muss nicht nur die Technik verstehen, sondern hat zudem mit einer Fülle von Fachausdrücken zu kämpfen.
Um einen Computer an ein Netzwerk anzuschließen, brauchen Sie eine spezielle Einsteckkarte - die Netzwerkkarte. Als Standard hat sich hierbei die Ethernetkarte etabliert. Ethernetkarten erreichen eine Übertragungsgeschwindigkeit von 100 Megabit pro Sekunde. Ferner sind die Karten für die 100 Megabit Übertragung heute kaum teurer als die alten, für eine Geschwindigkeit von 10 Megabit pro Sekunde ausgelegten Modelle.
Damit ist zugleich die Entscheidung hinsichtlich der Kabel gefallen, die Sie in Ihrem Netzwerk verwenden müssen: Denn für ein Netzwerk mit einer Übertragungsgeschwindigkeit von 100 Megahit pro Sekunde kommt nur das sogenannte Twisted-Pair-Kabel der Klasse fünf (oder höher) in Frage.
Haben Sie Ihre Wahl bezüglich Karten und Kabel getroffen, müssen Sie sich für die nächste wichtige Entscheidung zunächst die Größe Ihres Netzwerks ansehen. Wollen Sie nur zwei Computer verbinden, kommen Sie mit zwei Netzwerkkarten und einem so genannten Cross-Over-Kabel aus. In diesem Kabel sind die Anschlüsse er Sende- und Empfangsleitung an den beiden Steckern miteinander vertauscht: Die vom einen Computer gesendeten Daten kommen direkt am Eingang der anderen Netzwerkkarte an. Dieses Kabel können Sie ohne weitere Zusatzgeräte in die Anschlüsse der beiden Netzwerkkarten stecken. Liegt die Anzahl der Computer in Ihrem Netzwerk über zwei und unter 50, müssen Sie sich außer den Netzwerkkarten und den Kabeln auch noch einen Hub mit entsprechend vielen Anschlüssen zulegen. Ein Hub sorgt dafür, dass die Daten die ein Computer sendet, auf den Empfangsleitungen aller angeschlossenen Computer erscheinen. Ein Hub ist also so etwas wie ein Verstärker, der die Weiterleitung der Signale übernimmt.
Hubs gibt es üblicherweise mit Anschlüssen für 4, 8, 12, 16, 24 oder 32 Computer. Einen kleinen Hub für vier Computer erhalten Sie bereits für rund 100 Mark. Sie sollten bei der Anschaffung eines Hubs darauf achten, dass einer dieser Anschlüsse als so genanntes Uplink schaltbar ist. Diesen Anschluß können Sie mit einem zweiten Hub verbinden, wenn einmal mehr Computer zu Ihrem Netzwerk hinzukommen und Sie weitere Anschlüsse brauchen. Dieses Prinzip läßt sich fortführen. Sie können also auch mehrere Hubs zusammen schalten. Allerdings müssen Sie darauf achten, dass die gesamte Kabellänge zwischen zwei Computern - einschließlich der Verbindung zwischen den Hubs - nie länger als 200 Meter betragen darf. Auch die Anzahl der Hubs ist begrenzt. Bei Verwendung von Hubs mit 32 Anschlüssen können Sie auch mit der richtigen Anordnung nur bis zu 120 Computer vernetzen. Besteht Ihr Netzwerk aus bis zu 50 Computern, die alle bequem mit maximal 100 Meter langen Kabeln vom Hub aus zu erreichen sind, sind Ihre Vorbereitungen jetzt schon beinahe abgeschlossen .Wenn Ihr Netzwerk größere Ausmaße erreicht, sollten Sie sich jedoch Gedanken über seine Leistungsfähigkeit machen. Je mehr Teilnehmer ein Netzwerk hat, desto größer ist die Gefahr, dass sich die Teilnehmer gegenseitig behindern. Dies ist dann der Fall, wenn zwei Teilnehmer gleichzeitig Daten übertragen wollen. In der Praxis gibt es häufig auch Probleme mit der maximalen Leitungslänge von 200 Metern zwischen zwei Computern. Die einfachste Lösung ist hier die Aufteilung des Netzwerks in Teilnetze, die durch eine Bridge miteinander verbunden sind. Im Vergleich zu einem Hub, der einfach alles weitergibt, was an seinen Eingängen auftaucht, ist eine Bridge intelligenter. Sie liest die gesendeten Datenpakete in den Teilnetzen mit. Aus den Absenderangaben jedes Datenpakets merkt sie sich die Adressen der Netzwerkkarten, die sich in jedem der beiden angeschlossenen Teilnetze befinden. Sendet nun ein Computer ein Datenpaket über das Netz, dessen Empfänger sich im selben Teilnetz befindet, dann tut die Bridge einfach gar nichts. Liest sie dagegen ein Datenpaket, dessen Empfänger sich in einem anderen Teilnetz befindet oder dessen Empfänger sie noch nicht kennt, dann - und nur dann - schickt sie dieses Datenpaket an das entsprechende Teilnetz weiter.
Ein so genannter Switch arbeitet nach dem gleichen Prinzip wie eine Bridge, kann aber mehr und bremst das Netzwerk nicht so stark aus. Ein Switch wartet nicht, bis er das ganze Datenpaket gelesen hat, sondern sendet die Daten nach Möglichkeit sofort weiter, nachdem die Adresse des Empfängers gelesen wurde. Da diese Adresse gleich am Anfang des Datenpakets verzeichnet ist, hält sich der Zeitverlust im Gegensatz zur Bridge in Grenzen. Darüber hinaus unterteilt ein Switch das Netz meist gleich in mehrere Segmente. Ein Computer, der viele Daten austauscht, kann sogar ein Segment für sich allein besitzen. Damit sich daraus wirklich ein Vorteil ergibt, ist der Switch in der Lage, gleichzeitig Daten zwischen verschiedenen Segmenten hin und her zu transportieren. Sind vier Segmente angeschlossen, können gleichzeitig Daten von Segment eins zu Segment zwei sowie von Segment vier zu Segment drei wandern, ohne dass die Übertragungsvorgänge dadurch behindert werden. In großen Netzwerken, in denen viele Segmente benötigt werden, kombiniert man mehrere Switches zu einem so genannten Stack. Darin tauschen die beteiligten Switches über eine spezielle, sehr schnelle Verbindung untereinander Daten aus. Nach außen erscheinen sie daher wie ein einziger großer Switch, da diese Kombination im Stack die Laufzeit der Daten kaum verlängert. Ein weiterer Vorteil von Switches ist, dass Sie hier verschiedenartige Kabel mit unterschiedlichen Übertragungsgeschwindigkeiten anschließen können. Je nachdem, welche Kabel und Geschwindigkeiten Sie kombinieren und wie viele Teilnetze Sie miteinander verbinden wollen, kann der Preis für einen Switch jedoch Schwindel erregende Höhen erreichen. Einfache Modelle erhalten Sie für weniger als 200 Mark. Für hochwertigere Geräte sind jedoch Preise von mehreren tausend Mark keine Seltenheit. Für Firmen, die beispielsweise ein bereits existierendes älteres Netzwerk mit einem neuen verbinden wollen, ist ein solcher teurer Switch trotzdem oft die günstigste Lösung. Doch auch bei kleineren Netzen, in denen größere Datenmengen bewegt werden, kann ein Switch die Leistung erheblich steigern. So lassen sich Teilnetze also auch dann noch recht einfach zusammenführen, wenn sich diese in zwei benachbarten Gebäuden befinden.
Was aber, wenn die Entfernung oder die Anzahl der Teilnetze größer wird und Sie die Verbindung nur bei Bedarf über eine Telefonleitung herstellen wollen? In diesem Fall hilft Ihnen ein Router weiter. Ein Router kann eine Telefonverbindung herstellen und Datenpakete per Telefonleitung aus Ihrem Netzwerk zu einem anderen Router transportieren, der sie daraufhin in das Netz des Adressaten einspeist. Auch eine Internet-Verbindung kann ein Router schnell und automatisch aufbauen. Allerdings unterscheidet sich die Art der Weiterleitung bei einem Router ganz erheblich von der in einer Bridge oder einem Switch. Bridges und Switches benutzen die eingebaute Adresse der Netzwerkkarte, um zu entscheiden, ob und in welches Teilnetz ein Datenpaket weitergeleitet werden muss. Das ist für ein fest installiertes Netz auch sinnvoll, denn dadurch erreichen alle Datenpakete schnell und einfach ihren Bestimmungsort. Geht aber eine Netzwerkkarte kaputt und muss sie durch eine andere ersetzt werden, dann ändert sich auch die Adresse des betreffenden Computers im Netzwerk. Wenn Sie nun Daten auf der Festplatte dieses Computers abrufen wollen, müssen Sie die Daten jetzt an einer ganz anderen Netzwerkadresse abholen. Für Sie als Benutzer ist es nicht zumutbar, sich mit diesen Details beschäftigen zu müssen. Solche Aufgaben kann Ihnen der Computer abnehmen. Eine Lösung dieses Problems basiert darauf, dass die Computer und Geräte im Netzwerk noch über eine andere eindeutige Kennung als die eingebaute Adresse der Netzwerkkarte verfügen. Diese Kennung wird in dem Protokoll festgelegt, das die Computer im Netzwerk verwenden. Computer in einem Netzwerk verwenden zur Erkennung von Absender und Empfänger eine bestimmte Kennung, deren Form im Protokoll festgelegt ist. Ein Router verwendet zur Weiterleitung von Paketen nicht die eingebaute Kennung der Netzwerkkarte, sondern die dem Protokoll entsprechen Kennung. Dadurch kann ein Router Daten sogar an völlig anders aufgebaute Netze weiterleiten (also Netze, die beispielsweise nicht dem Ethernetstandard entsprechen), solange die Computer im anderen Netz dasselbe Protokoll verwenden. Während die Kennung der Netzwerkkarte nicht geändert werden kann, läßt sich die dem Protokoll entsprechende Kennung einstellen. Damit ergibt sich der Vorteil, dass defekte Netzwerkarten oder der ganze Computer ausgetauscht werden können, ohne dass sich an der Kennung etwas ändert. Eine Verschmelzung aus Switches und Routern stellen die neuen „Level-3-Switches“ dar. Sie kombinieren die Geschwindigkeit von Switches mit der Fähigkeit der Router, die dem Protokoll entsprechende, änderbare Kennung zu nutzen, um Daten weiterzuleiten.

Während Bridge, Switch und Router festgelegte Aufgaben in einem Netzwerk übernehmen, kann ein Server eine Vielzahl von Funktionen ausführen. Ein Server ist ein Computer, an dem meist nicht direkt gearbeitet wird, sondern der anderen Computern im Netzwerk Dienste zur Verfügung stellt. Im einfachsten Fall handelt es sich um einen Dateiserver. Solche Rechner sind mit großen Festplatten ausgestattet, auf denen Benutzer des Netzes Daten speichern können. Durch Sicherheitsverfahren, die vom verwendeten Betriebsprogramm abhängig sind, können die Daten so gespeichert werden, dass sie entweder nur dem jeweiligen Benutzer, einer Gruppe oder aber allen Benutzern im Netzwerk zur Verfügung stehen. Einen kleinen Dateiserver, der einer Arbeitsgruppe von rund 25 Computern zur Verfügung steht, können Sie mit dem Betriebsprogramm Linux und einem gebrauchten Pentiumrechner schon für weniger als 1000 Mark aufbauen. Wenn Sie sich einen Dateiserver unter Windows NT oder Windows 2000 einrichten wollen, benötigen Sie einen leistungsstärkeren Computer und müssen mit Kosten von rund 2000 Mark rechnen.
Die Vorteile eines Dateiservers sind in beiden Fällen dieselben. Statt öfters in einzelnen Computern Festplatten nachzurüsten, reicht eine gelegentliche Erweiterung der Festplatten im Server, auf die dann alle Netzwerknutzer zugreifen können. Daten können von verschiedenen Computern aus gelesen und bearbeitet werden, ohne sie vorher mühsam kopieren zu müssen. Mit einfachen Maßnahmen können Sie sich vor dem Verlust Ihrer Daten schützen. So können Sie etwa einen „Backup-Server“ einsetzen, der die Daten des Dateiservers automatisch in vorher festgelegten Abständen sichert. Damit bleibt bei einem Defekt des Dateiservers der größte Teil der Daten erhalten. Noch sicherer wird es, wenn Sie einen so genannten RMD Controller mit mehreren Festplatten im Server verwenden. Mit den richtigen Einstellungen führt selbst ein Totalausfall einer Festplatte nicht zu Datenverlust. Da Sie diesen Aufwand nicht für jeden Computer, sondern nur für den Server betreiben müssen, bewegt sich der Preis der Sicherheit im vertretbaren Rahmen. Mit einigen tausend Mark müssen Sie jedoch rechnen. Darüber hinaus kann ein Server den Arbeitsplatzrechnern bestimmte Aufgaben abnehmen - etwa das Durchsuchen einer Datenbank. Für solche Anwendungen muss allerdings auch im Server ein schneller Prozessor - oder besser gleich mehrere - vorhanden sein. Ein solcher leistungsstarker Server kann, je nach Ausstattung und Programmen, schnell 20000 Mark und mehr kosten. Außerdem können die am Netzwerk angeschlossenen Computer über den Server beispielsweise elektronische Post (E-Mail) miteinander austauschen. Mit den entsprechenden Einsteckkarten und Programmen versehen, kann ein Server auch die Funktion einer Bridge eines Switches oder eines Routers übernehmen. Allerdings funktioniert eine solche Lösung zumeist deutlich langsamer als ein eigens daraufhin konstruiertes Gerät.

Die Entwicklung der Ethernetnorm reicht weit zurück: 1973 erstmals bei der Firma Xerox erprobt, wurde die Übertragungsgeschwindigkeit 1979 von den Unternehmen DEC, INTEL und Xerox auf zehn Megabit pro Sekunde festgelegt. 1995 folgte mit dem Fast-Ethernet die heute gebräuchliche Version, die mit 100 Megabit pro Sekunde arbeitet.
Die grundlegende Idee dieser Norm ist einfach. Alle an das Netzwerk angeschlossenen Karten verwenden zum Senden und Empfangen dasselbe Kabel. So kann jede Karte „hören“, was jede andere Karte „sagt“. Um Sender und Empfänger der Daten auf diesem gemeinsamen Kabel eindeutig zu bestimmen, hat jede Ethernetkarte eine eigene, einmalige Nummer.
Bevor eine Karte Daten in das Netz sendet, „hört“ sie zunächst einmal hin, ob eine andere Karte gerade „spricht“. Sie stellt fest, ob das Kabel von einer anderen Karte verwendet wird. Nur wenn das nicht der Fall ist, beginnt sie selbst zu „sprechen“, also Daten zu senden. Gleichzeitig „hört“ sie jedoch zu, was auf dem Netzwerkkabel passiert, denn es könnte sein, dass eine weitere Karte genau zum gleichen Zeitpunkt zu „sprechen“ begonnen hat. In diesem Fall werden die Daten beider Karten auf dem Netzwerkkabel „gemischt“. Jede Karte „hört“ dann nicht das, was sie selbst „gesagt“ hat. In dem Fall brechen beide Karten die Übertragung ab und versuchen es später erneut.
Damit sie beim nächsten Versuch nicht wieder in Konflikt geraten, verwenden die Karten für die Bestimmung der Wartezeit einen Zufallsgenerator. Die Karten „würfeln“ jeweils eine Zahl und warten diese Anzahl von Sekunden ab. Erst dann starten sie den nächsten Versuch, zu Wort zu kommen. Da die Wahrscheinlichkeit gering ist, dass zwei Karten dieselbe Zahl „würfeln“, wird sich das gleichzeitige „Sprechen“ kaum wiederholen. In einer kleinen Runde von „Gesprächsteilnehmern“ wird der Fall des gleichzeitigen „Sprechens“ selten vorkommen. Je größer die Zahl der Teilnehmer - und damit die Zahl der „Wortmeldungen“ -, desto häufiger werden die Zwangspausen. Deshalb teilt man die Anzahl der Teilnehmer auf und verteilt sie auf mehrere Untergruppen - zum Beispiel mit Hilfe von Bridges und Routern.

Der Netzwerkstecker hat die Bezeichnung RJ 45 und besitzt acht Anschlußkontakte Nun wäre es ja einfach, immer zwei nebeneinander liegende Kontakte für ein Adernpaar zu verwenden. Doch damit es nicht ganz so leicht wird, haben sich die Techniker eine ziemlich wilde Belegung ausgedacht. Das erste Adernpaar verwendet die Kontakte fünf (plus) und vier (minus), das zweite Adernpaar die Kontakte drei (plus) und sechs (minus). Beim dritten Adernpaar kommen die Anschlüsse eins (plus) und zwei (minus) zum Einsatz und das vierte Adernpaar wird an die Kontakte sieben (plus) und acht (minus) angeschlossen. Wenn Sie nur zwei Adern paare einsetzen, müssen Sie diese als drittes und zweites Adernpaar an den Anschlüssen eins, zwei, drei und sechs anschließen. Bei der farbigen Kennzeichnung der Adernpaare gibt es keine Norm, allerdings sind die Farben immer so gewählt, dass Sie die zusammengehörigen Adern leicht erkennen können.
Um Ihre Computer im Netz betreiben zu können, müssen Sie auch einige Einstellungen vornehmen. Schalten Sie den Computer nach Einbau der Netzwerkkarte ein. Windows 95 erkennt die neue Hardware und sucht die passenden Treiber, die Sie auf Diskette oder CD-ROM mit der Netzwerkkarte erhalten haben sollten.
Nach einem Neustart ist die Installation der Software abgeschlossen.
Jetzt müssen Sie noch in der Systemsteuerung (Netzwerk) die IP-Adresse festlegen. Klicken Sie doppelt auf die Zeile, in der diese Netzwerkkarte hinter den Buchstaben TCP/IP genannt wird und vergeben Sie der Karte die IP-Adresse und die Subnetzmaske.
Haben Sie die beiden Zahlenreihen eingetippt, gegen Sie einen Namen für den Computer ein. Dieser darf bis zu 15 Zeichen lang sein. Außerdem sollte jeder Computer im Netz einen anderen Namen tragen. Die Arbeitsgruppe im Netz muss hingegen bei allen Rechnern gleich sein.

Die IP-Adresse:
Zur Datenübertragung im Internet und in Netzwerken wird ein standardisiertes Verfahren benutzt, das sogenannte Internetprotokoll (IP). Jeder Computer, der an das Internet angeschlossen ist, erhält eine eigene IP-Adresse, über die er erreichbar ist. Diese setzt sich aus einer Kombination von vier Zahlen zusammen, die durch drei Punkte getrennt sind. Jede dieser Zahlen kann einen Wert zwischen 0 und 255 haben, wobei die Werte 0 und 255 nicht als Host vergeben werden dürfen, da sie eine besondere Bedeutung haben. 0 ist das Subnetz und 255 steht für den Broadcast.
Für private Netzwerke gelten die Adressen 192.168.X.X
Alle Anbieter im Internet haben einen Namen, der weltweit nur ein Mal vorkommt. Wenn Sie sich mit Ihrem Computer im weltweiten Datennetz einwählen, dann "leiht" Ihnen der Internet-Anbieter für diesen Zeitraum einen seiner Computernamen. Die Maskierung von Daten, das Masquerading, nutzt diese Effekte aus. Wenn ein Computer über das Netzwerk Daten aus dem Internet anfordert, dann „maskiert“ der ans Internet angeschlossene Computer diese Anfrage so, als ob sie von ihm selbst käme. Zugleich wählt er eine noch freie Kennzahl für die Antwort und sendet diese zusammen mit der Anfrage. Kommt dann eine Antwort mit dieser Kennzahl, leitet er diese Daten direkt an den Computer im Netzwerk weiter, der die Anfrage ursprünglich gestellt hat. Auch ein Router kann gleichzeitig mehrere Aktionen durchführen. So können über eine einzige Internet-Verbindung alle Computer im Netzwerk Daten anfordern.
Am einfachsten läßt sich ein Netzwerk mit dem Internet verbinden, wenn Sie für jeden angeschlossenen Computer eine eigene IP-Adresse beantragen und das Netzwerk direkt über einen Router mit Ihrem Internet-Anbieter verbinden. Doch das ist weder ganz billig noch wirklich sicher. Denn jeder direkt angeschlossene Computer kann nicht nur Informationen abrufen, sondern auch bereitstellen. Sind beispielsweise Laufwerke auf einem Computer Ihres Netzwerks für den allgemeinen Zugriff – eigentlich nur aus Ihrem Netzwerk – freigegeben, lassen sich die dort abgelegten Daten nach dem Anschluß ans Internet von Benutzern auf der ganzen Welt lesen.
Um über ein Netzwerk auf das Internet zuzugreifen, können Sie auch einen Router verwenden, der ein Masquerading durchführt. So läßt sich im Internet nur der Router aufspüren, nicht aber die (vom Internet aus gesehen) dahinter liegenden Computer des Netzwerks. Daher sind auch die Daten auf diesen Computern für andere Internet-Benutzer nicht erreichbar.
Doch auch diese Lösung ist nicht optimal. Ein Beispiel: Greifen mehrere Computer aus dem Netzwerk auf dieselbe Internet-Seite zu, dann fragt jeder dieser Computer zunächst die IP-Adresse der betreffenden Seite nach. Anschließend wird diese Seite einzeln auf jeden der Computer übertragen.
Viel günstiger ist es, die Adressen und Inhalte innerhalb des Netzwerks zu speichern und von dort aus den Arbeitsplatzcomputern zur Verfügung zu stellen. Zudem wünschen sich viele Firmenchefs die Möglichkeit, entweder den Zugriff aus dem Netzwerk nur auf bestimmte Internet-Seiten zuzulassen oder aber bestimmte Seiten zu sperren.

Subnetzmaske:
Die Subnetzmaske zeigt dem Computer, welche IP-Adressen im gleichen Netzwerk erreichbar sind und welche nicht. Das funktioniert ähnlich wie die Vorwahl im Telefonnetz. Alle Teilnehmer, mit der gleichen Vorwahl können mit einem Ortsgespräch ohne Vorwahl erreicht werden.
Die ersten drei Zahlen in der Subnetzmaske sollten Sie für sämtliche Netzwerkcomputer auf den Wert 255 setzten. Die Subnetzmaske erhält in diesem Fall also den Wert 255.255.255.0. Daran erkennt der Computer, dass sich die IP-Adressen der Netzwerkcomputer nur anhand der letzten Ziffer unterscheiden. Alle anderen IP-Adressen befinden sich demnach in einem anderen Netzwerk. Welcher Wert als letzter eingetragen wird, hängt dagegen von der Anzahl Ihrer Netzwerkrechner ab. Sind mehr als 126 Rechner vorhanden, tippen Sie eine 0 ein. Liegt die Zahl der Rechner dagegen zwischen 62 und 126, wählen Sie als letzte Zahl 128. Die folgende Tabelle zeigt Ihnen im Überblick, welche Werte Sie jeweils verwenden sollten:

Computer-Anzahl für die letzte Zahl:
bis 2: 252
bis 6: 248
bis 14: 240
bis 30: 224
bis 62: 192
bis 126: 128
bis 254: 0

Gateway:
Als Gateway wird die IP-Adresse des Rechners bzw. Routers bezeichnet, über den die Internetverbindung läuft. Das Gateway ist also das Tor zum Internet.

DNS:
Der Domain Name Server wandelt eine URL in eine IP-Adresse. Dieser Dienst übersetzt die Rechnernamen z.B. www.arcor.de in die entsprechende IP-Adresse aaa.bbb.ccc.ddd.

NAT:
Alle Rechner nutzen Network Address Translation (NAT). Das heißt, nach außen arbeiten alle PCs mit nur einer IP. Anfragen leitet der Router an die einzelnen Rechner im Netzwerk automatisch weiter. Das erschwert Angriffe von außen, da es nicht möglich ist, sich zu den einzelnen Rechnern direkt zu verbinden. Nun gibt es aber Anwendungen, die genau diese Verbindung benötigen. Für diesen Fall bieten die Router die Möglichkeit, den Rechner in eine Firewall-freie Zone (DeMilitarized Zone, DMZ) zu legen. Aber Vorsicht: Die hier eingetragenen Rechner lassen alle Anfragen zu. Daher sollten Sie auf solchen Computern eine eigene Software-Firewall installieren.

DHCP:
die DHCP-Server Funktion bei einem Router ist für eine automatische Vergabe von IP-Adressen für die an dem Router angeschlossenen Clients zuständig. D.h. wenn die DHCP-Server Funktion bei dem Router aktiviert ist (was bei den meisten Routern die Standardeinstellung ist), dann bekommen die Clients ihre IP von dem Router zugewiesen. Bei den Clients ist dann bei den TCP/IP-Einstellungen der Punkt “IP-Adresse und evtl. zusätzlich DNS-Server-Adresse automatisch beziehen” aktiviert.
Um eine statische (manuelle) IP-Vergabe vorzunehmen, muss man die DHCP-Server Funktion des Routers deaktivieren und die IPs bei den Clients fest eintragen. Dabei ist darauf zu achten, dass sich alle Komponenten des Netzwerkes (also die Clients, der Router, evtl. Netzwerkdrucker usw.) im gleichen IP-Adressbereich befinden und dass die Subnetzmaske immer identisch ist. So bleiben die ersten drei Teile der IP (z.B. 192.168.1.xxx) immer gleich und nur der letzte Teil (hier das xxx) wird für jedes Gerät individuell und einmalig vergeben. Um die Übersicht zu behalten, sollten Sie eine Liste aufstellen, in der die Namen der Computer sowie die diesen jeweils zugeordneten Zahlen aufgeführt sind. Außerdem sollten wichtige Computer in Ihrem Netzwerk, wie Server oder Router nicht unbedingt die ersten IP-Adressen, also die Kennzahlen 1 oder 2 erhalten. Das wird zwar von vielen Netzwerkadministratoren so gemacht, da sich diese Adressen leicht merken lassen und damit die Übersichtlichkeit verbessert wird. Es erleichtert jedoch einem Eindringling die Arbeit.

Das Internet:
Das Internet, so wie es sich heute präsentiert, ist ein weltumspannendes Netzwerk von mehreren Millionen Computern, die in unzähligen Teilnetzwerken organisiert sind. Aus diesem Grund ist die Bezeichnung Internet für das »Netz der Netze« treffend gewählt. Im Internet tummeln sich viele Computer, die verschiedene Dienste anbieten. Die technische Grundlage für die Bereitstellung dieser Dienste bilden Protokolle, zu denen zum Beispiel das Simple Mail Transport Protocol (SMTP) zum Versenden von E-Mails, das File Transfer Protocol (FTP) zum Übertragen von Dateien und das Hypertext Transfer Protocol (HTTP) zum Übertragen von Texten, Bildern und multimedialen Inhalten im World Wide Web (WWW) gehören. Das alles sind Dienste, die Sie heute völlig selbstverständlich privat oder kommerziell nutzen können, vorausgesetzt, Sie haben die passende Software und einen Zugang zum Internet.
Computer, die innerhalb des Internets einen oder mehrere Dienste bereitstellen, werden Host oder Hostrechner genannt, auf denen eine Software läuft, über die entsprechende Internet-Dienste realisiert werden. Allgemein bezeichnet man diese Konstellation als Server. Solche Server laufen, wenn sie nicht gerade defekt sind oder gewartet werden, typischerweise rund um die Uhr, damit ihre Dienste jederzeit verfügbar sind. Je nach Aufgabe gibt es verschiedene Servertypen wie zum Beispiel Fileserver, Mailserver, Datenbankserver, Newsserver oder Dokumentenserver.
Computer, die auf die angebotenen Dienste zurückgreifen, heißen allgemein Clients. Diese Einteilung bezieht sich nicht nur auf das Internet, sondern sie gilt gleichermaßen für lokale (LAN) und weite Netzwerke (WAN) mit Client-/Serverarchitektur, ja sogar auf Softwareebene. Deshalb ist es ohne weiteres möglich, dass auf nur einem einzigen Computer sowohl ein oder mehrere Serverdienste laufen als auch ein oder mehrere Clients aktiv sind. Diese Konfiguration wird gerne während der Programmierung von komplexen, meist datenbankgestützten Webanwendungen eingesetzt, um in einer lokalen Testumgebung ohne Verbindung zum Internet arbeiten und experimentieren zu können. Insbesondere private Hobbyentwickler, die sich überwiegend per Modem ins Internet einwählen, senken so ihre Telefonkosten erheblich.
Die Wurzeln des Internets reichen inzwischen 35 Jahre zurück. 1973 förderte die U.S. Defense Advanced Research Projects Agency (DARPA) ein Forschungsprojekt für das Department of Defense, dem US-amerikanischen Verteidigungsministerium. Das Projekt beschäftigte sich mit der Entwicklung von Übertragungstechniken für Datenpakete zwischen unterschiedlichen voneinander unabhängigen Netzwerken. Ziel war es, eine Technologie zu entwickeln, die, von einzelnen Computern unabhängig, die Daten sozusagen immer sicher ins Ziel bringt, selbst unter Kriegsbedingungen. Das im Rahmen dieses Projekts entwickelte Netzwerk war vom Typ her ein Wide Area Network (WAN), bestand aus vier Computern und wurde in Gedenken an den finanziellen Projektträger ARPANET genannt.
Das ARPANET wurde in den 70er Jahren zunehmend von der Wissenschaft entdeckt, weil man damit Forschungsergebnisse von fernen Quellen abrufen konnte. Die Zahl der angeschlossenen Computer stieg rasch an. Standards für Rechnerarchitekturen waren zu dieser Zeit allerdings noch ausgesprochen selten zu finden. Das hatte zur Folge, dass Großrechner und andere Computer unterschiedlichster Bauart netzwerktechnisch zu verbinden waren. Das konnte nur mit Hilfe einer gemeinsamen Basis für die Kommunikation der Computer untereinander gelingen. Das führte letztlich zur Entwicklung von TCP/IP und damit erstmals zu einer standardisierten Vermittlungstechnologie für Datenpakete. Der Forscherdrang in den Wissenschaften verhalf dem ARPANET zu einer explosionsartigen Ausbreitung und damit zunehmend zu einer großen Öffentlichkeit. Daher zog sich das amerikanische Militär mit der Freigabe des Internetvorgängers für die kommerzielle Nutzung in den achtziger Jahren in ein eigenes, nicht mehr dem ARPANET angeschlossenes, Netzwerk zurück. Außerdem verband die National Science Foundation (NSF) Mitte der achtziger Jahre mit Hilfe eines Hochleistungsnetzwerks, dem so genannten Backhone, landesweit autonome Rechenzentren miteinander, so dass diese als Vermittlungsstellen zwischen verschiedenen Teilnetzen fungieren konnten. Die amerikanische Raumfahrtbehörde NASA und das U.S. Department of Energy lieferten mit dem NSINET bzw. ESNET weitere Backbone-Strukturen. Das dadurch entstandene Gesamtgebilde wurde schließlich Internet genannt, das bereits Anfang der neunziger Jahre rund 5.000 Netzwerke in über 35 Ländern mit insgesamt über 700.000 Host Computern zusammen schloß. Damit ist das Internet selbst aber kein klar definiertes Netzwerk, sondern vielmehr eine logische, aus verschiedenen aufeinander abgestimmten Protokollen bestehen Struktur.
Einfach eine Internetadresse eintippen, und nach nur wenigen Sekunden erscheint die gewünschte Seite auf dem Schirm - egal, ob ihr Urheber in Australien oder in Bielefeld sitzt. Oder mal schnell eine E-Mail schreiben und die elektronische Post in Windeseile um die ganze Welt schicken. All das funktioniert mittlerweile völlig selbstverständlich.
Das Internet ist ein weltumspannendes Netzwerk, deshalb heißt es auch „weltweites Netz“ oder auf Englisch „World Wide Web“, abgekürzt „WWW“. In Anlehnung an den Begriff „World Wide Web“ werden Internetseiten auch „Webseiten“ genannt. Das Internet besteht aus vielen Tausend verschiedenen Computern, sogenannten Zentralrechner („Server“), auf denen die Informationen gespeichert sind.
Damit Ihr Computer auf die Inhalte im Internet zugreifen kann, müssen Sie ihn in das weltweite Netz einklinken. Dazu nutzen Sie die Dienste eines Zugangsanbieters, auf Englisch auch „Internet Provider“ genannt.
Ihr Rechner wählt sich dann beim Zugangsrechner dieses Anbieters ins Internet ein.
Während dieser Einwahlprozedur erhält Ihr PC eine IP-Adresse. Dabei handelt es sich um eine Art Hausnummer im Netz. Über die IP-Adresse kann deshalb jeder Teilnehmer im Internet Ihren Computer finden. Sie dient nicht nur als Absender-, sondern auch als Empfängeradresse für den Datenaustausch. Die Zahlenkombination verrät zudem, aus welchem Land eine Abfrage kommt.
Das nutzen beispielsweise mehrsprachige Internet-Seiten. An eine IP-Adresse aus Deutschland wird die Seite dann auf Deutsch geschickt, eine amerikanische Adresse bekommt die englische Version.
Eigentlich müssten Sie hier die IP-Adresse der Internetseite eingeben, die sie erreichen wollen, z.B. „80.154.l6.69“. Weil sich aber niemand eine derart lange Zahlenkolonne merken will und sich die IP-Adresse auch ändern kann, sorgen DNS-Server für die Übersetzung von Klartextadressen wie „www.google.de“ in IP-Adressen.
Wenn Sie eine Internetadresse eingeben, fragt das Internet-Zugriffsprogramm die dazugehörige IP-Adresse bei einem DNS-Server ab. Von dieser IP-Adresse kann Ihr PC dann Daten abrufen.
Das Aufrufen von Internetseiten ist die bekannteste und häufigste Art, Informationen zwischen einem Internetserver und einem PC auszutauschen. Dabei wird meist das Übertragungsprotokoll „http“ verwendet, Dateien werden dagegen per „ftp“ verschickt.
Das Kürzel „http“ steht für „Hypertext Transfer Protocol“, auf Deutsch etwa „Übertragungsprotokoll für verbundene Texte“. Dieser Begriff steht für den Aufruf von Webseiten.
Weil „http“ keine Sicherheitsmechanismen kennt, wurde später die Variante „https“ („s“ für Englisch „secure“, also „sicher“) entwickelt. Sie verschlüsselt den Datenverkehr. Achten Sie darauf, dass „https“ verwendet wird, wenn Sie persönliche Daten übertragen - etwa beim Homebanking oder beim Einkaufen in Internet Shops.
Zum Herunter- oder auch Hochladen von Dateien gibt es das „File Transfer Protocol“ (Deutsch: Datei Übertragungsprotokoll). Oft haben auch Internetseiten einen Verweis („Link“) auf eine FTP-Adresse. Die Adresse beginnt dann mit „ftp://“. Mit Internet-Zugriffsprogrammen wie dem Internet Explorer können Sie direkt auf FTP-Server zugreifen. Die dort gespeicherten Dateien sind häufig öffentlich und lassen sich ohne besondere Zugangsdaten („anonym“) herunterladen. Bei einigen FTP-Servern ist auch das Überspielen von Dateien auf den Server erlaubt. Auf diesem Wege können Sie beispielsweise Internetseiten, die Sie auf Ihrem Computer gestaltet haben, auf den Server Ihres Internetanbieters überspielen. Das Überspielen von Dateien auf einen FTP-Server gelingt aber nur dann, wenn Sie sich mit Benutzernamen und Kennwort anmelden. Die Zugangsdaten erhalten Sie vom Betreiber des Servers. Ist die Verbindung zum FTP-Server erst einmal hergestellt, können Sie sich den Inhalt des FTP-Servers auch im „Windows-Explorer“ anzeigen lassen.
Die Klartextadressen im Internet sind immer nach demselben Schema aufgebaut und in Bereiche (Domains) aufgeteilt. Am besten betrachtet man sie von rechts nach links.
Ganz rechts steht die sogenannte Top Level Domain, bei deutschen Seiten heißt sie meist „.de“. In anderen Ländern werden ebenfalls oft Endungen mit zwei Buchstaben verwendet. So steht etwa „.fr“ für Frankreich und „.it“ für Italien. Es gibt aber auch Internetadressen mit anderen Endungen. Am häufigsten wird „.com“ („commercial“, auf deutsch „geschäftlich“) verwendet. Ursprünglich wurde sie nur von amerikanischen Firmen benutzt. Inzwischen werden „.com“ Adressen auch international und sogar an Privatleute vergeben.
Vor der Endung steht meist der Name des Anbieters, etwa „google“.
Ganz vorne findet sich eine Bezeichnung des Servers, meist „www“ als Hinweis darauf, dass es um einen Server mit Internetseiten handelt.
Manchmal liest man hier aber auch andere Angaben. So verwenden einige Hersteller beispielsweise anstatt „www“ das englische Wort für Unterstützung, „support“, am Anfang der Internetadresse ihrer Hilfe-Seiten und einige internationale Firmen stellen ihren deutschen Internetseiten „de“ statt „www“ voran.
Für die Verwaltung der Internetnamen gibt es viele unterschiedliche Organisationen. Internetadressen mit der Endung „.de“ verwaltet das DENIC. Es teilt dabei jeder Klartextadresse eine oder mehrere IP-Adressen zu. Diese Zuordnungen werden auf den DNS-Servern des DENIC gespeichert und an andere DNS-Server weitergeleitet. Beim DENIC können Sie auch abfragen, wer eine bestimmte Internetadresse betreibt. Wenn Sie eine eigene Internetseite einrichten wollen, können Sie so auch prüfen, ob Ihre Wunschadresse noch frei ist.
Das Übertragungsverfahren „http“ übermittelt die Daten unverschlüsselt, andere Nutzer können sie deshalb leicht mitlesen. Zudem lassen sich Klartextadressen leicht fälschen. Das machen sich beispielsweise Phishing Mails zunutze. Sie versuchen meist, Ihre Bankdaten, etwa die PIN und möglichst viele TANs auszuspionieren.
Sicherer ist es, wenn zwischen Ihrem PC und dem Zentralrechner eine verschlüsselte Verbindung besteht. Das passiert, wenn Sie eine Internetadresse mit dem Vorsatz „https://“ aufrufen. Wenn die verschlüsselte Übertragung aktiv ist, erkennen Sie das daran, dass neben der Internetadresse oder unten am Fenster des Anzeigeprogramms ein Schloß angezeigt wird.
Außerdem sollten Sie die Internetadresse selbst eintippen oder über ein selbst angelegtes Lesezeichen aufrufen. So vermeiden Sie, dass Ihnen eine gefälschte Seite untergeschoben wird.

Dateinamen:
Die typische Dateierweiterung für HTML-Dokumente ist .htm oder .html. Die erste Form wird meist verwendet, wenn HTML-Dateien von einem lokalen PC verarbeitet werden sollen, während die zweite Form anzeigt, dass die Datei von einem Server kommt. Diese Konvention hat sich im Laufe der Zeit eingebürgert, zwingend einzuhalten ist sie dagegen nicht.
Die meisten Webserver werden von Unix bzw. Linux betrieben, daher werden nur Dateinamen mit bis zu 256 Zeichen unterstützt, wobei Sonderzeichen nicht verwendet werden dürfen. Erlaubt sind neben den Buchstaben und Ziffern noch der Unterstrick, der Bindestrich und der Punkt.
Anders als bei Windows unterscheiden Unix Betriebssysteme zwischen Goß- und Kleinschreibung von Datei- und Verzeichnisnamen. Sie sollten daher grundsätzlich ein eigenes Namensschema mit einheitlicher Schreibweise entwickeln, nach dem Sie Ihre Verzeichnisse und Dateien benennen, die zu einem Webprojekt gehören. Anderenfalls können Webseiten, die Sie unter Windows erstellt haben, nach dem Hochladen auf einen Server nicht mehr fehlerfrei angezeigt werden.

Server:
Mit einem PC im Arbeitszimmer fängt es meistens an. Dann kommt ein Notebook dazu, später oft noch ein Computer fürs Kinderzimmer. Sind diese Geräte vernetzt, können sie gemeinsam einen Internetanschluss nutzen. Aber häufig fehlt ein komfortabler Zugriff auf alle Dokumente, Fotos, Musikstücke und Filme im Haus. Das klappt perfekt, wenn ein Server die Rolle des zentralen Datenspeichers im Netzwerk übernimmt.
Ein Server ist zunächst einmal nur ein Computer, aber die meisten Geräte sind mit spezieller Hardware bestückt. Ein typischer Server ist größer, lauter und teurer als ein herkömmlicher Schreibtisch - PC.
Unternehmen, Behörden und andere Institutionen lagern auf solchen Servern zentral alle Daten und Dokumente, mit denen viele Anwender arbeiten sollen. Natürlich sitzen die Mitarbeiter nicht vor dem Server, sondern vor einem herkömmlichen Computer, wie er in Privathaushalten steht. Auf diesen PCs (auch Internet Clients genannt, Englisch für Kunde) laufen Büroprogramme und andere spezielle Programme.
Diese Programme, die auf den Computern der Mitarbeiter laufen, holen ihre Daten und Texte dabei nicht wie sonst von der im PC eingebauten Festplatte, sondern über das Netzwerk vom Server.
Ein Server ist immer dann sinnvoll, wenn mehrere Nutzer Daten an einer zentralen Stelle aufbewahren und ihren Mitarbeitern zur Verfügung stellen sollen.
Server sollen große Mengen an Daten und Dokumenten speichern und bei Bedarf so schnell wie möglich über ein Netzwerk verteilen.
Weil ein Server weder Grafikkarte noch Soundkarte benötigt, fehlen diese Bauteile in den meisten zentralen Datenspeichern. Stattdessen sitzt in der Regel ein einfacher Grafikprozessor auf der Hauptplatine.
Außerdem bestimmen die Aufgaben des Servers seine Bauform. So sind viele Server größer und schwerer als ein herkömmlicher PC. In Rechenzentren kommen dagegen meist hundert Server in flachen Spezialgehäusen zum Einsatz.
Es gibt auch sehr kleine Server. Das sind vor allem solche, die in anderen Geräten, wie WLAN-Routern oder in Festplatten mit Netzwerkanschluß, stecken.
In den meisten Servern speichern zahlreiche schnelle und große Festplatten die Daten. Die Festplatten eines Servers sind in der Regel mit einem RAID Adapter verbunden. Damit lassen sich mehrere Festplatten zusammenfassen und so je nach verwendetem Adapter Geschwindigkeit, Speicherplatz oder sogar beides erhöhen oder vor Datenverlusten schützen.
Die Verteilung von Daten ist die wichtigste Aufgabe eines Servers. Deshalb stecken in den meisten Servern besonders gute und schnelle Netzwerkkarten. In vielen Servern arbeiten mehrere Netzwerkkarten gleichzeitig. So wird eine höhere Datenrate im Netzwerk erreicht.
Auf dem Server läuft meist ein angepasstes Betriebssystem wie etwa Windows Server 2008 oder Linux. Sie sind auf die Verteilung von Daten und Dokumenten an eine große Anzahl von Nutzem ausgerichtet, dabei werden Server nur selten über eine Tastatur und einen Monitor bedient. Stattdessen übernimt meist ein anderer Computer über das Netzwerk die Steuerung. Dann kann der Server beispielsweise in einem besonders gesicherten Raum stehen und ist so vor Diebstahl geschützt.

Datei-Server (SMB):
Er speichert Daten und verwaltet den Zugriff auf die Daten, das heißt, er erfüllt die klassischen Aufgaben eines Servers. Mit modernen Server-Betriebssystemen läßt sich festlegen, wer welche Daten sehen, lesen oder ändern darf, und wie viel Speicherplatz jedem Nutzer zur Verfügung steht.
Im Explorer lässt sich unter Extras -> Netlaufwerk verbinden einfach ein SMB-Server als Laufwerk einbinden. Leider speichert Windows die ggf. nötigen Anmeldeinformationen trotz gesetzter Option nur dann ab, wenn bei der Windows – Anmeldung selbst ein Kennwort eingegebnen wurde. Möchten Sie dennoch ohne Kennwort Ihr Windows starten, hilft folgender Eintrag in der Registry:
[HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\Windows NT\CurrentVersion\Winlogon]
"DefaultUserName"="[user]"
"DefaultPassword"="[kennwort]"
"AutoAdminLogon"="1"
ggf. mussnoch manuell nachgeholfen werden, indem nacheinander Sie Start -> Einstellungen -> Systemsteuerung -> Benutzerkonten -> Erweitert -> "Kennwörter verwalten" -> "Hinzufügen" anklicken und dort den gewünschten Server (mit dem das Netzlaufwerk verbunden werden soll) unter "Server" angeben und einen Benutzer mit den Rechten dazu unter "Benutzername" angeben, zum Schluss das passende Kennwort eintragen und mit OK bestätigen.

E-Mail-Server:
Eine E-Mail können Sie nicht direkt zu einem Empfänger schicken, sondern nur zum E-Mail-Server des Adressaten. Diese Server verwalten E-Mail-Konten und tauschen E-Mails mit anderen E-Mail-Servern aus. Ein E-Mail-Server läuft in der Regel rund die Uhr, damit keine E-Mail auf dem Weg zum Empfänger verloren geht. In größeren Netzwerken, beispielsweise in Firmen und an Universitäten, kommen oft so genannte Groupware-Server wie der Microsoft Exchange Server zum Einsatz. Diese Server haben viele Zusatzfunktionen und können beispielsweise ankommende E-Mails automatisch an den Computer und das Handy des Empfängers schicken. Zudem lassen sich mit einem Groupware-Server auch Termine automatisch für alle Benutzer im Netzwerk verwalten.

Internet-Server:
Diese Server stellen Internetseiten zum Abruf bereit. Viele große oder häufig abgerufene Internetseiten sind auf mehreren Servern gleichzeitig gespeichert.

Datenbank-Server:
Viele Internet-Server holen sich abgerufene Daten von Datenbank-Servern. Wenn Sie die Startseite mancher Internetseiten aufrufen, nimmt der Internet-Server diese Anfrage entgegen und leitet sie an den Datenbank-Server weiter. Der Datenbank-Server sucht dann die passenden Texte, Bilder und Designs zusammen und schickt sie an den Internet-Server. Der wiederum baut aus den gelieferten Daten die Internetseite zusammen und schickt sie an Ihr Internet-Zugriffsprogramm, das die Startseite dann auf Ihrem Bildschirm anzeigt.

FTP-Server:
Die FTP-Server fungieren als Datei-Server im Internet. Wenn Sie eine Programmaktualisierung oder eine neue Software aus dem Internet auf Ihren Computer herunterladen, kommen die Daten in den meisten Fällen von einem FTP-Server.

Einige Server im Internet liefern keine direkt sichtbaren Inhalte, stattdessen sorgen sie für die reibungslose Funktion des Internets und stellen bestimmte Dienste bereit, dabei werden die Server nach dem jeweiligen Dienst benannt.

DHCP-Server:
Sie vergeben zentral die IP-Adressen in einem Netzwerk. Auf diese Weise müssen nicht alle Computer von Hand konfiguriert werden. Zudem verhindert das Dynamic Host Configuration Protocol, dass zwei Computer die gleiche IP-Adresse verwenden.

DNS-Server:
Ein DNS-Server wandelt die Anfrage nach einer Seite wie www.google.de in die für das Internet erforderliche IP-Adresse um.

Proxy-Server:
In vielen Firmen sorgen Proxy-Server für den Zugang vom Firmennetzwerk zum Internet. Der Proxy arbeitet dann als Vermittler zwischen dem Internet und einem PC im Netzwerk. An einem Proxy-Server lässt sich genau einstellen, welche Dienste über das Internet abgerufen werden können. So kann eine Firma etwa den Zugriff mit Dateitauschprogrammen auf das Internet gezielt verhindern.

HTML:
Die offiziellen Empfehlungen zur Standardisierung der Hypertext Markup Language, kurz HTML, verabschiedet das World Wide Web Consortium nur sehr zögerlich. Offensichtlich ist die Internetwelt mit HTML zufrieden. Dagegen hat sich bei den Browserherstellern sehr viel getan.
Netscape liegt mit seinem Communicator in der Version 6.2 im Rennen, Microsofts Internet Explorer liegt in der neuen Release 7.0 vor, der Norweger unter den Browsern, Opera, wartet mit Version 6.1 auf und der schlanke und schnelle Firefox Browser steht in der Version 3.5 bereit.
Inzwischen untrennbar mit HTML verbunden sind die Cascading Style Sheets, kurz CSS, mit deren Hilfe Sie HTML-Elemente vielfältig formatieren und mit speziellen Effekten versehen können.
HTML ist eine leicht zu erlernende und überraschend flexible Seitenbeschreibungssprache und hat mit den komplizierten Programmiersprachen wie Java, C oder Pascal rein gar nichts zu tun. Es gibt nur eine Hand voll Grundelemente wie Absätze, Tabellen, Bilder, Frames oder Layer mit denen Sie Ihre Webseiten aufbauen. CSS erweitert zwar die Anzahl der zu lernenden »Befehle«, aber die meist selbsterklärenden Bezeichnungen, die einfache Syntax und das eingängige Konzept sorgen auch hier für den schnellen Einstieg.
HTML ist eine ausgesprochen fehlertolerante Sprache, bei der Fehler nicht zu irgendwelchen Warnmeldungen führt, sondern eher dazu, dass sie stillschweigend von den Browsern ignoriert oder kommentarlos auf dem Bildschirm präsentiert werden. Außerdem können Sie ein und das gleiche Resultat oft auf völlig verschiedenen Wegen erreichen. Das ist bei HTML völlig normal. Unter dem Aspekt der Datenübertragung sind kompakte Strukturen jedoch vorzuziehen, um Übertragungszeiten zu minimieren.
Ihre Startseite sollten Sie entweder index.htm, index.html, home.htm oder home.html benennen.
Dabei handelt es sich um sogenannte Defaultseiten, die ohne eine eigene Adressierung gestartet werden. Beachten Sie dabei bitte die Kleinschreibung.
Wenn Sie bei der Erstellung Ihrer privaten Homepage keine Startseite erstellen, wird beim Aufruf aus Sicherheitsgründen die Fehlerseite 403 angezeigt.

E-Mail-Versand:
E-Mails machen heute einen großen Teil des Internet Datenverkehrs aus. Jede Website bietet mindestens einen Link an, mit dem Sie dem zuständigen Webmaster oder zumindest an einen anonymen Firmenaccount elektronisch schreiben können. Voraussetzung für die Verwendung von E-Mail Links ist die Verfügbarkeit eines Mail-Programms.
Browser wie der Internet Explorer, Opera oder Firefox bringen gleich einen eigenen E-Mail-Client mit. Die Konfiguration der Programme wird im Browser vorgenommen und ist schnell erledigt. Stehen aber die Daten erst einmal zur Verfügung, werden Sie sich schon bald wundern, wer Ihnen plötzlich alles E-Mails schickt. Browser geben nämlich bei Ihren Surfwanderungen öfters mal ihre Daten preis, zumindest dann, wenn die Programme, die auf einem Webserver laufen, gezielt danach fragen. Es ist daher empfehlenswert, die browsereigenen E-Mail-Clients möglichst nicht zu verwenden und statt dessen auf externe Programme wie etwa Microsoft Outlook oder Pegasus Mail auszuweichen.
E-Mail Links müssen mit dem Protokollbezeichner mailto: eingeleitet werden:

<P>
Schreiben Sie doch Mal eine E-Mail an
<A HREF="mailto:Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein.">Toni Tester</A>
</P>

Ein Klick auf den Link öffnet das zuständige E-Mail-Programm, in dem Sie sogleich mit der Eingabe Ihrer Nachricht beginnen können. Der Empfänger ist bereits eingetragen, weil dieser Wert für HREF bereits angegeben wird.
Zusätzlich können Sie ggf. den Betreff ebenfalls vorgeben. Das ist nützlich, wenn Sie beispielsweise E-Mails an verschiedene Ansprechpartner mit unterschiedlichen Zuständigkeiten in einem Unternehmen zulassen möchten. Ein passendes Stichwort kann die Nachricht kategorisieren und erleichtert zudem die Einsortierung per Eingangsfilter durch den E-Mail-Client.

<P>
Schreiben Sie im Problemfall an
<A HREF="mailto:Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein.">Toni Tester</A>
</P>

Hinter der E-Mail-Adresse geben Sie ein „?“ ein, gefolgt von „subject=“ und dem Text, der in der Betreffzeile stehen soll. Beachten Sie, dass hinter dem Gleichheitszeichen keine Anführungsstriche oder dergleichen erforderlich sind. Lediglich die gesamte Zeichenkette, die an HREF zugewiesen wird, erhält die doppelten Anführungszeichen.
Ist ein bestimmter Empfänger einmal nicht zu erreichen, wäre es von Hause aus nicht schlecht, wenn Nachrichten zu bestimmten Themen grundsätzlich an mehr als einen Empfänger gehen. Hierzu können E-Mails prinzipiell über das Cc-Feld (für engl. carbon copy) weitere Empfänger ausweisen. Diese sind für alle aufgeführten Empfänger gleichermaßen in der Nachricht sichtbar. Jeder weiß damit, wer die Nachricht noch bekommen hat. Eine andere Variante ist die Blindkopie (engl. blind carbon copy), die mit dem Bcc Feld einer E-Mail verfügbar ist.

<A HREF=" mailto:Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein.@t-offline.de">...</A>
<A HREF=" mailto:Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein.@t-offline.de">...</A>
<A HREF=" mailto:Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein.@t-offline.de?bcc=Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein.>;...</A>

Mehrere Empfänger werden per Semikolon voneinander getrennt.

Audiodaten in HTML Seiten einsetzen:
Zur Bereitstellung von Audiodateien im Internet sollte ein komprimiertes Format gewählt werden, um zu lange Ladezeiten zu vermeiden. Zudem existieren verschiedene Verfahren bei der Übertragung der Audiodaten. Wird die Streaming -Technologie verwendet, kann die Wiedergabe schon während des Ladevorgangs beginnen, da die Daten in Paketen übertragen und sofort verarbeitet werden. Streamingfähige Audioformate sind z.B. Real Audio und MP3. Zur Übertragung eines Audiostreams wird ein sogenannter Streaming Server benötigt. Ohne Nutzung der Streaming Technologie muss erst die gesamte Datei heruntergeladen werden bevor die Wiedergabe beginnen kann.
Für die Wiedergabe von Audiodateien wird neben einer Soundkarte und Lautsprechern ein Audioplayer benötigt.
Es gibt unterschiedliche Möglichkeiten, eine Audiodatei in ein HTML-Dokument einzubinden. Die Schwierigkeit besteht darin, dass nicht alle Varianten von jeder Kombination aus Betriebssystem, Browser und Audioplayer unterstützt werden.

Audio als Link einfügen:
Die einfachste Möglichkeit ist, die Audiodatei per Hyperlink zu referenzieren. Dabei wird Text oder ein Bild mit der Audiodatei verknüpft. Klickt der Nutzer auf diesen Verweis, startet der Browser den Audioplayer und die Audiodatei wird wiedergegeben. Wenn der Browser des Nutzers den Dateityp nicht verarbeiten kann, weil z.B. keine Audioplayer installiert ist, wird in der Regel die Möglichkeit angeboten, die Datei herunterzuladen. An der gewünschten Stelle müssen Sie folgenden Quellcode einfügen:
<a href= "Pfad/zur/Datei/sound.mid" > Sound abspielen </a>

Audio als Hintergrund einfügen:
Sie können Ihr Audiomaterial auch automatisch abspielen lassen, sobald die HTML-Datei geladen ist. Bei dieser Variante ist jedoch folgendes zu beachten:
- Sie gehört nicht zum aktuellen HTML-Standard
- Die beiden Browser Internet Explorer und Firefox erfordern zwei unterschiedliche Wege der Umsetzung
- Nutzer können sich von automatisch ertönendem Sound genervt fühlen
Für die Darstellung im Internet Explorer müssen Sie im Kopfbereich der HTML-Datei folgenden Quellcode einfügen:
<bgsound src= "Pfad/zur/Datei/sound.mid" loop= "infinite">
Das Attribut src gibt den Speicherort der Datei an. Mit dem Attribut loop legen Sie die Anzahl der Abspielwiederholungen fest. Der Wert "infinite" erzeugt eine Endlosschleife, alternativ kann die Anzahl der gewünschten Wiederholungen angegeben werden.
Für die Darstellung in Firefox müssen Sie im Körperbereich der HTML-Datei folgenden Quellcode einfügen:
<embed src= "Pfad/zur/Datei/sound.mid" autostart= "true" loop= "true" hidden= "true" height= "0" width= "0">
Das Attribut src gibt wieder den Speicherort an, das automatische Abspielen wird mit dem Wert "true", der dem Attribut autostart zugewiesen wird, festgelegt. Eine Endlosschleife erzeugt das Attribut loop mit dem Wert "true", mit den weiteren Angaben wird das Anzeigen des Audioplayers unterdrückt. Wünschen Sie eine Darstellung des Players lassen Sie das Attribut "hidden" weg und definieren mit Hilfe der Attribute "height" und "width" die Größe des angezeigten Players.

Audio als Objekt einfügen:
Sie können beliebige Dateitypen als Objekt in Ihr HTML-Dokument einbinden, so auch Audiodateien. Diese Variante entspricht dem aktuellen HTML-Standard, wird jedoch noch nicht von allen Browsern und Playern zuverlässig unterstützt. Nichtsdestotrotz ist es die exakteste Variante, um Audiodateien in HTML-Dokumente zu integrieren. Um eine Audiodatei als Objekt einzubinden müssen Sie im Körperbereich Ihrer HTML-Datei folgenden Quellcode einfügen:
<object data= "Pfad/zur/Datei/sound.mid" type= "audio/x-midi" width= "200" height= "100"> Hier kann alternativer Text stehen, falls der Browser das Objekt nicht abspielen kann </object>
Mit dem Attribut type wird dem Browser über den sogenannten Mime Type, der die Art der Datei anzeigt, die Verarbeitung erleichtert. Diese Variante führt allerdings nur dann zum Abspielen der eingebundenen Audiodatei, wenn das Midi-Format eingesetzt und auf Seiten der Nutzer ein Netscape-Browser in Kombination mit dem QuickTime Player verwendet wird. Um auch Nutzer mit dem Internet Explorer zu berücksichtigen muss ein Player mit Hilfe eines ActiveX Controls referenziert werden, damit der Browser auf einen installierten Player zugreift. Dazu fügen Sie im Körperbereich der HTML-Datei zusätzlich folgen Quellcode ein:
<object width= "200" height= "100" classid= "CLSID:05589FA1-C356-11CE-BF01-00AA0055595A"><param name= "filename" value= "Pfad/zur/Datei/sound.mid"></object>
Mit dem im Beispiel angegebenen class identifier (clsid) wird ein ActiveX Control eingebunden, das das Abspielen der gängigen Audio- und Videoformate erlaubt. Die Attribute "width" und "height" geben wieder die Größe des angezeigten Players an.
Eine verbreitete Methode, die ein recht breites Spektrum an möglichen Nutzerkonfigurationen abdeckt, ist eine Kombination aus dem object-Tag und dem embed-Tag. Sie entspricht allerdings nicht dem aktuellen HTML-Standard.
<object width= "200" height= "100" classid= "CLSID:05589FA1-C356-11CE-BF01-00AA0055595A"><param name= "filename" value= "Pfad/zur/Datei/sound.mid"><embed src= "Pfad/zur/Datei/sound.mid" width= "200" height= "100"></object>

Umleitungen:
Umleitung per einfacher HTML-Datei
Die einfachste Methode, eine Seite umzuleiten, geht per HTML.
<html>
<head>
<meta http-equiv="Refresh" content="1; URL=http://www.haidhaiser-stubnmusi.de">
</head>
<body>
</body>
</html>
Der Befehl für den Browser ist "Refresh". Unter "content" wird zuerst die Anzahl der Sekunden angegeben, die der Browser wartet, dann die neue URL.

Umleitung über .htaccess:
Am elegantesten ist natürlich die serverseitige Umleitung, da der Browser davon nichts mitbekommt und der Zeitverlust am geringsten sein dürfte.
Nach den Schlüsselwörtern Redirect permanent folgt die angesprochene Datei, danach die Umleitung. Der erste Eintrag sollte den relativen Pfad zur Datei angeben, der zweite Eintrag sollte eine komplette URL sein (mit "http"). Andernfalls gibt es offenbar Probleme.
Redirect permanent /index.htm http://www.haidhauser-stubnmusi.de/index.htm

FTP:
Zum Hochladen von Webseiten auf einen Server oder zum Herunterladen von Dateien von FTP-Servern benötigt man einen FTP-Client. Das Kürzel FTP steht dabei für File Transfer Protocol. Solche Programme werden meist von Drittherstellern angeboten. Eigentlich sind diese Zusätze nicht erforderlich, da Windows XP selbst mit zwei FTP-Clients kommt.
Windows XP besitzt ein sehr einfaches FTP-Programm, das sich aus der Eingabeaufforderung mit ftp aufrufen lässt. Sie können direkt in der Kommandozeile den FTP-Server mit angeben (z.B. ftp ftp.microsoft.com). Dann werden ggf. Benutzernamen und Kennwort interaktiv abgefragt. Ist der Befehl aktiv, meldet er sich an der Kommandozeile mit dem Zeichen >. Geben Sie den FTP-Befehl help ein, gibt dieser eine Liste der zulässigen Befehle aus. Mit der Eingabe help beenden Sie den FTP-Befehl und kehren zur Eingabeaufforderung zurück. Alle Befehle sind natürlich mit der Enter-Taste abzuschließen. Wegen der umständlichen Bedienung sollten Sie jedoch auf die grafische Alternative zurückgreifen.
Windows XP besitzt außerdem noch einen sehr komfortablen grafischen FTP-Client, der sich nahtlos ins Betriebssystem integriert.
Zum Einrichten öffnen Sie die Netzwerkumgebung, wählen Sie die Option Netzwerkressource hinzufügen, übergehen Sie alle Dialoge bis zur Abfrage der Netzwerkressource und tippen im betreffenden Feld die Adresse des FTP-Servers in der benötigten Form (z.B. ftp://home.arcor.de) ein.
Speichern Sie die Verknüpfung an einem leicht auffindbaren Ort und ergänzen Sie beim ersten Aufruf die nötigen Daten wie Benutzername und Kennwort.
Der FTP-Client erscheint daraufhin wie ein Ordner im Explorer, in dem Sie Dateien kopieren, verschieben, umbenennen und löschen können.
Leider unterstützen manche Provider diese Form des FTP-Zugriffs nicht, Sie können sich zwar, wie beschrieben, am FTP-Server ein- und ausloggen, beim nächsten Zugriff wird Ihnen für eine gewisse Wartezeit der Zugang verweigert. In diesem Fall müssen Sie auf einen FTP-Clienten eines Drittherstellers zurückgreifen.

Ferner benötigen Sie einen FTP-Client, wenn Sie den Inhalt einer Festplatte über das Internet zugänglich machen möchten.
Dabei kann die Festplatte später dann mit einem Benutzernamen und einem Passwort erreicht werden. Entweder mit dem Browser als FTP-Server oder mit NetDrive als Netwerkfestplatte.
Registrierung bei DynDNS.
Die Registrierung dient dazu, dass die aktuelle IP-Adresse gespeichert und einem bestimmten Benutzernamen zugeordnet werden kann. Diese kann sich von Zeit zu Zeit ändern bzw. ändert sich bei Routern ständig. Um aus diesen "dynamischen" IPs nun eine feste Adresse zu machen, müssen sie an DynDNS-Dienste übermittelt werden.
DynDNS-Updater einrichten.
Er dient der Übermittlung der IP an den DynDNS-Server, damit dieser immer die aktuelle IP gespeichert hat.
Sollten Sie einen Router besitzen, kann es sein, dass dort ein solcher Client bereits eingerichtet ist.
DynDNS empfiehlt deshalb seine eigene Software, man kann sie direkt von der DynDNS-Homepage herunterladen.
FileZilla Server downloaden und einrichten
FileZilla Server dient der Freigabe von Verzeichnissen, die dann später über den Browser oder Netdrive abgerufen werden können.
Nach der Installation können Sie nun Benutzer einrichten und denen Ordner zuweisen, die später für den Benutzer sichtbar werden sollen.
Als nächstes sollten Sie die Rechte des Benutzers festlagen.
Zugriff per FTP-Server.
Jetzt kann es auch schon losgehen. Öffnen Sie den Broswer und gib in die Adreßleiste folgendes ein:
ftp://benutzername:passwort@username.dyndnsserver.host/
Nach dem Aufrufen dieser Adresse müßte man die Dateien auf der Festplatte sehen können. Man kann natürlich nur "ftp://paul2006.dyndns.org" eingeben und dann in das Benutzerfenster die Zugangsdaten eingeben. Die erste Variante ist natürlich praktischer, wenn man jemanden per E-Mail schickt, dass er sich etwas von Ihrer Festplatte runterladen soll.
Zugriff mit Hilfe von NetDrive.
Um nun den selbst erstellten FTP-Server als Festplatte unter "Arbeitsplatz" anzuzeigen, benötigt man eine Zusatzsoftware mit dem Namen NetDrive.
Laden Sie das Programm aus dem Internet herunter und installieren es.
Nach einem Doppelklick auf das Symbol in der Taskleiste öffnet sich das Hauptfenster von Netdrive. Wählen Sie dort ganz unten links "Neue Site" und geben Sie beim Seitennamen z.B. den Namen des PC-Benutzers ein. Unter der Adresse geben Sie dann z.B. "ftp://paul2006.dyndns.org" ein. Dann erscheint wieder das Hauptfenster, wo Sie dann unter "Laufwerk" einen Buchstaben auswählen.
Entfernen Sie den Haken vor "Verbindung bei Anmeldung/Systemstart herstellen", da ansonsten beim Systemstart Fehlermeldungen auftreten können, wenn die Verbindung noch nicht aufgebaut ist. Den Haken vor "Anonyme/öffentliche Anmeldung" sollte entfernt werden und der Benutzername und das Passwort eingegeben werden. Machen Sie am Besten einen Haken vor "Passwort speichern". Anschließend drücken Sie auf "Verbinden" und das Fenster schließt sich.
Nach einigen Sekunden Wartezeit können Sie auf den "Arbeitsplatz" klicken und die Online-Festplatte wird als Netzlaufwerk angezeigt. Sie können diese dann auch noch umbenennen und wie eine normale Festplatte verwenden. Der einzige Unterschied zu einer normalen Festplatte ist der Cache, der erstellt wird, wenn ein Objekt geöffnet wird, auch wenn nur die Vorschau erstellt wird.

Protokolle:
Das Internet Protocol (IP) ist ein in Computernetzen weit verbreitetes Netzwerkprotokoll und stellt die Grundlage des Internets dar. Es ist die Implementierung der Vermittlungsschicht des TCP/IP-Modells bzw. der Vermittlungsschicht (Layer 3) des OSI-Modells.
IP bildet die erste vom Übertragungsmedium unabhängige Schicht der Internetprotokoll-Familie. Das bedeutet, dass mittels IP-Adresse und Subnetzmaske für IPv4, bzw. Präfixlänge bei IPv6, Computer innerhalb eines Netzwerkes in logische Einheiten, so genannte Subnetze, gruppiert werden können. Auf dieser Basis ist es möglich, Computer in größeren Netzwerken zu adressieren und Verbindungen zu ihnen aufzubauen, da logische Adressierung die Grundlage für Routing (Wegewahl und Weiterleitung von Netzwerkpaketen) ist.

Das User Datagram Protocol, kurz UDP, ist ein minimales, verbindungsloses Netzwerkprotokoll, das zur Transportschicht der Internetprotokollfamilie gehört. Aufgabe von UDP ist es, Daten, die über das Internet übertragen werden, möglichst schnell der richtigen Anwendung zukommen zu lassen.
Die Entwicklung von UDP begann 1977, als man für die Übertragung von Sprache ein einfacheres Protokoll benötigte als das bisherige verbindungsorientierte TCP. Es wurde ein Protokoll benötigt, das nur für die Adressierung zuständig war, ohne die Datenübertragung zu sichern, da das zu Verzögerungen bei der Sprachübertragung führen würde.
Um die Daten, die mit UDP versendet werden, dem richtigen Programm auf dem Zielrechner zukommen zu lassen, werden bei UDP sogenannte Ports verwendet. Dazu wird bei UDP die Portnummer des Dienstes mitgesendet, der die Daten erhalten soll. Diese Erweiterung der Host-zu-Host-Übertragung auf eine Prozess-zu-Prozess-Übertragung wird als Anwendungsmultiplexen und -demultiplexen bezeichnet.
Zusätzlich bietet UDP die Möglichkeit einer Integritätsüberprüfung an, indem eine Prüfsumme mitgesendet wird. Dadurch kann eine fehlerhafte Übertragung erkannt werden.
UDP stellt einen verbindungslosen, nicht-zuverlässigen Übertragungsdienst bereit. Das bedeutet, es gibt keine Garantie, dass ein einmal gesendetes Paket auch ankommt, dass Pakete in der gleichen Reihenfolge ankommen, in der sie gesendet wurden, oder dass ein Paket nur einmal beim Empfänger eintrifft. Eine Anwendung, die UDP nutzt, muss daher gegenüber verlorengegangenen und unsortierten Paketen unempfindlich sein oder selbst entsprechende Korrekturmaßnahmen beinhalten.

Das Transmission Control Protocol (TCP) ist eine Vereinbarung darüber, auf welche Art und Weise Daten zwischen Computern ausgetauscht werden sollen. Alle Betriebssysteme moderner Computer beherrschen TCP und nutzen es für den Datenaustausch mit anderen Rechnern. Das Protokoll ist ein zuverlässiges, verbindungsorientiertes, paketvermittelndes Transportprotokoll in Computernetzwerken. Es ist Teil der Internetprotokollfamilie, der Grundlage des Internets.
Im Unterschied zum verbindungslosen UDP (User Datagram Protocol) stellt TCP eine Verbindung zwischen zwei Endpunkten einer Netzverbindung (Sockets) her. Auf dieser Verbindung können in beide Richtungen Daten übertragen werden. TCP setzt in den meisten Fällen auf das IP (Internet-Protokoll) auf, weshalb häufig auch vom TCP/IP-Protokoll die Rede ist. Es ist in Schicht 4 des OSI-Referenzmodells angesiedelt.
Aufgrund seiner vielen angenehmen Eigenschaften (Datenverluste werden erkannt und automatisch behoben, Datenübertragung ist in beiden Richtungen möglich, Netzüberlastung wird verhindert usw.) ist TCP ein sehr weit verbreitetes Protokoll zur Datenübertragung. Beispielsweise wird TCP als fast ausschließliches Transportmedium für das WWW, E-Mail und viele andere populäre Netzdienste verwendet.
TCP ist im Prinzip eine Ende-zu-Ende-Verbindung in Vollduplex, welche die Übertragung der Informationen in beide Richtungen zur selben Zeit zuläßt, analog zum Telefongespräch. Diese Verbindung kann in zwei Halbduplexverbindungen, bei denen Informationen in beide Richtungen, allerdings nicht gleichzeitig, fließen können, eingeteilt werden. Die Daten in Gegenrichtung können dabei zusätzliche Steuerungsinformationen enthalten. Die Verwaltung dieser Verbindung sowie die Datenübertragung werden von der TCP-Software übernommen. Die TCP-Software ist üblicherweise im Netz-Protokollstack des Betriebssystems angesiedelt. Anwendungsprogramme benutzen eine Schnittstelle dazu, meist Sockets, die sich bei Microsoft Windows in extra einzubindenden Programmbibliotheken Winsock.dll bzw. wsock32.dll oder bei Linux im Betriebssystemkern, dem Linux-Kernel, befindet. Anwendungen, die diese Software häufig nutzen, sind zum Beispiel Webbrowser und Webserver.

WLAN manuell einrichten:
Wird der Netzwerkname (SSID) vom Router oder Accesspoint übertragen, erfolgt die Verbindung bei korrekt installierten WLAN-Adapter per Rechtsklick auf das entsprechende Systray-Icon → Verfügbare Drahtlosnetzwerke anzeigen → Verbinden. Ist aber die Übertragung der SSID deaktiviert, müssen Sie die SSID und das Kennwort manuell einrichten.
Öffnen Sie Netzwerkverbindungen, klicken Sie auf das Symbol für die drahtlose Netzwerkverbindung, und klicken Sie dann unter Netzwerkaufgaben auf "Verfügbare Drahtlosnetzwerke" anzeigen. Klicken Sie auf der linken Seite unter Verwandte Aufgaben auf Reihenfolge der Netzwerke ändern, auf "Hinzufügen" und geben Sie in Netzwerkname (SSID) den Namen für das drahtlose Netzwerk ein. Klicken Sie in Netzwerkauthentifizierung auf ein Listenelement und wählen Sie in Datenverschlüsselung die Verschlüsselungsmethode aus. Falls es sich um ein sicherheitsaktiviertes Netzwerk handelt, geben Sie in Netzwerkschlüssel den Netzwerkschlüssel ein, und wiederholen Sie die Eingabe in Netzwerkschlüssel bestätigen.
Ferner sollten Sie Ihr WLAN nur im g Modus betreiben, andernfalls legt der Router zwischendurch Wartezeiten ein, um Geräten mit dem alten b Modus eine Chance im Funkverkehr zu geben.

Netzlaufwerke verbinden:
Um Netzlaufwerke verbinden zu können, muss auf dem Rechner natürlich die Datei- und Druckerfreigabe aktiviert sein. Das geschieht am einfachsten mit dem Assistenten von Windows XP. Klicken Sie im Explorer einfach mit der rechten Maustaste auf den freizugebenden Ordner, wählen Sie im Kontextmenü Eigenschaften und aktivieren den Registerreiter Freigabe. Bei der Option Netzwerkfreigabe und Sicherheit können Sie diesen Ordner im Netzwerk freigeben. Sollte die Datei- und Druckerfreigabe noch nicht installiert sein, wird das hier automatisch nachgeholt.
Bitte beachten Sie, dass Sie bei der Windows XP Home Edition keine expliziten Freigabeberechtigungen einstellen können. Sie können aber den Ordner im Netzwerk verstecken, indem Sie das Zeichen "$" ohne Leerzeichen an den Freigabenamen anhängen.
Um auf diesen freigegebenen Ordner von einem anderen Rechner zuzugreifen, wählen Sie im Explorer Extras → Netzlaufwerk verbinden → Ordner→"\\[rechnername]\[freigabename] /[parameter] /user:[xxx] [kennwort]"
Müssen Sie ein Netzlaufwerk bei mehreren Computern einrichten, empfiehlt sich der Einsatz einer Batch-Datei.

rem Netzlaufwerk per Mausklick verbinden:
net use s: \\helios.med.uni-muenchen.de\fileservice\intraop_Fotos\Orthopädie /persistent:no
exit

Dabei entspricht „s“ dem Laufwerksbuchstaben und „/persistant: yes“ verbindet die Laufwerke bei jedem Windows-Start automatisch.

Server:
Computer, die anderen Rechnern im Netzwerk ihre Dienste anbieten, werden Server genannt. Der einfachste Dienst eines Servers besteht darin, Dateien für andere Netzwerkcomputer auf seiner Festplatte zu speichern. Auf diese Weise können alle Benutzer des Netzwerks gemeinsam auf die gespeicherten Daten zugreifen und sich das lästige Hin- und- Hertragen von Disketten sparen. Für diesen Einsatzzweck benötigen Sie nicht einmal ein besonderes Serverbetriebsprogramm. Denn diesen Dienst stellt Ihnen bereits Windows 98 zur Verfügung. Häufig sollen nicht alle angeschlossenen Computer und damit alle Netzwerkbenutzer freien Zugang zu sämtlichen Daten haben. So kann es etwa erforderlich sein, dass die Buchhaltung eines Unternehmens Einblick in die Produktionsdaten hat, die Buchhaltungsdaten aber nur Buchhaltern zugänglich sind. Mit dem richtigen Serverbetriebsprogramm läßt sich die Servernutzung für verschiedene Benutzergruppen einfach und flexibel einrichten. Eine solche Regelung der Zugriffsrechte läßt sich auch mit Windows 98 durchführen - allerdings mit Einschränkungen. Windows 98 ermöglicht Ihnen nicht nur die gemeinsame Nutzung von Dateien. Auch andere Dienste, für die früher ein spezieller Server notwendig war; sind inzwischen in diesem Betriebsprogramm integriert. Ein Drucker; der an einen Windows 98 Computer angeschlossen ist, läßt sich zum Beispiel problemlos für alle Netzwerkbenutzer freigeben. Auch ein Internet-Zugang über Modem oder ISDN Karte, der auf einem Windows 98 Rechner installiert ist, kann im Netz von allen anderen Computern aus mitbenutzt werden. Allerdings brauchen Sie dazu die zweite Ausgabe von Windows 98 (Windows 98 SE). Mit Zusatzprogrammen, wie beispielsweise „Frontpage“, kann jeder Windows 98 Rechner im Netzwerk wie ein Internet-Server funktionieren. Mit speziellen Programmen lassen sich noch viele weitere Serverfunktionen auf einem Windows 98 System einrichten. Wenn Sie aber etwas höhere Anforderungen an die Sicherheit Ihrer Daten stellen, kommen Sie um ein spezielles Serverbetriebsprogramm nicht herum. Nur damit können Sie sich wirksam gegen einen unbefugten Zugriff von Internetnutzern auf Ihre Daten schützen. Auch der Austausch elektronischer Post (E-Mail) innerhalb eines Netzwerks ist nur mit einem speziellen Serverbetriebsprogramm möglich. Denn Windows enthält zwar ein Programm zum Schreiben und Empfangen solcher E-Mail-Nachrichten, jedoch kein Verwaltungsprogramm, das diese Post entgegennimmt und an den richtigen Adressaten weiterleitet. Ein Server kann aber auch seine Rechenleistung den Netzwerkbenutzern zur Verfügung stellen. Für solche Client Server Anwendungen brauchen Sie ein Serverbetriebsprogramm, Spezialprogramme, einen sehr leistungsfähigen und teuren Server. Außerdem benötigen Sie gute Programmierkenntnisse.
Pionier auf dem Gebiet der Vernetzung von Computern war der US-amerikanische Hersteller Novell mit seinem Betriebsprogramm Netware. Damit lassen sich die Rechte der einzelnen Benutzer sehr genau definieren. Allerdings ist die Zahl der Neuinstallationen von Novell Netware schon seit Jahren rückläufig. Netware entwickelte das Übertragungsprotokoll IPX/SPX, das auch Windows Computer beherrschen. Allerdings ist damit ein direktes Weiterleiten von Daten aus dem Internet nicht möglich. Denn im weltweiten Netz wird ein anderes Protokoll verwendet.
Der innere Aufbau der Betriebsprogramme Windows NT und Windows 2000 des Softwareherstellers Microsoft ist Firmengeheimnis. Bei Linux wird dagegen mit offenen Karten gespielt. Dieses Betriebsprogramm ist eine Sammlung zahlreicher einzelner Programme, die jeweils bestimmte Funktionen übernehmen. Geschrieben wurden diese Bausteine von vielen Programmierern auf der ganzen Welt, die über das Internet miteinander in Kontakt stehen. Alle Einzelprogramme sind in ihrer ursprünglichen Form (Quelltext) kostenlos im weltweiten Datennetz verfügbar. Außerdem finden Sie dort ausführliche Beschreibungen der jeweiligen Fassungen. Allerdings sind die meisten Kommentare auf Englisch verfaßt und setzen beim Leser erhebliche Vorkenntnisse voraus. Insbesondere ist es häufig schwierig, aus den zahlreichen Informationen die jeweils benötigte herauszusuchen. Außerdem ist es sehr aufwendig, sich sämtliche erforderlichen kleinen Einzelprogramme aus dem Internet zu besorgen. Dieses Zusammensuchen wird noch dadurch erschwert, dass häufig mehrere verschiedene Programme für die gleiche Aufgabe bestimmt sind. Und diese arbeiten dann mehr oder weniger gut mit anderen Linux Programmen zusammen. Aus diesem Grund haben Firmen wie Red Hat, Suse oder Mandrake schon vor Jahren damit begonnen, komplette Sammlungen aller für ein funktionsfähiges Linuxsystem notwendigen Programme zusammenzustellen und mit Anleitung auf CD-ROM anzubieten. Eine solche Distribution kostet im Handel weniger als 100 Mark. Damit sparen Sie nicht nur die Mühe, im Internet nach den einzelnen Programmen zu suchen, sondern erhalten auch gut aufeinander abgestimmte Einzelprogramme. Außerdem werden diese weitgehend automatisch auf Ihrem Computer eingerichtet.
Das Betriebsprogramm Linux kann sich auf jahrzehntelange Erfahrung stützen. Es profitiert insbesondere von den verschiedenen Programmen, die für seinen Vorgänger Unix geschrieben wurden. Als Netzwerktechnik wird Linux häufig auf Großrechnern eingesetzt. Und es ist bis heute die Grundlage des Internets. Deshalb laufen inzwischen immer mehr Internet-Programme auf Linux Computern. Die Linux Software verwendet das Übertragungsprotokoll TCP/IP, das auch Windows Rechner beherrschen. Nur mit diesem Protokoll ist eine direkte Weiterleitung von Daten aus dem Internet zu einem anderen Computer in Ihrem Netzwerk möglich. Außerdem ist Linux sehr preiswert. Alle nötigen Programme für einen leistungsfähigen Server kosten zusammen rund 100 Mark. Allerdings ist die Installation von Linux nicht einfach. Und die Software ist nicht immer benutzerfreundlich. Wenn Sie Rechner, die unter Linux arbeiten, mit Windows Computern verbinden wollen, sind einige zusätzliche Schritte bei der Einrichtung des Linux Servers erforderlich. Ist diese Hürde aber erst einmal genommen, kann auch ein Linux Server zuverlässig seinen Dienst tun. Auch Windows NT und dessen Nachfolger Windows 2000 wurden in den letzten Jahren auf vielen Computern installiert. Die beiden Betriebsprogramme sind häufig das genaue Gegenteil von Linux. Ein Dateiserver für andere Windows Computer läßt sich auch von Laien mit wenigen Mausklicks einrichten. Aber Windows 2000 ist recht teuer. Ein Server und die Lizenz, bis zu fünf Arbeitsplatzrechner anzuschließen, kosten Sie mindestens 2000 Mark. Während bei Linux Programme wie Firewall, Datenbank, Proxy oder E-Mail Server mitgeliefert werden, müssen Sie diese für Windows NT und 2000 noch hinzu kaufen. Unter Windows NT und 2000 läßt sich ein Dateiserver schnell und einfach einrichten. Dies bedeutet aber nicht, dass es ebenso einfach ist, dessen Möglichkeiten mit diesen Programmen auszuschöpfen. Ehe Sie beispielsweise die Sicherheitseinstellungen ändern oder einen Proxyserver einrichten, müssen Sie sich umfassend informieren. Die Microsoft Systeme erleichtern das mit einer durchgehend deutschsprachigen Dokumentation. Bei Linux müssen Sie dagegen manchmal auf englisch sprachige Informationen zurückgreifen. Sie können Windows und Linuxserver problemlos im gleichen Netzwerk betreiben. In einem solchen gemischten Netzwerk sollte der Linux Computer nicht über den Windows Rechner gesetzt werden. Wenn Sie keine Erfahrung mit Netzwerken haben und schnell einen Dateiserver brauchen, können Sie mit Windows NT oder Windows 2000 sehr viel Zeit sparen, auch wenn Sie dafür viel Geld ausgeben müssen. Haben Sie hingegen etwas Zeit, etwas Erfahrung mit Netzwerken oder beabsichtigen Sie, mehrere Programme, wie Firewall, Proxy oder E-Mail-Server, auf dem Computer laufen zu lassen, dann sollten Sie den Kauf von Linux ins Auge fassen.

Ein Netzwerk aus Windows 98 Computern ist immer eine so genannte Arbeitsgruppe. In dieser Arbeitsgruppe wird jeder akzeptiert, der sich an einem der angeschlossenen Computer anmeldet. Jeder Benutzer kann so auf sämtliche Daten zugreifen, die in einem freigegebenen und nicht mit einem Kennwort geschützten Verzeichnis abgelegt sind. Bei großen Netzwerken oder Netzen, die Teil des Internets sind, ist der ungesicherte Zugriff auf die Netzwerkdaten natürlich untragbar. Mit Windows NT und 2000 lässt sich dieses Problem vermeiden. Denn beide Betriebsprogramme haben eine Reihe von Sicherungen, die einen unerwünschten Zugriff auf die Daten ausschließen. Ein Windows NT oder 2000 Server und mit Einschränkungen auch ein Linux Computer ist in der Lage, als so genannter Domänen Controller zu arbeiten, d.h. jeder, der dieses Netzwerk benutzen will, muss mit seinem Namen, seinem Passwort und den ihm im Netz zustehenden Rechten bei diesem Server eingetragen sein, sonst kann er nicht im Netzwerk arbeiten. Zudem können die Computer in einer Domäne so eingestellt werden, dass jeder registrierte Benutzer stets denselben Bildschirm mit den gleichen Symbolen sieht. Egal, an welchem Rechner er sich anmeldet. Das Arbeiten mit einer Domäne hat aber auch Nachteile. So müssen Sie einem Windows NT oder 2000 Computer gleich bei der Einrichtung des Betriebsprogramms mitteilen, ob er die Funktion eines Domänen Controllers übernehmen soll. Spätere Änderungen sind nur mit sehr großem Aufwand möglich. Diesem Server müssen sich alle anderen Computer im Netz unterordnen. Ist bei der Einrichtung der Domäne ein Fehler aufgetreten, kommt keiner der angeschlossenen Computer mehr ans Netz. Und da Sie bei einem neu eingerichteten Netzwerk kaum sicher sein können, dass kein Fehler vorliegt, kann dies unter Umständen tagelange Suche und Arbeit bedeuten. Für den Einstieg sollten Sie Windows NT, Windows 2000 oder Linux als Arbeitsgruppenserver einrichten. Sie sollten erst dann über eine Domäne nachdenken, wenn Sie über mehr Erfahrung mit Ihrem Netzwerk verfügen.

Windows gestattet Ihnen eine gewisse Kontrolle darüber wer auf die Laufwerke Ihres Computers zugreifen darf. Zum Einrichten klicken Sie an dem Computer, dessen Laufwerk Sie freigeben wollen, doppelt auf Arbeitsplatz. Im sich öffnenden Fenster klicken Sie mit der rechten Maustaste auf das Symbol des Laufwerks, das Sie freigeben wollen. Daraufhin erscheint ein Menü. Klicken Sie in diesem Menü auf Freigabe. Falls Sie im Menü diese Zeile nicht sehen, müssen Sie zuerst die Freigabe von Laufwerken in den Netzwerkeigenschaften einrichten. In den weißen Eingabefeld hinter Freigabename und Kommentar können Sie jeweils nach einem Klick in das Feld eine neue Bezeichnung und Beschreibung eintippen. Diese Eingaben sehen dann andere Benutzer die über das Netzwerk auf ihren Computer zugreifen.
Klicken Sie an einem anderen Netzwerkcomputer doppelt auf Netzwerkumgebung. Im sich öffnenden Fenster klicken Sie doppelt auf den Namen des Computers, dessen Laufwerk Sie gerade freigegeben haben und dann auf das Symbol des Laufwerks. Danach werden Sie evtl. nach dem Kennwort gefragt.
Für die Aufgabe eines einfachen Servers, der auf seinen Festplatten den ans Netzwerk angeschlossenen Computern Speicherplatz bereitstellt, reicht fast jeder Pentium Rechner aus. Wenn Sie also noch einen Computer mit einem Pentium Prozessor ab 133 Megahertz haben, können Sie ihn als Datei Server einsetzen. Allerdings sollten Sie dieses System für Linux mit mindestens 64 Megabyte Hauptspeicher, für Windows 2000 dagegen mit 128 Megabyte oder mehr ausstatten. Ferner müssen natürlich eine oder mehrere ausreichend große Festplatten eingebaut sein, weil der Server ihr seine Aufgabe genügend Speicherplatz braucht. Das Betriebsprogramm benötigt rund ein Gigabyte freien Speicherplatz, der Server sollte aber zur Sicherheit mindestens zwei Gigabyte zur Verfügung haben. Für die Installation muss der Computer außerdem mit einem Disketten- und einem CD-ROM-Laufwerk ausgerüstet sein.
Da ältere Server Betriebssysteme wie Windows NT oder ältere Linux Versionen die eingebauten Teile Ihres Computers noch nicht automatisch erkennen konnten, war es ratsam, auf demselben PC außer dem System noch MS-DOS oder Windows 98 zu installieren. Mit Windows 2000 oder einem modernen Linux können Sie auf ein zweites Betriebssystem jedoch verzichten. Es würde nur Platz auf der Festplatte belegen und macht zudem die Installation des zweiten Systems komplizierter. Damit ist eine weitere Entscheidung gefallen: Sie brauchen Ihre Festplatte nicht zu unterteilen. Wählen Sie bei der Installation einfach den Punkt „Gesamte Festplatte“. Das Einrichten der Partition überlassen Sie anschließend dem Installationsprogramm. Sehr sinnvoll ist es jedoch, das Betriebsprogramm auf einer zwei bis vier Gigabyte großen Festplatte zu installieren und die Benutzerdaten später auf einer zweiten, größeren Festplatte zu speichern. So können Sie später sehr einfach alle Daten erhalten, wenn auf die nächste Version des Betriebssystems umsteigen. Haben Sie diese Vorüberlegungen abgeschlossen, Ihr zukünftigen Server entsprechend zusammengestellt und das Betriebssystem gekauft, kann es mit der Installation losgehen. Auch dabei müssen Sie sich zwischen mehreren unterschiedlichen Möglichkeiten entscheiden: Ist auf dem Computer bereits Windows 95 oder 98 installiert? Dann können Sie Windows 2000 einrichten, indem Sie bei laufendem Computer einfach die CD-ROM einlegen. Normalerweise startet dann das Installationsprogramm automatisch. Wenn nicht, können Sie es mit einem Doppelklick auf die Run.exe oder Setup.exe im Windows Explorer aufrufen.
Die Fragen, die Sie bereits beantwortet haben (zum Beispiel die Eingabe der Seriennummer) werden übersprungen.
Ein Betriebsprogramm auf einem Computer zu installieren, auf dem noch kein anderes System läuft (oder keines, das ausreichend ähnlich ist), ist ein Vorgang, der immer mehrere Schritte erfordert. Zunächst wird der Computer mit einem Boot System gestartet. Dann wird die Festplatte für das System vorbereitet, und erst danach können die einzelnen Programme des Systems auf diese Festplatte kopiert werden. Anschließend wird das neue, nun umfangreichere Betriebsprogramm erneut gestartet, und zwar diesmal von der Festplatte. Anschließend werden, je nach Ihren Eingaben, weitere Programme kopiert. Moderne Computer können Sie nicht nur von der Festplatte, sondern auch vom Disketten- oder CD-ROM-Laufwerk booten. Dazu müssen Sie dem Computer jedoch mitteilen, wo und in welcher Reihenfolge er nach diesem Boot System suchen soll.
Nach dem Einschalten sucht Ihr Computer in einer bestimmten Reihenfolge nach dem Boot System. Diese spezielle Reihenfolge ist im BIOS Ihres Computers festgelegt, doch sie läßt sich ändern. Wenn Sie einmal während der Einstellung im BIOS die Orientierung verlieren sollten, dann schälten Sie den Computer am besten einfach aus und beginnen noch einmal von vom. Denn solange Sie Ihre Eistellungen nicht gespeichert haben, werden Ihre Änderungen nicht übernommen. Schalten Sie Ihren Computer ein, und sehen Sie auf den unteren Bildschirmrand. Erscheint dort die Meldung „Press DEL to Enter SETUP“, drücken Sie auf die Taste „Entfernen“.
Funktioniert dieser Systemstart von CD-ROM auf Ihrem Computer nicht, dann können Sie das System auch von einer sogenannten Bootdiskette starten. Bei Linux wird diese Diskette bereits mitgeliefert, bei Windows 2000 können Sie diese selbst erstellen.

Anonym surfen über Proxy-Server:
Ein guter Weg, seine Surfspuren im Internet zu verschleiern, sind die so genannten anonymen Proxy-Server. Ist ein solcher anonymer Proxy-Server zwischen Ihren Rechner und die von Ihnen besuchte Homepage geschaltet, kann vom Betreiber der Homepage nur die IP-Adresse des Proxys festgestellt werden, nicht aber Ihre eigene. Und umgekehrt kann nur der Weg von Ihrem PC zum Proxy-Server nachvollzogen werden, aber nicht das eigentliche Ziel.
Im normalen Datenverkehr, wenn Sie also ungeschützt im Internet surfen, tippen Sie eine Internetadresse ein und rufen somit Daten ab. Ihre Anfrage wird direkt von Ihrem Computer aus zum Zielrechner (Server) geleitet, dort empfangen und umgewandelt. In der Regel sofort erhalten Sie dann von diesem Zielserver, auf dem beispielsweise eine bestimmte Internetseite liegt, die angeforderten Daten auf Ihren Rechner "zurückgeschickt". Damit der fremde Rechner weiß, wo die gewünschten Daten hin sollen, übermitteln sie mit Ihrer Anfrage Identifikationsmerkmale, zum Beispiel Ihre höchst individuelle IP-Adresse. Diese wird auf dem Zielrechner in der Regel abgespeichert. Aus diesen Protokollen, auch Logfiles genannt, kann Ihre Adresse herausgelesen werden.
Genau an diesem Punkt kommt ein (anonymer) Proxy ins Spiel. Ein Proxy ist eine Art Filter, der in den Datenverkehr zwischen Ihren Rechner und den Zielrechner geschaltet wird. Der Proxy leitet dabei zwar Ihre Datenanfrage weiter, allerdings nicht Ihre IP-Adresse. Stattdessen erhält der Zielserver nur die IP-Adresse des Proxys übermittelt - womit Ihre Identität dort nicht mehr feststellbar ist.
Voraussetzung für eine erfolgreiche Verschleierung Ihrer Identität ist dabei natürlich, dass der anonyme Proxy auch wirklich anonym ist. Sollten dort ebenfalls Protokolle (Logfiles) gespeichert werden, kann gegebenenfalls wieder auf Ihre IP und Ihre Datenabfragen geschlossen werden.

5. E-Mail:
Elektronische Post (E-Mail) ist in. Denn sie ist schnell und anders als bei einem Telefonanruf muss der Empfänger nicht unbedingt erreichbar Sein und kann sich seine Post zu jedem beliebigen Zeitpunkt ansehen. Daher gilt es in amerikanischen Unternehmen inzwischen als höflicher, sich per elektronischer Post zu verständigen, als einen Kollegen anzurufen. Doch bevor Sie die Vorteile dieser Kommunikationsart in Ihrem Netzwerk genießen können, sollten Sie sich entscheiden, ob Sie nur innerhalb des Netzwerks E-Mails verschicken möchten oder ob über das Internet auch der Austausch von elektronischen Mitteilungen mit der Außenwelt möglich sein soll. Die erste Möglichkeit ist einfach zu verwirklichen und sicher. Denn elektronische Post, die von außen in Ihr Netz gelangt, kann über Viren oder andere Programme Schaden an einem Ihrer Computer oder sogar am ganzen Netzwerk anrichten. Andererseits erreichen Sie heute fast alle Firmen, aber auch Freunde und Bekannte per E-Mail.
Die verschiedenen Protokolle, die beim Übertragen elektronischer Post verwendet werden, lassen sich mit verschiedenen Arten von Briefkästen vergleichen. Das Protokoll SMTP entspricht den gelben Briefkästen auf der Straße in die Sie die Briefe werfen die Sie verschicken möchten. Wie bei normalen Postsendungen müssen Sie die Adresse des Empfängers auch elektronischen Briefen angeben. Statt an die gelbe Post werden diese jedoch an einen E-Mail-Server übermittelt. Dieser kümmert sich dann darum, dass die Nachricht beim Empfänger ankommt. Das Funktionieren des Protokolls POP3 läßt sich dagegen am ehesten mit dem eines Postfachs vergleichen, das Sie bei einem Postamt eingerichtet haben. Die eingegangene Post liegt in einem Briefkasten für Sie bereit, den nur Sie öffnen können. Um an die Ihnen. zugesandten Nachrichten zu gelangen, verwenden Sie bei POP3 statt eines Postfachschlüssels jedoch ein Kennwort. Das Protokoll IMAP ist eine Komfortversion von POP3. Damit können Sie Ihre Post auf dem Postamt Computer in verschiedenen Fächern lagern. Dies ist vor allem dann Sinnvoll, wenn Sie Ihre E-Mails von verschiedenen Rechnern aus abfragen möchten - z.B. vom Büro und von zu Hause aus. Außerdem erfolgt die Übertragung in verschlüsselter Form, so dass wirklich niemand außer Ihnen die Nachrichten lesen kann.
Diese Protokolle werden auch von T-Online, CompuServe und anderen großen Internet-Anbietern für das Versenden und Empfangen von elektronischer Post verwendet. Eine Ausnahme ist allerdings der Internet-Anbieter AOL, der immer noch sein eigenes Süppchen kocht. Denn E-Mails, die bei AOL für Sie eingehen, können Sie nur mit dem AOL eigenen Zugangsprogramm abrufen. Zum Austausch von Nachrichten innerhalb eines Netzwerks ist dieses Verfahren daher nicht sehr gut geeignet. Denn Sie müssen jede Nachricht erst an AOL senden, um Sie anschließend vom Empfänger Computer aus wieder zurückzuholen. Das ist nicht nur sehr umständlich, sondern verursacht auch Telefonkosten. Um die Protokolle SMTP und POP3, die für das Absenden und Empfängen elektronischer Post verwendet werden, in Ihrem Netzwerk einzusetzen, benötigen Sie zwei verschiedene Programme. Auf den Arbeitsplatz Computern muss eine Software installiert sein, mit der Sie E-Mails lesen, verfassen, versenden und abrufen können. Einer der Netzwerk Rechner muss die Aufgabe des Postamts übernehmen. Auch dafür ist ein spezielles Programm erforderlich. Für die Arbeitsplatzcomputer wird dabei das Programm Outlook Express verwendet, das in Windows 98 enthalten ist. Es gibt allerdings noch andere, ebenso leistungsfähige Programme, mit denen Sie ihre Korrespondenz erledigen können, zum Beispiel Netscape Messenger, MS Outlook und Pegasus Mail.
Läuft auf Ihrem Server Linux, steht Ihnen bereits eine leistungsfähige Software zur Verfügung, mit der diese Rechner die Rolle des Postamts übernehmen kann. Allerdings sind vor dem Betrieb des Programms weitere Einstellungen im Netzwerk erforderlich. Windows 2000 Server enthält keine eigene Postamt Software. Es gibt jedoch zahlreiche Programme, die sich mit diesem Betriebsprogramm in dieser Funktion verwenden lassen. Die Auswahl reicht von Shareware Programmen wie NTMail über MERAK bis hin zu Microsofts Exchange 2000.
Sie können elektronische Post nicht nur innerhalb Ihres Netzwerks, sondern auch über das Internet versenden. So erreichen Sie Computer anderer Benutzer oder Firmen. Dazu müssen Sie allerdings in Ihrem Netz einen Server so einstellen, dass er Auskünfte über die Namen von Computern und Netzwerken erteilt. Nachrichten im Internet können in Windeseile um die Welt reisen. Damit sie tatsächlich beim gewünschten Empfänger ankommen, haben alle am Internet angeschlossenen Netzwerke einen eigenen Namen, wie zum Beispiel beispiel.de. Wenn Sie beispielsweise aus dem Netzwerk mein.netz eine E-Mail an die Adresse Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein. senden, tragt Ihr Postamt Programm zunächst beim Auskunft Programm nach, ob computerbild.de vielleicht zu Ihrem eigenen Netzwerk gehört. Da das nicht der Fall ist, wird Ihre E-Mail dann über das Internet an die richtige Adresse versendet. Schreiben Sie dagegen einen elektronischen Brief an einem Teilnehmer im selben Netzwerk, sorgt die Anfrage beim Auskunft Programm dafür, dass dieses Schreiben Ihr eigenes Netz gar nicht erst verläßt, sondern im richtigen Postfach zum richtigen Computer gelangt. Es ist jedoch nicht ganz einfach, ein Programm einzurichten, dass die Namen aller Netzwerke im Internet herausfinden kann.
Die Einrichtung des Postamts Computers verläuft unter Windows 98, NT und 2000 Server gleich. Zunächst müssen Sie das entsprechende Programm (z.B. Argosoft Mail unter http://www.tucows.de/) jedoch aus dem Internet auf einen Rechner in Ihrem Netzwerk überspielen.
Nach der Installation des Programmes müssen Sie festlegen, welche Benutzer es in Ihrem Netzwerk gibt, damit die Software die Postfächer für diese Benutzer einrichten kann. Die Adressen lassen Sie vorerst frei.
Damit die elektronische Post nach dem Eintrag aller Benutzer beim richtigen Empfänger im Netzwerk ankommt, müssen Sie noch einige wichtige Einstellungen vornehmen.
Klicken Sie oben im Fenster auf Local Domains und geben Sie danach den Namen ein, unter dem sämtliche Benutzer Ihres Netzwerks erreichbar sein sollen, zum Beispiel mein.netz. Wenn es in Ihrem Netzwerk einen Benutzer namens Peter gibt, lautet dessen zukünftige E-Mail-Anschrift dann Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein.. Da Ihr Postamt Programm keine Verbindung mit dem Internet hat, brauchen Sie sich bei der Eingabe übrigens nicht an den Namen Ihres Netzwerks zu halten. Falls Sie zum Beispiel Saftladen eingeben, lautet die E-Mail-Adresse des Benutzers peter@saftladen.
Klicken Sie oben im Fenster noch auf Login und aktivieren Sie Log SMTP Commands, Log POP Commands und Log SMTP Conversations.
Damit ist die Einrichtung Ihres Postamt Programms abgeschlossen. Damit Sie E-Mails über das Programm austauschen können, muss es beim Start des Computers geladen werden. Ob es aktiv ist, erkennen Sie am Symbol am unteren Bildschirmrand.