Informationstechnologische Grundlagen

We are moving

from a world in which the big eat the small
to a world in which the fast eat the slow.

Klaus Schwab
Internet Time Group

 

Ideal wäre, wenn der Projektleiter bereits zu Beginn des Projekts alle für die Projektarbeit seines Teams notwendigen Werkzeuge vorfindet. Ist sein Projektteam über das Unternehmen oder gar landes- oder weltweit verteilt, also ein virtuelles Team, gehört zu diesen Werkzeugen auch eine entsprechend vernetzte IT-Infrastruktur. Sollte dieser Idealzustand nicht zutreffen, wäre es günstig, wenn er von den heute realisierbaren IT-Lösungen so viel versteht, dass er mit seinem IT-Dienstleister einen sinnvollen Dialog bezüglich seiner Anforderungen führen und dem Management plausible Argumente für die notwendigen Investitionen liefern kann.

Dieses Kapitel ist also für Projektleiter und Entscheider konzipiert, die sich einen Überblick über vernetzte IT-Strukturen beschaffen wollen. Es gibt einen Überblick über Netzwerktechnologien, geht danach speziell auf die Internet-Technologien ein und erläutert Details zu Netzanbindungs-Möglichkeiten und Mehrwertdiensten. Im letzten Abschnitt wird das Thema Sicherheit besprochen.

Für den mit den technischen Begriffen noch nicht vertrauten Leser ist es empfehlenswert, sich zuerst mit den Grundlagen dieser Thematik vertraut zu machen. Die Begriffe und Konzepte der Netzwerktechnologie sind detailliert in Anlage A erläutert.

1.1      Netzwerke, Technologien und Trends

Die Idee, Computer miteinander zu vernetzen, ist so alt wie der Computer selbst. Doch in den Anfängen der Computertechnik war dieser Gedanke noch nicht realisierbar. Anwendungsprogramme waren individuell zugeschnitten und die Technik war noch sehr fehleranfällig und nicht besonders leistungsfähig. Mit zunehmendem technischen Fortschritt wurde die Bandbreite der Möglichkeiten immer größer. Besonders durch wirtschaftliche und militärische Bestrebungen wurde die Entwicklung von Netzwerken gefördert. Der Fortschritt in der Netzwerktechnologie ist rasant. Innerhalb weniger Jahrzehnte reifte die Technik so aus, dass Netzwerke, wie wir sie heute in der Form von Firmennetzwerken oder dem Internet kennen, erst möglich wurden.

Entwicklung und Technik, die möglichen Einsatzgebiete, vor allem aber die Auswirkungen von Computernetzwerken auf Gesellschaft und Wirtschaft sind eines der interessantesten Gebiete der Informationstechnologie (IT).

Grundaufgabe von Netzwerken war es schon immer, Informationen einem räumlich verteilten Anwenderkreis zugänglich zu machen. Dies ist zwar auch heute noch ihre primäre Funktion, jedoch hat sich das Spektrum der Möglichkeiten und somit auch das der Aufgaben stark vergrößert. Betrachtet man z. B. ein Unternehmen, so wird deutlich, welche Anforderungen heutzutage an Netzwerke gestellt werden: Unterstützung von Geschäftsprozessen, unternehmensweite Kommunikation, Medienintegration, um nur einige zu nennen. Dass die heutigen Netze diesen Aufgaben durchaus gewachsen sind, sieht man vor allem an der großen Akzeptanz, welche sie besonders in großen Unternehmen genießen.

Doch Computer-Netzwerke sind schon lange nicht mehr nur in Großunternehmen und Konzernen anzutreffen, sie sind mittlerweile eine absolute Notwendigkeit auch in kleinen und mittleren Unternehmen. Die Verwaltung und Verarbeitung riesiger Datenvolumen, die insbesondere Dienstleistungsunternehmen in unserer Zeit bewältigen müssen, wären ohne eine gemeinsame Datenhaltung nicht mehr vorstellbar.

Das in Abschnitt 3.2.1 näher erläuterte Internet ist als „Netz der Netze“ zu betrachten. Deshalb ist es wichtig zu verstehen, welche Bausteine und Konzepte uns zum Aufbau eines Netzes zur Verfügung stehen.

Es gibt grundsätzlich zwei Möglichkeiten, Computer miteinander zu verbinden:

·         Peer-to-Peer (hierarchielose) Verbindung

In einem Peer-to-Peer-Netzwerk ist jeder Anwender gleichberechtigt. Das heißt, jeder Anwender kann auf die Daten der anderen Benutzer zugreifen. Diese Form der Datenhaltung ist besonders einfach zu realisieren und wird daher vor allem in sehr kleinen Netzen von maximal zehn Computern häufig verwendet; denn es wird hier keine spezielle Netzwerk-Software benötigt. Man kann sogar mit einem einfachen Windows-PC ein Peer-to-Peer-Netz betreiben.

·         Serverbasierte (hierarchische) Verbindung

Hierbei werden zentrale Aufgaben im Netzwerk von einem sehr leistungsfähigen Rechner, dem so genannten Server, übernommen. Dem Server können unterschiedliche Aufgaben zukommen wie z. B. reine Datendienste – solche Server werden Fileserver genannt (der englische Begriff File steht für Datei) – oder die Verwaltung von Peripheriegeräten. Die Benutzer in serverbasierten Netzwerken werden Clients genannt (der englische Begriff Client bedeutet Kunde). Ein Nachteil in solchen Netzen ist, dass der direkte Datenaustausch zwischen zwei Clients nur über den Server erfolgen kann.

Das serverbasierte Netzwerk wird den heutigen Anforderungen aus den nachfolgend aufgelisteten Gründen am besten gerecht:

·         Einer oder mehrere Server können große Mengen an Daten speichern.

·         Moderne Serversysteme können bei Bedarf auf- bzw. nachgerüstet werden (das Netzwerk ist skalierbar).

·         Zugriffsberechtigungen können einfach verwaltet und Datenzugriffe protokolliert werden.

·         Die zentral auf dem Server abgelegten Daten können regelmäßig gesichert werden.

·         Der Datenbestand kann einfach verwaltet und kontrolliert werden.

Die in den nachfolgenden Abschnitten beschriebene Netzwerkfunktionalität ist unabhängig von der Art der Vernetzung, ist also insbesondere auch für das später besprochene Internet gültig. Deren Nutzung erfordert je nach Netzwerk spezielle Software.

 

Zu Grundfunktionen moderner Netze gehören:

·         Gemeinsame Datenhaltung

Die gemeinsame Datenhaltung ist wohl die interessanteste Funktionalität, die sich durch Netzwerke bietet. Je nach Netzwerktyp und verwendeter Technologie kann man auf gemeinsam benötigte Daten und Informationen lokal – in so genannten Local Area Networks  (LANs) – oder auch global – in so genannten Wide Area Networks (WANs) – zugreifen.

·         Gemeinsame Nutzung von Peripheriegeräten

Ein weiterer Vorteil von Netzwerken ist die Möglichkeit, auch auf Peripheriegeräte  zuzugreifen, die nicht direkt am PC angeschlossen sind. Prinzipiell kann jedes Gerät, von Druckern über Scanner bis hin zu Modems für die gemeinsame Nutzung bereitgestellt werden. Das Gerät muss lediglich mit einem am Netzwerk angeschlossenen Rechner oder Server verbunden sein. Danach müssen nur noch geringfügige Änderungen an der Netzwerkkonfiguration vorgenommen werden. Dadurch können immense Kosteneinsparungen erzielt werden und die Wartung der Geräte wird vereinfacht.

·         Kommunikation

Die Kommunikation in einem Netzwerk  tritt in verschiedenen Formen auf wie Textkommunikation, Sprachkommunikation und Bildkonferenzen. Textkommunikation ist die am meisten genutzte Kommunikationsform. In Unternehmensnetzwerken beschränkt sich die Kommunikation über das Netzwerk noch meistens auf Textmitteilungen. Das populärste Beispiel für die Textkommunikation ist E-Mail. Das Netzwerk, in dem die Kommunikationsmöglichkeiten wohl am weitesten ausgeprägt sind, ist das Internet. Hier stehen unter anderem auch synchrone und asynchrone Diskussionsforen zur Verfügung.

Über ein Netz können auch räumlich getrennte Menschen effizient zusammenarbeiten.

1.2      Internet, Intranet und Extranet

Der Begriff Internet  ist mittlerweile im Großen und Ganzen wohl jedem bekannt. In diesem Abschnitt wollen wir erläutern, was dahinter steckt.

Mitte der neunziger Jahre wurden Unternehmen auf die rasante Entwicklung des Internet aufmerksam. Viele erkannten bald das markttechnische Potenzial, welches das weltumspannende Datennetz in der Zukunft haben würde und drängten auf eine Internet-Präsenz.

Mit der Zeit erkannte man, dass die Internet-Technologie viele Vorteile gegenüber konventionellen Netzwerken hatte, und fragte sich, ob diese Techniken nicht auch auf abgeschlossene, lokale Netzwerke übertragen werden können. Von der Anwendung der Internet-Technologie erhoffte man sich nicht nur eine bessere Form der Informationsdarstellung, sondern auch eine verstärkte Einbindung von Geschäftspartnern und Kunden. So entstanden Intranets und Extranets.

Die Internet-Society[i] lässt für den Begriff Internet folgende Definitionen zu:

·         Internet als das globale Metanetzwerk (Netzwerk von Netzwerken): Rechner, die sich gegenseitig erreichen können.

·         In einer engeren Definition beschränkt sich Internet auf das IP-Internet: registrierte Netzwerke, die untereinander IP-Datenpakete (Internet-Protokoll-Datenpakete) weiterleiten können (diese Weiterleitung heißt Routing).

·         Eine breitere Definition erweitert das IP-Internet um alle Netzwerke, die Datenpakete zu einem Zielgerät bzw. Zielprozess weiterleiten können.

Somit kann also auch jedes LAN, welches die gemeinsame „Sprache“ also das Internet-Protokoll versteht, zum Internet gehören, sobald es über einen entsprechenden Zugangsknoten angeschlossen wird. Die Zugangstechnologie wird später beschrieben.

Unter dem Schlagwort Intranet versteht man im weitesten Sinne die Nutzung von Internet-Technologien im Unternehmensumfeld. Dafür müssen alle miteinander physikalisch vernetzten Unternehmensrechner über entsprechende Internet-Protokolle und Software verfügen. Die dafür notwendigen Basisprotokolle und die Software sind in Anhang A beschrieben.

Der Begriff des Extranet beschreibt die Einbindung von Kunden, Lieferanten und anderen externen Partnern in das firmeninterne Intranet. Auch hier ist wiederum Internet-Technologie die technische Basis.

Die Netzarten Internet, Intranet und Extranet unterscheiden sich nur in Hinblick auf ihre Offenheit bezüglich der Anwender- bzw. Zielgruppen, die zugrunde liegenden Technologien sind gleich.

Abbildung 22 vermittelt einen Überblick über die Zielgruppen für die einzelnen Netze.

 

Abbildung 22: Intranet, Extranet und Internet

Aus später erläuterten Sicherheitsgründen ist für virtuelle Projektteams nur der Einsatz von Intranet- und Extranet-basierten Lösungen sinnvoll. Die nächsten Abschnitte behandeln deshalb diese Ausprägungsform des Internet näher.

1.2.1        Das Intranet

Für die verschiedenen Facetten der betrieblichen Anwendung von Internet-Technologien wird seit etwa Ende 1995 der Begriff Intranet verwendet.

Wie im Internet liegen die Informationen auch im Intranet meistens in Form von HTML-Dokumenten auf Servern. Man nennt diese Server Intranet-Server. Die Anwender können auf diese Informationen über einen Browser zugreifen.

Je nach infrastrukturellem Aufbau eines Intranet bieten sich unterschiedliche Anwendungsmöglichkeiten.

 

Abbildung 23: Intranet-Anwendungsmöglichkeiten

Grundbestandteile eines Intranet sind die Intranet-Server (diese werden oftmals auch als Web-Server bezeichnet), die Client-Computer mit einer Browser-Software und wahlweise auch reine Netzwerk-Computer (NC) ohne eigene Rechenkapazitäten. Die infrastrukturelle Basis für ein Intranet ist ein LAN mit einem TCP/IP-Protokoll . Prinzipiell könnte ein Intranet auch nur firmenintern verwendet werden. Da es aber in der Regel an das Internet angeschlossen wird, benötigt es zusätzlich noch spezifische Komponenten für den Zugangsschutz. Diese werden in Abschnitt 3.5 beschrieben.

 

Abbildung 24: Gewöhnliche IT-Struktur versus Intranet

In einem Intranet werden hauptsächlich firmenrelevante Daten verwaltet und erstellt. Die Haupteinsatzgebiete eines Intranet sind die statische und dynamische Informationsbereitstellung sowie die Zusammenarbeit der Mitarbeiter in Bereichen eines Unternehmens. Intranets zeichnen sich durch eine geringe Komplexität bei Infrastruktur und den Anwendungen aus. In Unternehmen kommen daher meistens mehrere Intranets zum Einsatz. Zum Beispiel könnte man sich vorstellen, für jede Abteilung oder jedes Projekt im Unternehmen ein eigenes Intranet einzurichten.

1.2.1.1       Statische Informationsbereitstellung

Das am häufigsten verwendete Format bei der Darstellung von Dokumenten im Internet ist das HTML -Format (siehe Anhang A). Statische Informationsbereitstellung ist der Anwendungsbereich, der sich mit der Konvertierung von Dokumenten und Informationen in das HTML-Format, dem Neuerstellen von HTML-Dokumenten und der Verwaltung von HTML-Seiten befasst. Die statische Informationsbereitstellung hat das Ziel, Daten allen Benutzern im Netzwerk zugänglich zu machen.

1.2.1.2       Dynamische Informationsbereitstellung

Die dynamische Informationsbereitstellung ermöglicht den Zugriff auf Daten, die sich auf unterschiedlichen Plattformen und Netzwerksystemen befinden. Im Gegensatz zur statischen Informationsbereitstellung werden die Informationen nicht komplett neu in HTML erstellt und auf einem Intranet-Server abgespeichert, sondern dynamisch – just in time – für das Medium Intranet aufbereitet und zur Verfügung gestellt. Dies erfolgt über einen so genannten Gateway-Server. Ein Gateway-Server ist entweder ein eigenständiger physikalischer Server oder – in den meisten Fällen – eine Softwareanwendung, die auf einem Intranet-Server betrieben wird, also ein virtueller Server. Die spezielle Software auf diesem Gateway-Server konvertiert auf Anfrage eines Clients Daten aus anderen Formaten in das HTML-Format und sendet sie an den Browser.

1.2.1.3       Zusammenarbeit

Die Funktionalität für Zusammenarbeit (E-Cooperation oder E-Collaboration) erfüllt die kommunikativen und organisatorischen Anforderungen eines Unternehmens an ein Netzwerk. Ziel ist es, eine effiziente Zusammenarbeit von räumlich voneinander entfernten Abteilungen und Mitarbeitern zu gewährleisten: die Zusammenarbeit in virtuellen Teams. In der Internet-Technologie bieten sich zwei Techniken an, um den Aufgaben Mail und Conferencing gerecht zu werden. Unter Mail versteht man die so genannte elektronische Post (E-Mail). Mit E-Mail werden hauptsächlich Nachrichten versendet, es können aber auch Dateien, Bilder, Videos und andere Daten als Anlage verschickt werden. Eine Echtzeit-Kommunikation ist mit E-Mail allerdings nicht möglich. Diese Möglichkeit bietet das Conferencing. Das so genannte Chatten, wie man es auch vom Internet her kennt, ist eine sinnvolle Funktion in Firmennetzwerken. Beim Chatten sind alle Teilnehmer in der Lage, in Echtzeit textbasiert zu kommunizieren. Weitere Echtzeit-Kommunikations-Möglichkeiten bietet die Remote Presentation oder das Application Sharing. Die Kombination von E-Mail und Conferencing deckt die grundlegenden Kommunikationsbedürfnisse ab.

Die in einem virtuellen Team häufig genutzten Funktionen wurden in Kapitel 2 beschrieben.

1.2.2        Das Extranet

Das Extranet  verbindet räumlich getrennte Intranets und integriert außenstehende Kommunikationspartner in das interne Netzwerk, beispielsweise unternehmensextern beschäftigte Mitarbeiter (Telearbeiter), Geschäftspartner oder Kunden. Die Verbindungen werden über das öffentliche Internet hergestellt. Um die Sicherheit dieser Verbindungen zu erhöhen, sollten Verschlüsselungs- und Authentifizierungstechnologien eingesetzt werden. Extranets bieten den Vorteil, dass für die Kommunikation keine neuen Netzwerk-Infrastrukturen aufgebaut und betrieben werden müssen, da das Internet als infrastrukturelle Basis bereits vorhanden ist. Sie werden oft in Form so genannter Virtual Private Networks (VPNs) über öffentliche Netze, im Regelfall über Internet, realisiert.

 

Abbildung 25: Kommunikationspartner im Extranet

Durch die Zutrittsregelungen geschützt, ermöglichen Extranets neue Anwendungsmöglichkeiten wie Electronic Commerce oder geschlossene Business-to-Business-Kommunikation.

1.2.2.1       Electronic Commerce

Electronic Commerce, kurz E-Commerce, ist eine der interessantesten Anwendungsformen der Internet-Technologie. Sie bewirkt zur Zeit eine revolutionäre Änderung althergebrachter Geschäftsformen und Geschäftbeziehungen: „New Economy [ii].

Zu den Anwendungen von Electronic Commerce, zählen u. a. Transaktionen zwischen Unternehmen, elektronische Kataloge und Kaufhäuser, Online-Kauf und Online-Bezahlung. Die Geschäftspartner können dabei folgende Beziehungen eingehen:

·         Business-to-Business (B2B )

Unter Business-to-Business-Kommunikation  versteht man die Kommunikation zweier Unternehmen. Ein Beispiel wäre ein Autohersteller, der mit seinen Zulieferern über ein Extranet in Verbindung steht. Somit ist eine effiziente Zusammenarbeit und Koordination zwischen den Unternehmen möglich.

Mit einer B2B-Kommunikation könnte insbesondere das ganze Projekt-Beschaffungswesen mit festen Lieferanten realisiert werden.

·         Business-to-Consumer (B2C )

Unternehmen können über das Business-to-Consumer -Prinzip produktrelevante Informationen sehr einfach einer Vielzahl von „Konsumenten“ zur Verfügung stellen. Die Kunden können somit beispielsweise aktuelle Preislisten, Produktinformationen oder Serviceangebote abrufen und direkt bestellen. Ein bekanntes Beispiel einer B2C-Anwendung ist der Internet-Buchversand Amazon.

Mit Hilfe der zahlreichen öffentlichen Online-Shops könnte ebenfalls zumindest ein Teil des Projekt-Beschaffungswesens realisiert werden.

1.2.3        Nutzen, Vor- und Nachteile

Was ist heute der Anreiz für Unternehmen, Netze, die auf Internet-Technologie basieren (Intranets oder Extranets) aufzubauen, bzw. vorhandene Netzwerke in solche zu überführen? Kann ein Intranet den informellen und kommunikativen Bedürfnissen genauso gerecht werden, wie ein genau skaliertes proprietäres Netzwerk?

Um diese Fragen zu beantworten, muss man die Vor- und Nachteile von internetbasierten Netzen der Funktionalität proprietärer Netze gegenüberstellen:

·         Proprietäre Netze  wie Netware, Microsoft NetBEUI und Appletalk sind miteinander nur bedingt vernetzbar. Die für eine durchgängige Vernetzung benötigten Komponenten (Hardware sowie System-Software und Anwendungen) verursachen hohe Investitions-, Wartungs- und meist auch Schulungskosten für die unterschiedlichen Netz-Spezialisten.

·         Die offenen Standards der Internet-Technologien (HTTP-Protokoll) bieten eine optimale Basis für die Verbreitung von Informationen. Komplexe Client/Server-Anwendungen sind dagegen mit HTTP (noch) nicht möglich.

·         Die Internet-Technologie ist äußerst flexibel: sie kann in LANs genauso wie in WANs umgesetzt werden. Hochspezialisierte Kommunikationsanwendungen sind allerdings mit der Internet-Technologie nur schwer zu realisieren.

·         Als Client dienen Internet-Browser, welche für unterschiedlichste Plattformen verfügbar sind und somit eine Verschmelzung verschiedenster Computersysteme ermöglichen.

·         Intranet-Server stellen geringere Ansprüche an die Hardware-Kapazitäten als konventionelle Netzwerk-Server.

Betrachtet man die Vorteile beim Einsatz der Internet-Technologie, so wird deutlich, dass man bei geringeren Kosten eine höhere Flexibilität erzielt. Dies allein kann aber nicht der Grund für ein Unternehmen sein, die innerbetriebliche Kommunikationsbasis völlig zu verändern. Ein Faktum ist, dass die Internet-Technologie noch in den Kinderschuhen steckt, was unter Betrachtung der Nachteile ersichtlich wird. Doch Unternehmen haben zum großen Teil erkannt, dass das Internet auch in der Zukunft und sogar noch vermehrt die Grundlage einer globalen Kommunikation sein wird und dass eine Integrierung der eigenen Informationen in dieses weltweite Informationssystem äußerst sinnvoll und auf weite Sicht hin gesehen strategisch notwendig ist.

Die Realisierung eines Intranet in einem Unternehmen hängt von mehreren Faktoren ab, die vor Beginn geprüft werden müssen. Diese Faktoren, bzw. diese Voraussetzungen, sind ausschlaggebend für den Schwierigkeitsgrad der Implementierung. Vor der Planungsphase sollten daher folgende Punkte geprüft werden:

·         Hat das Unternehmen Erfahrungen auf dem Gebiet der Internet-Technologie?

·         Ist das EDV-Personal in der Lage, die Installation, Verwaltung und Betreuung des Intranet zu übernehmen?

·         Sind die infrastrukturellen Voraussetzungen für ein Intranet vorhanden? (LAN mit IP-Protokoll und für alle Arbeitsplatzrechner verfügbare Client-Software – Web-Browser.)

·         Sind die Unternehmensdaten bereits elektronisch vorhanden, strukturiert und gemeinsam genutzt?

Wenn nicht alle Fragen mit „JA“ beantwortet werden können, werden die Kostenvorteile durch den höheren Realisierungs- und Einführungspreis kompensiert.

1.2.4        Trends

Die Internet-Technologie erlebt zur Zeit einen Boom. Es ist zu erwarten, dass der Trend noch mehr als heute hin zu offenen Standards und zu globaler Zusammenarbeit geht. Diese Fakten lassen einen weiteren Aufschwung dieser einfachen aber effektiven Technologie erwarten. Es wird für Unternehmen in Zukunft nicht mehr tragbar sein, nur ein abgeschlossenes und hochspezialisiertes Firmennetzwerk zu betreiben. Denn es wird immer wichtiger, Daten mit Tochter- oder Partnerfirmen, Kunden und Geschäftspartnern reibungs- und problemlos auszutauschen. Internet ist das für diese Aufgaben geradezu geschaffene Medium. Mit Hilfe von Intranets ist es möglich, das Unternehmens-Netzwerk komplett in das Internet einzubinden.

Die Internet-Technologien eignen sich hervorragend dazu, kostengünstige Netze selbst für kleine und kurzlebige Projekte zur Verfügung zu stellen.

1.3      Netzanbindung

Um die eigenen internen Netzwerke an das öffentliche Internet anzuschließen und somit die Möglichkeit zu schaffen, einen Intranet-Zugang außerhalb der eigenen Firmengebäude oder gar ein Extranet aufzubauen, wird eine Netzanbindung durch einen Internet Service Provider (ISP) benötigt. ISP betreiben die Infrastruktur, also die Netze und Rechner des Internet.

Die Hauptverkehrswege des Datenverkehrs sind die so genannten Backbones, die von Backbone-Providern wie KPNQwest, Level3, oder UUNET[iii] betrieben und vermietet werden. Ob ein ISP über eigene Kabelstrecken verfügt oder sich nur bei einem Backbone-Provider einmietet, ist nicht entscheidend für seine Performance. Über eigene Netze lassen sich Daten nicht unbedingt schneller, meistens aber sicherer transportieren.

Dreh- und Angelpunkt sämtlicher nationaler Datenströme in Deutschland ist der DE-CIX [iv] (Deutsche Commercial Internet Exchange). An diesem so genannten Peering Point, einem Internet-Knotenpunkt, haben mehr als 60 ISP ihre Kommunikationsgeräte (Router und Switches) stehen. Diese leiten die Datenpakete ihrer Kunden über die Backbones in Richtung der Empfänger im In- oder Ausland weiter. Der Empfänger greift über die lokalen Einwahlknoten, so genannten Points of Presence (PoPs), seines ISPs darauf zu. Von den PoPs führen in der Regel Kupferkabel über die lokalen Vermittlungsstellen der TK-Netzbetreiber zu den Teilnehmern, beispielsweise Haushalte und Unternehmen.

 

Abbildung 26: Schema Internet-Backbone

1.3.1        Zugangstechnologien und Bandbreiten

Es gibt grundsätzlich zwei Anschlussmöglichkeiten: die permanente und die temporäre Netzanbindung. Zu jeder Anschlussmöglichkeit gibt es verschiedene Zugangstechnologien, welche alle Bedürfnisse bezüglich der Verfügbarkeit, Skalierbarkeit, Sicherheit und Wirtschaftlichkeit eines Unternehmens oder einer Einzelperson abdecken.

Beim temporären Anschluss wird der PC oder das eigene Netzwerk nur zeitweise mit dem Internet verbunden. Bei jedem Verbindungsaufbau bekommt der Teilnehmer eine neue Protokoll-Adresse, eine so genannte IP-Adresse, vom ISP zugewiesen. Diese Adresse ist für die Dauer der Verbindung für ihn gültig und identifiziert ihn eindeutig im Internet.

Bei einer permanenten Netzanbindung bekommt der Teilnehmer für seinen PC oder sein Netzwerk einen festen IP-Adressraum durch den ISP zugeteilt. Erst dadurch ist eine Erreichbarkeit des internen Netzes aus dem Internet zu realisieren. Ähnlich einer Telefonnummer ist das Intranet dann immer unter derselben Nummer bzw. demselben Namen zu erreichen.

Die Netzanbindung kann in beiden Fällen unterschiedliche Bandbreiten haben. Die Bandbreite ist das Maß für die Übertragungskapazität einer Datenleitung. Sie wird in Kilobit pro Sekunde (Kbit/s) gemessen, bei größeren Leitungen in Megabit (Mbit/s) oder Gigabit (Gbit/s) pro Sekunde. Das Übertragungsvolumen wird hingegen in Kilobyte (KB), Megabyte (MB) oder Gigabyte (GB) gemessen. Ferner unterscheidet man zwischen Downstream (Download) – Daten, die aus dem Netz geholt werden – und Upstream (Upload) – Daten, die ins Netz geschickt werden.

Je mehr Daten schnell übertragen werden sollen, desto größer ist die benötigte Bandbreite. Insbesondere die Übertragung von Multimedia-Informationen wie Sprache und Bild führt die derzeit verfügbaren Bandbreiten an die Grenze ihrer Leistungsfähigkeit.

Gerade für die Konzeption einer Projekt-Kommunikationsplattform ist es wichtig, dass die Funktionalität an die vorhandenen Bandbreiten bzw. die Bandbreite an die gewünschte Funktionalität angepasst werden. Es ist ziemlich frustrierend, wenn bei einer Videokonferenz die Sprache nicht mehr synchron mit dem Bild übertragen wird, oder wenn der Aufbau des Projektplans auf dem Bildschirm bei einer E-Conference Minuten dauert.

Die unterschiedlichen Zugangstechnologien und die darin angebotenen Bandbreiten werden in den folgenden Abschnitten näher erläutert. Im Quellenverzeichnis sind einige Anbieter von Zugangstechnologien aufgeführt.

Die Einrichtung eines Internet-Zugangs kann je nach Zugangstechnologie und Anbieter einige Stunden (Wählzugang) oder mehrere Monate (Standleitung, DSL, Satellitenanschluss) dauern. Es ist daher auf eine rechtzeitige Beauftragung des passenden Anschlusses für alle Projektbeteiligten zu achten, so dass zu Projektbeginn das ganze Team auf gleicher Basis kommunizieren kann.

1.3.2        Temporäre Anbindung

1.3.2.1       Analoge oder digitale Wählverbindung

Um Anschluss an ein Rechner-Netzwerk wie das Internet zu bekommen, wird einerseits ein gemeinsames Übertragungsprotokoll – eine gemeinsame „Sprache“ – und andererseits ein Übertragungsmedium – meist Kabel – benötigt. Der Anschluss ans Internet wird in der einfachsten Variante über das bestehende Telefonnetz realisiert. Dies kann sowohl über eine analoge als auch über eine digitale (ISDN) Verbindung geschehen. Beim Analoganschluss wird an den Rechner ein Modem angeschlossen, das digitale Signale des Rechners in analoge Töne umwandelt, die dann beim Provider zurückverwandelt und ins Internet eingespeist werden. Über eine Analogverbindung können Informationen mit bis zu 56 Kbit/s übertragen werden. Mit einem digitalen ISDN-Basisanschluss lässt sich über zwei B-Kanäle eine Bandbreite von je 64 Kbit/s realisieren, die auch gekoppelt werden können. In den meisten Unternehmen findet man heute ISDN vor. Für den Anschluss eines Computers über ISDN benötiget man eine ISDN-Karte oder ein externes ISDN-Modem.

Die Verbindung wird in beiden Fällen vom eigenen PC zum PoP des ISP aufgebaut. Im Normalfall ist dies im Rahmen einer Ortsverbindung möglich. Dieser Zugang wird im Regelfall zeitabhängig durch den Telekommunikationsnetzbetreiber oder ISP abgerechnet.

1.3.2.2       DSL-Technologien

Die für einen Telefonanschluss verwendete Kupferdoppelader hat prinzipiell eine noch höhere Übertragungskapazität, wenn nur die richtigen Verfahren angewandt werden. Solche Verfahren werden mit dem Ausdruck „Digital Subscriber Line“ (DSL) bezeichnet. Das erste Verfahren dieser Art hieß „High bit rate Digital Subscriber Line“ (HDSL). Damit lassen sich bei deutschen Anschlüssen Übertragungsgeschwindigkeiten von bis zu 2.048 Kbit/s erreichen. Die maximale Entfernung bis zur nächsten Vermittlungsstelle beträgt dabei ungefähr 1,7 km. Ein weiteres Verfahren, Asymetric Digital Subscriber Line (ADSL ) wurde ursprünglich für die Videoübertragung konzipiert und erlaubt besonders in Download-Richtung, also vom Internet zum Kunden, höhere Bandbreiten von bis zu 6 Mbit/s. Derzeit sind im ADSL-Bereich Übertragungsraten von 768 Kbit/s im Empfangs- und 128 Kbit/s im Sendebereich marktüblich.

Zur Nutzung der xDSL-Technologie sind spezielle Geräte erforderlich, die ähnlich wie ein Modem die Verbindung zwischen PC und Netzzugang herstellen. Bei den derzeitigen ADSL-Angeboten, insbesondere bei der deutschen Telekom, handelt es sich auch nur um einen temporären Anschluss, da die IP-Adressen nur dynamisch zugewiesen werden. Es wird in Zukunft allerdings auch Anbieter von xDSL-Zugängen mit statischer IP-Adressvergabe geben. Dann ist auch diese Lösung der permanenten Anbindung zuzurechnen. Die Tarifierung ist im Regelfall volumenabhängig.

Lösungen, die auf Funk- oder Satelliten-Technologien aufsetzen, so genannte Wireless-Anbindungen, sind noch wenig verbreitet oder werden oftmals nur in Kombination mit herkömmlichen Wählverbindungen eingesetzt und sollen hier nicht weiter berücksichtigt werden.

1.3.3        Permanente Anbindung

1.3.3.1       Standleitung

Die übliche und in der Bundesrepublik fast überall verfügbare Lösung für einen permanenten Internetzugang ist die so genannte Standleitung. Diese Anbindungsform ist, wie unten aufgeführt, skalierbar und die ISP bieten für alle Bedürfnisse passende Lösungen. Ob die Leitung aus Kupfer oder Glasfaser ist, ob sie vom ISP selbst verlegt oder von einem Telekommunikationsnetzbetreiber angemietet wird, hängt vom Einzelfall ab. Die Einstiegsbandbreite ist derzeit 64 Kbit/s. In sinnvollen Schritten 128 Kbit/s, 2 Mbit/s, 34 Mbit/s und 155 Mbit/s bekommt man für alle Anwendungsfälle den passenden Anschluss. Es gibt pauschale und volumenabhängige Tarifierungs-Angebote.

1.3.3.2       Digital Powerline

Schon lange existiert die Technik, Stromzähler automatisch abzulesen und die Daten dazu über das Stromkabel selbst zu übertragen. Mit dem Boom des Internet werden Weiterentwicklungen dieser Technik interessant, um auch den Internet-Zugang über die Steckdose zu ermöglichen. Der große Vorteil dieser Technik ist, dass Kunden dann automatisch 24 Stunden pro Tag am Netz hängen und keine zeitabhängigen Gebühren für eine Telefon-Wählverbindung oder für eine Standleitung zahlen müssen. Derzeit gibt es zwei Entwicklungslinien, wobei in einem Fall der Datenstrom wirklich aus der Steckdose kommt, während im anderen Fall in einem Gebäude eine Verteilerstation installiert wird, die das Signal abfängt, verarbeitet und an ein hausinternes eigenes Kabelnetzwerk weitergibt. In beiden Fällen laufen Pilotversuche, bei denen mögliche Störungen der Datenübertragung noch ausgeräumt werden müssen.

1.3.3.3       Richtfunkstrecken und Kabelnetze

Bei der Suche nach Alternativen zur Telefonverbindung und dem Verlegen eigener Kabel stehen im Wesentlichen zwei Möglichkeiten zur Auswahl. Insbesondere in Ballungsgebieten mit Sichtkontakt zum ISP bietet sich der Aufbau einer Funkstrecke an, die über mehrere Kilometer Daten übertragen kann und bei höherer Bandbreite (>4 Mbit/s) oft kostengünstiger als eine Standleitung ist. Vorhandene Netze mit Koaxialkabel existieren in Deutschland beispielsweise in Form des Kabelfernsehnetzes, das derzeit noch weit gehend im Besitz der Deutschen Telekom ist. Nach dem Europäischen DVB-Standard lassen sich in einem Kanal etwa 37 Mbit/s Daten übertragen. Technisch möglich ist auch die Telefonie über das Fernsehnetz. Dabei muss beim Teilnehmer ein „Coaxial Network Termination“ (CNT) installiert werden, der das Schmalband vom Fernsehsignal trennt und an die Endgeräte überträgt. Entsprechendes gilt auch für den Internet-Zugriff, für den ein Kabelmodem benötigt wird. Beide Systeme benötigen für den Rückkanal ein weiteres Kabel. Diese „Hybrid Systeme mit Glasfaser- und Koaxialkabel“ (HFC) erlauben dann extrem hohe Bandbreiten beim Herunterladen. In den USA aber auch in der Schweiz ist der Zugang über das Kabelfernsehnetz sehr verbreitet.

1.4      Mehrwertdienste

Fast alle ISP bieten neben dem eigentlichen Netzzugang (Access Services) auch so genannte Mehrwertdienste an (Value Added Services). Hierbei handelt es sich um Dienste wie Newsgroups, E-Mail, Webhosting oder -housing und VPNs. Ein Unternehmen, das zwar einen eigenen Webserver betreiben möchte, aber keine permanente Anbindung benötigt, kann den Server in einem Rechenzentrum des ISP unterbringen oder sich dort auf einem „großen“ Server einen Platz mieten (virtueller Server oder virtual Webspace). Dienste wie E-Mail oder Newsgroups werden ebenfalls speziell für Unternehmen angepasst und administriert angeboten. Insbesondere bei den Mehrwertdiensten steckt der Teufel allerdings, wie immer, im Detail. Hier sei besonders vor Billigangeboten gewarnt. Kaum ein Computermagazin erscheint, in welchem sich nicht beim Durchblättern mehrere Beilagen von so genannten Webspace-Discountern befinden. Die hier offerierten Lösungen erweisen sich oftmals als wenig oder gar nicht anpassbar an die eigenen Bedürfnisse. Insbesondere bei Sicherheits- und Messaging-Lösungen kann hier an der falschen Stelle gespart werden.

Grundsatz:

FreeMail- oder FreeWeb-Anbieter sind für den Unternehmens- oder Projekteinsatz nicht geeignet.

1.5      Sicherheitsaspekte

Jeder, der ein Firmengebäude betritt, versteht, dass Zutrittskontrollen durchgeführt werden, die Tür des Büros sowie die Büroschränke verschlossen gehalten werden und sowohl Mitarbeiter als auch Besucher Namensschilder tragen.

Die „Klassische“ EDV kann man sich nicht ohne die entsprechenden Sicherheitskonzepte vorstellen. Diese Konzepte adressieren die Themen, die für geschlossene Rechenzentren und isolierte LANs zutreffen, beispielsweise Datenintegrität, Schutz vor Datenverlust und organisatorische Sicherheitsmaßnahmen. Zum Schutz der Daten genügte oft die verschlossene Tür des Rechenzentrums.

Die Offenheit der Internet-Technologie und die rasante Ausbreitung der Internet-Netze bringen auch „ungebetene Besucher“ ins Haus und stellen die alten Sicherheitskonzepte vor neue Herausforderungen.

Seit Anfang der achtziger Jahre entwickelte sich eine Gemeinde von talentierten Programmierern, die sich selbst „Cracker“ nannten und die es sich zum Ziel machten, sich unbefugt Zugang zu Netzwerken und Computern aller Art zu verschaffen. Ihre Absichten waren meistens zerstörerischer Natur.

Die Vertreter einer anderen Gruppe, die sich bereits in den siebziger Jahren bildete, interessierten sich mehr für die Gründe von Sicherheitslücken, nicht für deren böswillige Ausnutzung. Sie waren ebenfalls versierte Programmierer und versuchten ihr Wissen ständig zu erweitern. Sie bezeichneten sich als „Hacker“. Obwohl sie sich gerne so darstellen, kann man nicht sagen, dass Hacker prinzipiell nur Positives zur Datensicherheit beitragen, weil sie Defizite in der Systemsicherheit aufzeigen. Man muss auch betonen, dass sie durch ihr meist unerlaubtes Eindringen in fremde Netzwerke oder Computer Datenschutzrechte verletzen und die Systemintegrität gefährden (auch wenn sie keine Daten beschädigen oder löschen).

Mit dem Aufkommen der Hacker und Cracker in den achtziger Jahren wuchs plötzlich auch bei den kommerziellen Internet-Nutzern das Bedürfnis nach geeigneten Schutzmaßnahmen. Netzwerkadministratoren mussten sich Lösungen überlegen, um ihre Netze vor unbefugten Zugriffen von außen und zerstörerischer Software zu schützen. Dies rief auch Softwarehersteller auf den Plan, die sich vom neuen „Geschäft mit der Sicherheit“ große Profite versprachen. In Folge kam es zu einem Boom in der Entwicklung von Sicherheitssystemen und Antiviren-Programmen.

Grundlage für ein geeignetes Sicherheitskonzept ist die ganzheitliche Betrachtung der vorhandenen IT-Infrastruktur (Hardware und Software) inklusive des Faktors „Mensch“.

In den folgenden Abschnitten werden nur die Sicherheitsaspekte betrachtet, die im Zusammenhang mit der Nutzung von Internet-Technologien stehen.

1.5.1        Gefahrenquellen

Die folgenden Punkte sollen die bedeutendsten Gefahrenquellen für Netzwerke erläutern:

·         Destruktive Programme

Destruktive Programme [v] können dem Zweck der Datenzerstörung, der Belästigung von Anwendern oder der Gefährdung der Systemintegrität dienen. Die bekannteste und verbreitetste Gattung destruktiver Software ist wohl der Computervirus: Ein Computervirus ist ein Programm, das sich an Dateien auf dem Zielrechner hängt. Während dieses Vorgangs der Infizierung wird der ursprüngliche Code des Virus an Dateien angefügt. Wenn eine Datei infiziert ist, verwandelt sie sich von einer normalen Datei in einen Virusträger. Von diesem Zeitpunkt an kann die infizierte Datei selbst andere Dateien infizieren. Dieser Vorgang wird Replikation genannt. Durch Replikation können sich Viren über die gesamte Festplatte verbreiten und so zu einer Systeminfizierung führen. Meist gibt es kaum Warnungen, bevor eine solche Systeminfizierung erreicht wird und dann ist es zu spät. Heute gibt es unzählige Computerviren, die auf unterschiedlichste Art wirken und arbeiten.

·         Das „Sicherheitsloch“

Unter einem Sicherheitsloch versteht man nicht geplante Fehlfunktionen in der Hard- und Software, welche einen unautorisierten Zugang zu Systemen ermöglichen. Diese Fehler können z. B. in Routern, in der Client- und Server-Software, in Betriebssystemen und in Firewalls liegen. Die meisten Sicherheitslöcher werden von den Herstellern selbst oder von Hackern entdeckt und gemeldet. Ein Sicherheitsloch kann auch geplante Funktionen verursachen, die z. B. für Fernwartung benötigt werden.

1.5.2        Sicherheitslösungen

Sicherheitslösungen gibt es in unterschiedlicher Ausprägung. Als absolutes Minimum bei der Arbeit mit Internet-Technologien gelten Authentifizierung (Eingabepflicht von Benutzername und Kennwort) und Virenschutz. Eine weitere Sicherheitsstufe erreicht man mit Verschlüsselungstechnologien bei der Datenübertragung und mit dem Einsatz von Firewalls. Die derzeit höchste Sicherheit bieten VPNs. Diese einzelnen Konzepte werden nachfolgend beschrieben.

1.5.2.1       Virenschutz

Ein Zweig, der sich besonders rasch entwickelt, ist die Bekämpfung von Computerviren. Es existieren heute viele so genannte Anti-Viren-Programme, welche Computerviren aufspüren und neutralisieren können. Man kann bei der Arbeitsweise solcher Software erstaunliche Parallelen zur Biologie erkennen: Ein Antikörper im Körper des Menschen ist in der Lage, anhand der Oberflächenstruktur eines Virus diesen als solchen zu identifizieren und Abwehrmaßnahmen einzuleiten. Genauso verhält es sich auch bei den Anti-Viren-Programmen. Sie verfügen über eine große Datenbank, in der bekannte Viren , ihre Eigenschaften und Arbeitsweisen gespeichert sind. Sie überprüfen Speicherbereiche und Festplatten eines Computers auf Virenaktivität. Wird eine Datei entdeckt, die durch einen Virus infiziert sein könnte, vergleicht das Anti-Viren-Programm die Eigenschaften und Arbeitsweisen mit denen in seiner Datenbank. So kann es Viren als solche erkennen und Maßnahmen zur Beseitigung treffen.

1.5.2.2       Firewalls

Ein weiterer Bereich der Sicherheitstechnik ist der Schutz von Netzwerken vor unbefugten Zugriffen von außen. Hier ist besonders das so genannte Firewall-Konzept dominierend. Eine Firewall, zu deutsch Brandmauer, ist normalerweise ein unabhängiger Rechner mit einer speziellen Firewall-Software, ein Router mit speziellen Firewall-Funktionen oder ein spezialisiertes Hardware-Gerät. Das Firewall-Prinzip sieht vor, dass ein Zugriff von außen nur über das dem Netzwerk vorgeschaltete Firewall-Gerät (gleichgültig, ob es sich hier um einen Rechner, Router oder sonstige Hard-/Software handelt) möglich ist.

Abbildung 27: Schema Firewall-Lösung

Die Firewall  besteht aus einem Regelwerk, welches alle Datenpakete durchlaufen müssen. Nach dem Grundsatz „Alles, was nicht explizit erlaubt ist, ist verboten“, werden die eingestellten Regeln auf die Datenpakete angewandt. Dieser Vorgang wird auch als Paketfilterung bezeichnet.

Einige Firewall-Lösungen enthalten zusätzlich zu den vorgestellten Paketfiltern so genannte Inhaltsfilter. Hierbei werden Scannerprogramme eingesetzt, welche die Dateien auf kritische Inhalte überprüfen. Was kritisch ist, definiert dabei das Unternehmen: rechtsradikale oder pornographische Inhalte oder unerwünschte Internet-Sites.

 

Abbildung 28: Schema Paketfilter

1.5.2.3       Virtuelle Private Netze

Ein Virtuelles Privates Netz (VPN) ermöglicht eine sichere, globale Verbindung für Netzapplikationen über ein öffentliches (unsicheres) Medium – beispielsweise das Internet. In der Sicherheitsstufe kommt sie sehr nahe an eine private Leitung heran, ist aber nicht wirklich privat, daher der Name „virtuell privat“.

VPNs tragen die Corporate-Network-Idee weiter (weltweites Netz eines Unternehmens) und bilden beispielsweise ein ideales Fundament zum Aufbau von standortübergreifenden Intranets und Extranets.

Dem steigenden Sicherheitsbedürfnis der Unternehmen, gerade in Bezug auf E-Business, tragen die Hersteller mit immer neuen Produkten im Bereich der VPNs Rechnung. Deren Spektrum reicht von Hardware- und Software-Lösungen bis hin zu Dienstleistungen. Externe Standorte und mobile Geräte können mit der VPN-Technologie verbunden und geschützt werden. Dabei hat sich die VPN-Technologie als Standard für den Aufbau sicherer Übertragungskanäle im Internet durchgesetzt.

In einem VPN werden zum Schutz der Datenübertragung die bekannten Technologieelemente in Kombination eingesetzt:

·         Verschlüsselungstechnologien,

·         Authentifizierungssysteme,

·         Protokolltunnel (VPN-Tunnel) und

·         Firewalls.

Erst die Kombination dieser Technologien und Techniken, gepaart mit einer verantwortungsvollen Organisation und Pflege des Gesamtsystems, sowie das Verantwortungsbewusstsein der Mitarbeiter machen ein sicheres VPN aus.

 

Abbildung 29: Schema eines VPN

1.5.3        Zukünftige Netzwerksicherheit

Die Unternehmer haben bereits die Vorteile einer Vernetzung über Internet-Technologien für die Abwicklung der Geschäftsprozesse erkannt. Der zukünftige Erfolg von Computernetzwerken hängt im großen Maße von der Netzwerksicherheit ab. Die Technologien zur Abwehr von böswilligen Attacken auf Netzwerke müssen ständig weiterentwickelt und verbessert werden. Eine Stagnation im Bereich der Netzwerksicherheit hätte katastrophale Konsequenzen für Wirtschaft, Gesellschaft und öffentliche Einrichtungen. Damit sich die neuen Anwendungen wie E-Banking, E-Business und andere erfolgreich weiterentwickeln können, müssen vor allem die Industrie und der Dienstleistungssektor in die Sicherheit investieren. Dabei sollte man nicht erst den Gefahrenquellen begegnen, wenn sie bereits Schaden angerichtet haben, sondern vielmehr für einen präventiven Schutz sorgen. Ziel der Entwicklungen auf dem Bereich der Netzwerksicherheit ist es, das Vertrauen in die Zuverlässigkeit und Sicherheit von Netzwerken zu stärken.

Grundsätzlich sollte jeder Netzwerkaufbau unterschiedliche Sicherheitszonen enthalten. Dabei sind besonders die externen Zugänge zum Unternehmensnetzwerk zu betrachten und auf ein Mindestmaß zu reduzieren. Zur Zonentrennung eignen sich Firewalls, die auf die entsprechenden Bedürfnisse angepasst werden müssen. Zwischen dem (unsicheren) Internet und dem (sicheren) Intranet wird empfohlen, eine so genannte demilitarisierte Zone (DMZ) durch eine äußere und innere Firewall zu schaffen. Diese ermöglicht beispielsweise den Empfang von beliebiger nicht gefilterter E-Mail, ohne dabei die Sicherheit des internen Netzes zu gefährden. Die unterschiedlichen Schutzzonen zeigt Abbildung 30.

 

Abbildung 30: Schutzzonen im Netzwerk

1.5.4        Sicherheitslösungen für die Nutzung von Internet-Technologien in virtuellen Projektteams

Die Arbeit in virtuellen Teams  stellt besondere Anforderungen an das Sicherheitskonzept. Zum einen sollte die IT-Lösung so offen wie nötig zum anderen aber auch so sicher wie möglich sein. Grundsätzlich stellt sich nicht die Frage, wie die IT-Lösung im Detail aussieht, sondern vielmehr wer sie betreibt und auch für die notwendige Sicherheit – technisch gesehen – verantwortlich ist.

Basis für den gesamten Datenverkehr sollte im Hinblick auf die Offenheit und wegen der geringen Kosten das Internet sein. Ein zentraler Datenaustauschplatz in Form eines Extranet-Portals, wie es beispielsweise in Kapitel 2 beschrieben wird, sollte den Kern der Lösung bilden.

Für die drei in Kapitel 2 beschriebenen organisatorischen Szenarien für Projekte kann grundsätzlich die gleiche IT- und Sicherheitslösung eingesetzt werden. Es gibt drei mögliche technische Betreibermodelle:

1.       Das Unternehmen, welches die Projektleitung übernommen hat, ist für die IT- und Sicherheitslösung selbst verantwortlich und realisiert die notwendigen Systeme für das gesamte Team.

2.       Das Projektteam baut sich für die Dauer der Projektlaufzeit eine eigene IT- und Sicherheitslösung auf und betreibt diese mit eigenen Ressourcen für das gesamte Team.

3.       Weder Unternehmen noch Projektteam sind in der Lage oder willens, die notwendigen Systeme zu entwickeln und zu betreiben, sondern beauftragen einen Dritten – z. B. einen ASP – die erforderliche Lösung bereitzustellen.

Um die Gefahrenquellen so gering wie möglich zu halten, sollten nur wenige Protokolle (HTTP und IMAP) und diese verschlüsselt (SSL) zum Datentransport genutzt werden. Der Datenverkehr wird hierbei, selbst über ein öffentliches Netz wie dem Internet, nicht im Klartext sondern verschlüsselt übertragen. Ein „Lauscher“ kann also nur kryptische Zeichenfolgen abfangen. Insbesondere zur Authentifizierung ist diese verschlüsselte Verbindung wichtig, da ansonsten alle Benutzernamen und Kennwörter im Klartext – für alle Welt lesbar – durch das Internet befördert werden. Eine Firewall zwischen dem eigentlichen Projekt-Server und dem Internet stellt die Beschränkungen im Protokollbereich sicher. Alle Kommunikationsserver (Mail- und Webserver) sollten nur in Verbindung mit SSL arbeiten, also nur eine verschlüsselte Verbindung erlauben.

 

Abbildung 31: Sicherheitshinweis bei einer verschlüsselten (SSL-)Verbindung im Internet Explorer

Die Verschlüsselung der Verbindung ist in Abbildung 31 zwar gegeben, aber das Server-Zertifikat wurde durch eine nicht als vertrauenswürdig eingestufte Firma herausgegeben. Erst durch die Zertifizierung durch ein so genanntes Trust-Center kann der Nutzer auch sicher sein, dass er den gewünschten Server benutzt. Der technische Betreiber ist für die Beantragung und Installation des Zertifikates verantwortlich.

Ein Virenschutzprogramm ist Pflicht auf allen Clients. Darüber hinaus sollte zusätzlich bereits auf dem Server präventiv ein aktiver und stets aktueller Virenschutz betrieben werden. Hierbei ist besonders darauf zu achten, dass alle Komponenten, die Dateien wie beispielsweise Textdokumente oder Kalkulationen speichern und zum Herunterladen bereitstellen (E-Mail-, Web- und Fileserver) eingeschlossen werden.

In jedes Sicherheitskonzept gehört eine konsequente Rechtevergabe auf Personenebene. In einem Projekt, in dem externe Partner und Teammitglieder aus eventuell in Wettbewerb stehenden Unternehmen zusammenarbeiten, ist es besonders empfehlenswert, die Rechtevergabe jederzeit konsistent zum Projektteam unter Kontrolle zu haben. Eine regelmäßige Überwachung der gesamten Sicherheitslösung durch einen unabhängigen Dritten (Sicherheitsaudit) sollte der Projektleiter ebenfalls im Projektplan und Projektbudget vorsehen.

Die Frage nach dem Betreiber steht weiterhin im Raum und kann nur für den Einzelfall beantwortet werden. Grundsätzlich sollte sich die Projektleitung hier auf keine Kompromisse einlassen. Kann oder will die unternehmensinterne IT-Abteilung nicht alle Kommunikations- und Sicherheitsanforderungen erfüllen, sollte eine externe Lösung gewählt werden. Die dabei entstehenden Kosten bringen einen Mehrwert insbesondere in Bezug auf die Qualität und Professionalität, der bei weitem höher zu bewerten ist. Auch die Konsultation eines externen Beraters kann nur empfohlen werden. Alle im Quellenverzeichnis (siehe Anhang) aufgeführten ISP bieten Dienstleistungen in diesem Umfeld an.

Bei brisanten Forschungs- und Entwicklungsprojekten kann die Sicherheit durch den Einsatz einer VPN-Lösung nochmals erhöht werden. Hierbei ist allerdings mit erheblich höheren Kosten und entsprechenden Planungs- und Realisierungszeiten bei der Einrichtung des Netzes zu rechnen.

Bei allen technischen Sicherheitsvorkehrungen sollte der Faktor Mensch als „schwächstes Glied in der Kette“ besondere Beachtung finden. Oftmals wird das beste Sicherheitssystem durch ein offen abgelegtes Kennwort oder den sorglosen Umgang mit Daten auf den Clients ausgehebelt. Besondere Vorsicht ist auch beim Einsatz von Notebooks in virtuellen Teams geboten. Die „Datenschätze“ auf solchen Geräten sind immens und stellen immer wieder ein Sicherheitsloch dar. Auch hier ist eine Überprüfung hinsichtlich der Sicherheit im Rahmen der Umfeldanalyse zu Beginn des Projekts anzuraten.

 


 

[i] Die Internet Society – http://www.isoc.org – hat sich u. a. die Erweiterung der Reichweite des Internet und Verbesserung der Interkonnektion mit Netzwerken und -diensten anderer Techniken zur Aufgabe gemacht.

[ii] Die Möglichkeiten von „New Economy“ und deren Konsequenzen für die strategischen Entscheidungen der Unternehmen beschreiben in spannender Weise Evans und Wuster in [Evans+ 2000].

[iii] Backbone-Provider wie z. B. UUNET – http://www.uu.net, Level3 – http://www.level3.com, oder KPNQwest – http://www.kpnqwest.com/, betreiben die Infrastruktur des Internet mit eigenen Leitungen.

[iv] Am DE-CIX (Deutsche Commercial Internet Exchange) – http://www.de-cix.net/, einem Internet-Knotenpunkt, haben mehr als 60 ISP ihre Kommunikationsgeräte stehen.

[v] Als Destruktive Programme werden beispielsweise außer Computerviren so genannte Trojanische Pferde, Würmer und andere meist recht fantasiereiche aber unwillkommene Anwendungen verstanden.