German Unix User Group (GUUG)
Vorträge | FFG2003 | Frühjahrsfachgespräch
http://www.guug.de/veranstaltungen/ffg2003/vortraege.html
2019-11-10

Vorträge

Buffer Overflows - Ursachen und Gegenmaßnahmen für Entwickler und Administratoren
von Tobias Klein
Donnerstag 27.03.
11:30 - 12:15

Bei näherer Betrachtung beruhen die meisten Schwachstellen, welche zur erfolgreichen Kompromittierung eines Systems ausgenutzt werden können, auf Fehlern innerhalb der eingesetzten Software. In diesem Vortrag wird ein Überblick über die wohl am häufigsten ausgenutzte Software-Schwachstelle gegeben: Buffer-Overflows. Die Präsentation stellt neben den Ursachen und Gegenmaßnahmen aus Sicht der Entwickler auch mögliche Gegenmaßnahmen für Administratoren dar. So werden Entwicklungswerkzeuge und Programmierrichtlinien aber auch entsprechende Systemkonfigurationen sowie Produkte vorgestellt, die die gezielte Ausnutzung obiger Schwachstellen zuweilen unterbinden können, selbst wenn die Entwicklung bereits abgeschlossen ist.

Über den Autor:

Nach Abschluss seines Studiums arbeitet Tobias Klein seit Juli 2002 als IT-Sicherheitsberater bei der Firma cirosec GmbH. Er ist Autor des 2001 beim dpunkt Verlag erschienenen Fachbuches "Linux-Sicherheit - Security mit Open-Source-Software - Grundlagen und Praxis" und schreibt zurzeit an einem weiteren Titel zur Buffer-Overflow- und Format-String-Attacken-Problematik, welcher voraussichtlich im 4. Quartal dieses Jahres erscheinen wird.

Speichernetze und Anwendungen
von Ulf Troppens
Donnerstag 27.03.
11:30 - 13:00

Durchschnittlich verdoppelt sich in einem Unternehmen jedes Jahr die installierte Speicherkapazität. Das heißt: Wer heute 250GB Festplattenspeicher installiert hat, der wird in fünf Jahren ungefähr 8TB verwalten und sichern. Solche Datenmengen können nur noch mit Speichernetzen effizient verwaltet werden.

Bisher waren Speichergeräte über SCSI-Kabel an einen Server angeschlossen. Speichernetze ersetzen diese Verbindung durch ein neues Netzwerk, das zusätzlich zu dem bereits existierenden LANs installiert wird. Der Speicher wird dadurch unabhängig vom Server.

Im Vortrag erkläre ich grundlegende Konzepte und Definitonen von Speichernetzen sowie deren Einsatz anhand zahlreicher Beispiele.

Über den Autor:

Ulf Troppens ist Mitarbeiter im IBM TotalStorage Interoperability Center in Mainz, einem Test-, Entwicklungs- und Demolabor für Speicherprodukte und Speichernetze. Er arbeitet an der Schnittstelle zwischen Technik und Kunde. Zu seinen Aufgaben gehört der Test neuer Produkte und die Validierung von Konzepten anhand von im Labor nachgestellten Kundenumgebungen. Er stellt Kunden die neuesten Hard- und Softwareprodukte im Umfeld Speichernetze vor, und er bespricht mit ihnen die nachgestellten Testumgebungen. Er ist Co-Autor des Buches "Speichernetze: Grundlagen und Einsatz von Fibre Channel SAN, NAS, iSCSI und InfiniBand" und Verfasser zahlreicher Fachartikel über Speichernetze in der iX.

Ulf Troppens studierte bis 1995 Informatik an der Universität Karlsruhe. Seit 1989 beschäftigt er sich schwerpunktmäßig mit der Administration von Unix-Systemen, Speichersystemen, Daten- und Speichernetzen sowie verteilten Anwendungen.

Rootkits unter Unix/Linux? Erkennung und Entfernung
von Wilhelm Dolle
Donnerstag 27.03.
12:15 - 13:00

Einleitung und Motivation

Computersysteme mit einer im Internet erreichbaren IP-Adresse werden häufig täglich nach Sicherheitslücken gescannt beziehungsweise direkt angegriffen. Blickt man auf die Sicherheitswarnungen von Softwareherstellern sowie der Computer Emergency Response Teams (CERTs), so wird schnell klar, dass viele verbreitete Programmpakete von Programmierfehlern betroffen sind beziehungsweise in der Vergangenheit betroffen waren. Sehr beliebt ist bei Einbrüchen in Rechnersysteme das Ausnutzen von Buffer-Overflow und Format-String Schwachstellen. Sobald ein Angreifer Zugriff auf das fremde System erlangt hat, installiert er häufig ein sogenanntes Rootkit. Diese spezielle Software erlaubt es dem Angreifer, seine eigenen Spuren zu verwischen und dauerhaften Zugang zu dem kompromittierten Server zu erhalten. Einmal aktiviert, verhindern Rootkits mehr oder weniger wirkungsvoll ihre Entdeckung und Entfernung. Ein Rootkit ermöglicht es einem Angreifer nicht, den erstmaligen root- Zugang zu erhalten. Es dient vielmehr dazu, einen bereits gehackten root-Zugang für zukünftige Aktivitäten zu sichern. Um den ungehinderten root-Zugang zum betroffenen System zu einem späteren Zeitpunkt sicher zu stellen, ist es notwendig, eigene Dienste zu installieren, die unabhängig von der ursprünglich ausgenutzten Sicherheitslücke einen direkten Zugang zum System erlauben. Dazu installiert der Einbrecher oft eine veränderte (trojanisierte) Versionen eines Standarddienstes.

Verschiedene Typen von Rootkits

Grundsätzlich lassen sich Rootkits in zwei Arten unterteilen, dateibasierte und kernelbasierte. Erstere ersetzen im kompromittierten System Dateien und Programme durch ihre eigenen Versionen, um das System zu manipulieren und ihre Existenz zu verschleiern. Unter Linux sehr verbreitete Rootkits dieser Gattung waren zum Beispiel die Linux-Rootkits lrk3, lrk4, lrk5 beziehungsweise das t0rnkit. Kernelbasierte Rootkits modifizieren den Kernel entweder im Speicher und / oder auf der Platte. Durch den Umstand, dass sie im Kernel und nicht im normalen Benutzermodus laufen, haben sie alle nötigen Privilegien, um ohne Einschränkungen auf das komplette System zuzugreifen. Die ersten kernelbasierten Rootkits modifizierten den Kernel über das Laden eines oder mehrerer Module. Verbreitete Vertreter unter Linux sind zum Beispiel Knark (für Kernel 2.2) und Adore (für Kernel 2.2 und 2.4). Auf der DefCon 9 wurde 2001 mit dem Kernel Intrusion System (KIS) zum ersten Mal ein kernelbasiertes Rootkit vorgestellt, dass den Kernel direkt im Speicher über /dev/kmem verändern kann. 2002 tauchte mit SucKIT ein weiterer Vertreter dieses neuen Typus auf.

Erkennen und Entfernen von Rootkits

Sehr oft lassen sich Rootkits durch einen Vergleich des Ergebnisses eines Portscans von außen mit der lokalen Ausgabe der offenen Ports über netstat erkennen. Normalerweise verschleiert ein Rootkit nach innen seine Anwesenheit dadurch, dass es einen nach außen geöffneten Kommunikationsport nicht anzeigt. Gibt es also Differenzen zwischen den beiden Listen, so kann dies als erster Hinweis auf ein vorhandenes Rootkit dienen. Weitere Schritte zum Aufspüren von Rootkits kann die Liste an in den Kernel geladenen Modulen oder der Vergleich der Systemsprungtabelle mit einer sauberen System.map sein. Falls eine Signatur des Rootkits bekannt ist, kann nach dieser im Speicher gesucht werden. Da viele Rootkits ihre Prozesse, und damit bestimmte PIDs, verstecken, kann mit einem Hilfsprogramm versucht werden, nacheinander alle PIDs zu belegen. Sollten hierbei Fehler auftreten, ist dies ein weiterer Hinweis auf das eventuelle Vorhandensein eines Rootkits. Zur automatisierten Erkennung von Rootkits findet man im Internet unter anderem die Projekte 'chkrootkit' und 'Saint Jude'. Hat man das Rootkit erst mal gefunden und identifiziert, kann man es sehr häufig leicht entfernen oder zumindest deaktivieren. Danach sollte man das System am besten komplett neu aufsetzen. Ist dies nicht möglich, muss man alle trojanisierten Programme durch ihre Originale ersetzen und eventuell vorhandene versteckte Verzeichnisse löschen. Es bleibt dann nur noch herauszufinden, welche Sicherheitslücke sich der Einbrecher zunutze gemacht hat, und diese ebenfalls zu schließen.

Über den Autor:

Wilhelm Dolle hat in Bochum studiert und wechselte 1995 zur Promotion nach Marburg. Mit Unix / Linux beschäftigt er sich seit 1994. Hauptsächliche Schwerpunkte seines Interesses lagen und liegen dabei auf Netzwerkfähigkeiten und Netzwerksicherheit. Seit 1999 arbeitet er für die Firma interActive Systems GmbH und leitet dort seit 2000 die Networking Unit und die Abteilung für IT-Sicherheit in Berlin. Wilhelm Dolle hält in regelmäßigen Abständen Vorträge über Sicherheit in vernetzten Systemen, hat einige Fachartikel zu diesen Themen veröffentlicht, arbeitet als Gutachter bei verschiedenen Buch-Verlagen an Projekten auf diesem Gebiet mit und unterrichtet an einer Berufsakademie das Fach Netzwerksicherheit.

Advanced Attacks in Shared Media Networks (WLAN, ...)
von Lukas Grunwald
Donnerstag 27.03.
14:30 - 15:15

Es wird ein überblick über Angriffe und Auditmöglichkeiten in Shared-Media Netzen, das sind Netze wo mehrere Informationen gleichzeitig über ein physikalisches Medium übertragen werden.

Über den Autor:

Lukas Grunwald ist Berater im Bereich IT-Sicherheit bei der DN-Systems GmbH, er ist Leader des Free-Software Open-Router Projekt und Autor bei dem iX Magazin für Professionelle Informationstechnik.

Verfügbarkeit von Applikationen in Failover-Szenarien
von Winfried Wojtenek
Donnerstag 27.03.
14:30 - 15:15

In dieser Arbeit wird die Verfügbarkeit und Hochverfügbarkeit von Applikationen erörtert. Zu einer Implementierung einer High-Availablity-Lösung sollte einleitend die Hardware redundant ausgelegt werden. Nach Beseitigung von Single-Points-of-Failure können drei Vorgehensweisen genutzt werden, die Applikationen nach einem Hardwarefehler wieder zur Verfügung zu stellen. Diese Lösungen weisen verschiedene technische und adminstrative Aufwände auf.

  • Manuelles Wechseln der betroffenen Applikationen von einem defekten Server auf einen cold oder hot stand-by Server.
  • Halbautomatisches und Skriptbasiertes Wechseln der betroffenen Applikationen vom "defekten" auf den hot stand-by Server.
  • Komerzielle Clusterlösungen für die Failover-Problematik.

Abhängig von der Lösung ergeben sich unterschiedliche Ausfallzeiten und es entstehen unterschiedliche Anschaffungs-/Implementierungs- und Wartungskosten.

Über den Autor:

Als ausgebildeter Biologie und Neurowissenschaftler wechselte Winfried Wojtenek im Jahre 2000 von seinen Nebentätigkeiten in der IT in einen 100%igen IT-Job in der Systemadministration einer deutschen Fondgesellschaft. Bis Ende 2002 war er dort für die Unix-Systemadministration und für Hochverfügbarkeitslösungen verantwortlich.

Das WaveHAN-Projekt
von Reyk Flöter
Donnerstag 27.03.
15:15 - 16:00

WaveHAN ist ein nichtkommerzielles Projekt, das sich mit Wireless LAN (derzeit IEEE 802.11b/a) beschäftigt und es sich zum Ziel gesetzt hat mit der Technologie ein unabhängiges und freies urbanes Netzwerk in Hannover aufzubauen.

Die Idee entstand im Dezember 2000 auf dem 17. Chaos Communication Congress, wo sich etwas stärker mit den vielseitigen Möglichkeiten rund um Wireless LAN beschäftigt wurde. Die zunehmenden Bestrebungen das Internet zu zensieren und zu überwachen und die Möglichkeit ein eigenes stadtweites Netz aufzubauen sind der Grundgedanke und die treibende Faszination des WaveHAN-Projekts.

Das Konzept ist dabei ganz einfach: mit Hilfe von erschwinglicher WLAN-Hardware, selbstgebauten Antennen und freier Software unter GNU/Linux und OpenBSD werden Linkstrecken zwischen verschiedenen Netzknoten aufgebaut und eigene Hotspots errichtet. Das WaveHAN-Netz lebt von der Initiative der Interessierten und wächst somit vollkommen verteilt und dezentral. Die Planung auf Treffen und in den WaveHAN-Foren und die gemeinsame Verwendung von Ressourcen verbindet das ganze wiederum zu einem zusammenhängenden Community-Netzwerk.

Im Rahmen des Projekts wird sich auch inhaltlich sehr stark mit Wireless LAN beschäftigt, was die aktive Mitentwicklung an Open Source WLAN-Projekten und Treibern sowie die öffentliche Kritik an den Sicherheitsproblemen aktueller und kommender Standards verdeutlicht, wie in einer Aktion mit dem Computermagazin c't auf der CeBIT 2002 (http://www.heise.de/english/newsticker/data/anw-14.03.02-009/). Die eigenen Netzstrukturen werden auch als Test- und Spielwiese für komplexe Netzinfrastrukturen, Network Intrusion Detection (NIDS)- Konzepte und alternative WLAN-Sicherheitsverfahren wie dem WLSec Projekt (http://www.wlsec.net/) genutzt.

Der Vortrag soll weitergehende Informationen über den Projektgedanken und "Spirit", die Netzstrukturplanung, die praktischen Erfahrungen und Schwierigkeiten, die alternativen Sicherheitskonzepte und den aktuellen Status sowie die Zukunftsaussichten des WaveHAN-Projekts bieten. Da WaveHAN auf die Stadt Hannover beschränkt ist, unterstützen wir ähnliche Projekte an anderen Orten und freuen uns immer wieder, wenn wir neue Initiativen mit unserem Projekt motivieren können.

Über den Autor:

Reyk Flöter, geboren am 25.05.1980, ist Mitbegründer des IT-Security-Unternehmens .vantronix | secure systems (http://www.vantronix.com/) und Verantwortlicher für den Bereich Research & Development. Er begann seine IT-Laufbahn in der Deutschen Post AG und wechselte später zur Deutschen Telekom AG. Er arbeitete in den Bereichen IT-Service, Administration und später in der T-Systems Nova im Entwicklungsbreich für UNIX-Systeme. Dort setzte er sich vor allem für den Einsatz von Open Source Software ein und richtete ein besonderes Augenmerk auf die Sicherheit der Netzwerke. Neben seiner beruflichen Tätigkeit engagierte er sich in fachbezogenen Projekten. Er war unter anderem Vorsitzender des Chaos Computer Club Erfrakreises Hannover (http://hannover.ccc.de/), trug mit vielen Projekten und Patches zur Open Source Community bei und ist Mitbegründer des WaveHAN-Projekts (http://www.wavehan.de/) zum Aufbau eines Bürgernetzes auf Basis von Wireless LAN. Derzeit engagiert er sich neben seiner Tätigkeit für .vantronix | secure systems weiterhin aktiv für das WaveHAN-Projekt, ausserdem ist er Maintainer des ersten Projekts zur Entwicklung eines Open Source 802.11a-Treibers für Linux (http://team.vantronix.net/ar5k/).

MetroCluster und Disaster-Recovery
von Hartmut Streppel
Donnerstag 27.03.
15:15 - 16:00

Die ununterbrochene Verfügbarkeit von Diensten und Anwendungen ist heutzutage ein Muss in der Industrie. Viele, auch sehr unterschiedliche Technologien stehen zur Verfügung, dieses Ziel zu erreichen, von Plattenspiegelung bis hin zu geografisch verteilten Clustern. Dieser Vortrag soll die unterschiedlichen Anforderungen und Lösungsmöglichkeiten darstellen und an einigen Beispielarchitekturen detailliert erklären.

Über den Autor:

Hartmut Streppel ist seit 1982 im UNIX-Umfeld tätig. Nach mehreren Jahren in der Software-Entwicklung, u.a. beim Portieren und Integrieren unterschiedlicher UNIX-Versionen, war er Mitglied des DME-Evaluierungsteams der Open Software Foundation. Anschliessend arbeitete er mehrere Jahre bei Digital Equipment in der Vertriebsunterstützung für DEC OSF/1 und TruCluster. Während dieser Zeit war er auch mehrere Jahre Mitglied des Vorstands der GUUG und arbeitete dort als Pressesprecher. Seit 1999 arbeitet er bei Sun Microsystems als IT Architekt für Hochverfügbarkeitslösungen und Cluster. Zuletzt wurde von ihm ein Blueprint zum Thema "Campus Cluster mit SunCluster 3.0" veröffentlicht.

Inventarisierung und Bewertung von IT-Risiken
von Thomas Maus
Donnerstag 27.03.
16:30 - 17:15

Eigentlich interessiert es - außer einer kleinen Gemeinde - niemanden, ob Computersysteme sicher sind, oder überhaupt sicher gemacht werden können. Andererseits stützen wir vielfältige Arbeitsabläufe in Industrie und Verwaltung zunehmend auf IT-Systeme ab, und ob diese Arbeitsabläufe, und damit der Bestand von Unternehmen und die Wahrnehmung öffentlicher Aufgaben, ausreichend sicher sind - dies interessiert sehr wohl.

Und so stellen sich den Verantwortlichen folgende Fragen, auf die der Vortrag Antworten vorschlägt:

  • Wieviel Sicherheit braucht Ihr Unternehmen?
  • Was muß geschützt werden?
  • Vor welchen Bedrohungen?
  • Wieviel Sicherheit ist wirtschaftlich?
  • Wie erfüllen Sie die Forderungen des KonTraG?
  • Wie kann aus verwundbaren und überwindbaren Komponenten eine verläßliche Sicherheitsarchitektur entstehen?

Vorgestellt wird ein praxisorientiertes Verfahren, um die Abhängigkeiten Ihrer Organisation von ihrer IT und die daraus resultierenden Risiken systematisch zu erfassen. Diese Einzelrisiken werden quantifiziert und in verschiedenen Dimensionen zu Risikokennzahlen verdichtet.

Unter Risikoinventar ("assets") werden dabei all diejenigen Daten- und Funktionsbestände der IT-Systeme verstanden, die im Rahmen der Geschäftsprozesse für die Organisation selbst oder einen Dritten wertvoll sind, oder deren Missbrauch für die Organisation oder Dritte einen materiellen oder immateriellen Schaden zur Folge haben könnten.

Die Inventarisierung betrachtet hierzu die verschiedene Aspekte der Organisation, um das Risikoinventar möglichst vollständig zu identifizieren: Werte, sicherheitsrelevante Prozeßwirkungen sowie rechtliche und vertragliche Schadenspotentiale. Zur Klassifikation materieller und immaterieller Schadenspotentiale wird ein Verfahren vorgeschlagen.

Im nächsten Schritt werden aus diesem Risikoinventar an Hand der Schadensklassen Schutzbedürfnisse und Schutzziele abgeleitet, und das Risikoinventar auf IT-Komponenten lokalisiert. Auf Basis des Expositionsgrads und des Sicherheitsniveaus der Komponenten wird eine Risikoklassifikation gewonnen.

Sie erhalten damit eine Datenbasis, welche kontinuierlich weiter gepflegt werden kann, und Ihnen automatisiert jederzeit Überblick gibt über

  • die aktuelle IT-Risikolage des Unternehmens aus Sicht der Geschäftsprozesse und der Technik
  • die Dringlichkeit des Handlungsbedarfs in einzelnen Bereichen
  • die Angemessenheit Ihres IT-Sicherheitsbudgets und der Sicherheitsmaßnahmen
  • die Auswirkungen einer konkreten Sicherheitskrise

Gleichzeitig dient sie als Werkzeug, um verschiedene Sicherheitsarchitekturen und -maßnahmen vor der Realisierung hinsichtlich ihrer Wirkung und Kosteneffizienz zu untersuchen und zu vergleichen. Weiterhin läßt sich die potentielle Wirkung neuer Bedrohungsszenarien genauso untersuchen, wie die Risikolage neuer Geschäftsprozesse oder die Auswirkungen von IT-Umstrukturierungen.

Über den Autor:

Thomas Maus -25 Jahre IT- und IT-Security-Erfahrung, Diplom-Informatiker (Uni) mit Schwerpunkt IT-Sicherheitsfragen, seit über 10 Jahren selbstständiger IT-Sicherheitsberater

MC/Serviceguard - Enterprise HA mit Linux
von Kai Dupke
Donnerstag 27.03.
16:30 - 17:15

Linux-basierte Systeme kommen immer häufiger im Umfeld von geschäftskritischen Applikationen zum Einsatz. In diesem Umfeld ist der 24/7-Betrieb die Regel und es bedarf entsprechender Hochverfügbarkeitssysteme, um diese Anforderung zu erfüllen.

Im Umfeld der IP-Dienste und storageloser Systeme haben sich OpenSource-Lösungen, wie 'piranha' oder die Tools des LinuxVirtualserverProjects, als produktiv erwiesen. Viele Enterprise-Systeme jedoch setzen weitere Schwerpunkte. Hierbei handelt es sich sowohl um technische Belange, wie Shared-Storage, Clustergrösse und Disaster-Festigkeit, und um organisatorische Belange, wie Administration, Operating, Monitoring und Einbindung in bestehende Landschaften.

MC/Serviceguard kommt aus dem HP-UX-Umfeld und ist eine der am häufigsten eingesetzten Enterprise-HA-Lösungen. Mit der Portierung auf Linux steht somit auch hier eine eingeführte und etablierte Lösung zur Erlangung von Hochverfügbarkeit zur Verfügung.

Der Referent beschreibt in seinem Vortrag die Konzepte und den Aufbau von Clustern mit MC/Serviceguard unter Linux. Er geht hierbei ein auf die Unterschiede zur HP-UX-Version und das Quorumkonzept. Darüber hinaus wird der Referent die Storageanbindung im Bereich SCSI und FC beschreiben und die Administrative Einbindungin bestehende Clusterlandschaften darstellen.

Über den Autor:

Kai Dupke ist seit Anfang 2000 bei der probusiness AG, Hannover, für den Geschäftsbereich Linux zuständig. Als Projektberater unterstützt er darüber hinaus Kunden bei der Erstellung von Backupkonzepten und Hochverfügbarkeitslösungen. Zuvor hat er als freier Systemberater kaufmännische Komplettlösungen in Industrie und Handel implementiert und betreut.

Kai Dupke beschäftigt sich seit 1992 mit Linux, hat in den Bereichen ISDN und Portierung auf die Alpha-Plattform mitgewirkt. Er ist Inhaber einer RHCE-Zertifizierung und schreibt seit 1996 Artikel in diesem Bereich für die Zeitschrift iX und das Linux-Magazin.

Kai Dupke tritt auch als Referent auf und hat als solcher an der CeBIT 2001 und dem Linux-Tag 2001 teilgenommen.

Kai Dupke ist 35 Jahre alt, in Wuppertal geboren und lebt seit 1989 in Hannover.

SpoF - die Suche nach der Verfügbarkeit
von Kai Dupke
Donnerstag 27.03.
17:15 - 18:00

Hochverfügbare Systeme stellen eine Herausforderung für jeden IT-Verantwortlichen dar. Während es mittlerweile Produkte und Lösungen für fast jedes System gibt, sind Konzepte und Herangehensweisen kaum vorhanden.

Im Rahmen dieses Vortrages werden verschiedene Blickwinkel zum Thema hochverfügbarer Systeme aufgezeigt. Hierbei liegt der Schwerpunkt auf der Darstellung der technischen Risiken und möglicher Lösungen. Besonderer Augenmerk wird der Suche nach single points of failure (SPoF) gewidmet, zu denen der Referent neben den technischen Einrichtungen auch das organisatorische Umfeld zählt.

Im Rahmen des Vortrages werden die folgenden Punkte behandelt:

  • Systemanalyse und -darstellung
  • Kommunikationswege
  • Schwachstellenanalyse
  • Risikobewertung
  • Konzepte zur Vorbeugung bzw. Vermeidung von SPoFs
  • Vorraussetzungen für funktionierende HA-Systeme
  • Eigenarten der Projektabwicklung bei HA-Systemen

Über den Autor:

Kai Dupke ist seit Anfang 2000 bei der probusiness AG, Hannover, für den Geschäftsbereich Linux zuständig. Als Projektberater unterstützt er darüber hinaus Kunden bei der Erstellung von Backupkonzepten und Hochverfügbarkeitslösungen. Zuvor hat er als freier Systemberater kaufmännische Komplettlösungen in Industrie und Handel implementiert und betreut.

Kai Dupke beschäftigt sich seit 1992 mit Linux, hat in den Bereichen ISDN und Portierung auf die Alpha-Plattform mitgewirkt. Er ist Inhaber einer RHCE-Zertifizierung und schreibt seit 1996 Artikel in diesem Bereich für die Zeitschrift iX und das Linux-Magazin.

Kai Dupke tritt auch als Referent auf und hat als solcher an der CeBIT 2001 und dem Linux-Tag 2001 teilgenommen.

Kai Dupke ist 35 Jahre alt, in Wuppertal geboren und lebt seit 1989 in Hannover.

LDAP-Benutzung mit Java+Tomcat und Python+Zope
von Holger Blasum und Andreas Meisl
Freitag 28.03.
09:30 - 10:15

Die tierärztliche Fakultät der Universität München verwendet Novell eDirectory als Datenbank für Studentennutzerdaten. Einmal im Semester tragen sich die Studierenden in Wahlpflichtfächer ein; dies geschieht seit Juli 2002 webbasiert. Das hierfür relevante eDir zugrundeliegende Datenmodell verwendet das LDAPv3 User Schema (RFC 2256).

Auf dieses Schema greifen wir in Lese- und Schreibmodus durch das LDAP Interface zu; zur Kontrolle verwenden wir Java (Novell JLDAP-Bibliothek zur Streuerung und Tomcat Servlets hinter Apache zur Darstellung) sowie Python (python-ldap zur Steuerung und Zope hinter Apache zur Darstellung).

Wir berichten über unsere Erfahrungen über Installation und Implementation von Klienten in Python und Java sowie Performancemessungen (in unserer - zugegebenermaßen einfachen - Implementation ist Python+Zope 2-8 mal schneller als Java+Tomcat).

Derzeit untersuchen wir die Verwendung von LDAP über SSL von (für nicht gefirewallte Verwendung).

Über die Autoren:

An der LMU Muenchen ist Holger Blasum derzeit Student in Mathe/Info; einer seiner Jobs ist die Administration des tierärztlichen Webservers.

Andreas Meisl (CIP der Tierärztlichen Fakultät) betreibt Systemadministration (Schwerpunkt Netware) seit über 10 Jahren.

Übernahme einer NT4-Domäne mit Samba 3.0
von Volker Lendecke
Freitag 28.03.
09:30 - 10:15

In vielen Unternehmen gibt es heutzutage Windows NT4 kompatible Domänen, um Benutzer und Computer im Netzwerk zu authentifizieren. Für diese Unternehmen stellt sich zunehmend das Problem, diese Domänenstruktur ablösen zu müssen, da Microsoft keinen Support für NT4 mehr anbietet. Der normale Upgrade-Pfad besteht darin, Windows 2000 und möglicherweise Active Directory einzusetzen. Wer die zusätzliche Komplexität und die Lizenzkosten von Windows 2000 scheut, dem wird mit Samba 3.0 eine alternative Möglichkeit angeboten.

Schon Samba 2.2 ist rudimentär in der Lage, einen NT4-kompatiblen Domänencontroller zur Verfügung zu stellen. Es gibt jedoch noch einige Einschränkungen, beispielsweise im Bereich der Gruppenzugehörigkeiten von Benutzern. Für einen Umstieg von NT4 auf Samba am schmerzlichsten ist jedoch die Tatsache, daß man bei Samba 2.2 keine echte Migration aller Konten vornehmen kann, sondern eine neue Domäne bekommt. Samba 3.0 wird diese Einschränkung aufheben und eine nahtlose Migration ermöglichen.

Dieser Vortrag wird die technischen Hintergründe der Domänenmigration klären, und eine Demonstration des aktuellen Standes der Entwicklung von Samba 3.0 zeigen.

Über den Autor:

Volker Lendecke ist Diplom-Mathematiker in Göttingen. Den ersten Kontakt mit Unix hatte er etwa 1990 mit einer NeXT-Workstation. 1991 ist er nach Göttingen gekommen, um dort in der Uni mit DEC Ultrix Workstation konfrontiert zu werden. Sein erster Beitrag zu Samba war die Portierung auf NeXT. In letzter Zeit versucht er, Samba als PDC ein bißchen zu polieren. Ende 1996 stellte sich die Frage, was man denn nach der Zeit der Uni machen könnte. Es fanden sich vier Leute zusammen, die Service Network GmbH zu gründen. Dort ist Volker Lendecke für Training und natürlich Samba verantwortlich.

Linux als Entwicklungsumgebung für Web-Anwendungen
von Martin Raepple
Freitag 28.03.
10:15 - 11:00

Im Bereich Web-Development sind Linux und Open Source Technologien ein starkes Gespann, das sich insbesondere nicht vor Windows verstecken muß. Der Vortrag geht auf aktuelle Themen und Entwicklungen in diesem Bereich ein und beschreibt Vor- und Nachteile gegenüber der Alternative Windows als Entwicklungsplattform. Am Beispiel eines Setups für ein komplexes Java-basiertes Web-Projekt werden die eingesetzten Tools sowie Alternativen vorgestellt. Schwerpunkte des Vortrags sind:

  • Sourcecode-Editoren für HTML und Java Server Pages
  • Eclipse als Java-IDE
  • Web-nahe Plugins unter Eclipse
  • Deployment-Tools
  • Client- und Server-Tools zur Sourcecode-Verwalung/Releasemanagement
  • Cross-Browser Testing von Web-Applikationen unter Linux
  • Datenbank-Transfer zwischen Produktions- und Entwicklungsumgebung am Beispiel von DB2 unter Linux

Über den Autor:

Martin Raepple arbeitet als Team-Coach bei der Avinci AG in Frankfurt. Seine Themenschwerpunkte sind EAI, J2EE, Open Source Software und IT-Security.

Konzept eines Single Sign-On Systems in einem heterogenen Netzwerk
von Dieter Kluenter
Freitag 28.03.
10:15 - 11:00

Die IST Situation

  • Anmeldung am System
  • Anmeldung bei Mailversnd
  • Anmeldung am Fileserver
  • Anmeldung zum lesen von E-Mail
  • Anmeldung am Verzeichnisdienst
  • lokale Speicherung der Anwender-Identitäten
  • Führen unterschiedlicher Access Control Lists

Ergebnis: unsicheres System mit hohen Risiken

Anforderungen an ein Single Sign On System

  • einmaliges Anmelden am System
  • zentrale, skalierbare, Zugriffsberechtigung
  • geschütztes Passwort
  • zentale Administration

Die erforderlichen Dienste

  • Domain Name Service
  • Verzeichnisdienst
  • Key Distribution Center
  • Simple Authentication Security Layer
  • Plugable Authentication Modules
  • Fileserver mit Kerberos-Unterstützung
  • Dateisystem mit Kerberos-Unterstützung
  • SMTP Server
  • Pop3/Imap Server
  • HTTP Proxy
  • FTP Server

die zentralen Steuerungs- und Kontrolldienste

  • Key Distribution Center, zur zentralen Authentifizierung
  • Verzeichnisdienst, die zentale Anwender- und Rechteverwaltung

Zusammenarbeit der zu nutzenden Dienste

Ablaufdiagramme des Zusammenspiels zwischen den Diensten

  • SMTP
  • Pop3/Imap
  • HTTP Proxy
  • Fileserver

und den zentralen Diensten LDAP und Kerberos.

Weiterführende Erläuterungen

  • Kerberos Version 5
  • OpenLDAP
  • Samba
  • SASL
  • PAM
  • SSL/TLS
  • SRV Einträge im DNS

Über den Autor:

Geburtsjahr: 1943

Studium: Betriebswirtschaft und Soziologie in Köln und London.

Berufliche Tätigkeit: Markt- und Sozialforscher mit den Schwerpunkten Innovationsforschung und statistische Datenanalyse.

Beratertätigkeit: Seit 1990 Berater für System- und Applikationsintegration, speziell in der Kommunikationswirtschaft.

Concurrent Programming in Erlang
von Joe Armstrong
Freitag 28.03.
11:30 - 12:15

I talk about

  • The Background and Philosophy behind Erlang
  • Erlang - the technology
  • I discuss the major commercial successes of Erlang.
  • Future problem areas

Background and Philosophy

Erlang is a concurrent programming language with a functional core. Process creation and message passing in Erlang is extremely light-weight compared to the threads implementation in, for example, pthreads, java or C#.

Erlang is the most widely used functional programming language used for real-commercial applications.

In this talk I talk about "Concurrency Oriented" programming and design.

I argue that concurrent programs are easier to write and understand than sequential programs.

I argue that concurrent programming is perceived as difficult only because of the terrible implementation of threads in mostly operating systems and languages.

I argue that concurrency is the "natural" way to structure complex applications.

Erlang - the technology

I talk about Erlang (the language) OTP (the libraries) and the Open Source Erlang release.

I give examples of simple Erlang programs which solve traditionally "hard" problems, for example: Changing the code in a server "on the fly" i.e. while operating the service.

I give an example of a fault-tolerant server with redundant and hot fail-over characteristics.

Commercial Successes of Erlang

I discuss a number of commercially successful products which use the Erlang technology - these include:

These include:

  • The Ericsson AXD301 and GRPS systems

(The Ericsson AXD301 is an ATM switch with over 1,7 Million lines - of Erlang - it has a faulty tolerant architecture - and has achieved "9 nines" reliability in a test performed by British Telecom)

  • The Nortel SSL accelerator

Future Areas

I discuss the future problem areas where I expect interesting developments in distributed computing. In particular:

  • Erlang for peer-to-peer computations
  • Erlang for secure agent computing

Über den Autor:

Joe Armstrong, Swedish Institute of Computer Science

Joe Armstrong is principle designer of the programming language Erlang. He is an experienced systems designer and has worked as a compiler writer, technical author and entrepreneur, and has been designing and programming fault-tolerant distributed systems for the last 20 odd years.

Joe was a founder member of the company Bluetail which sold commercial products based on Erlang and Linux.

Joe has had over 20 years experience designing and programming fault-tolerant distributed systems.

Joe now works at the Swedish Institute of Computer Science.

Wie interoperabel ist IPSEC?
von Arturo Lopez
Freitag 28.03.
11:30 - 12:15

In diesem Vortrag werden wir die Grundlagen der Verschlüsselung von IPSEC vorstellen. Wir werden die Begriffe Encapsulating Security Protocol (ESP), Authentication Header (AH), ISAKMP/Oakley, Internet Key Exchange (IKE), IKE mit Pre-Shared Keys und IKE mit Certificate Authorities (CA) erläutern und die Arbeitsweise vom IPSEC beschreiben. Ferner werden wir über die gesammelten Erfahrungen in dem Aufbau von VPNs in einem Multivendor-Umfeld (PIX, Check Point, Linux, Symantec und W2K) berichten.

Über den Autor:

Arturo Lopez schloss seine akademische Ausbildung an der RWTH-Aachen als Dipl.-Ing. der Elektrotechnik. Danach plante und betreute er LAN und WANs auf der Basis von DECnet und TCP/IP für die Robert Bosch GmbH. Anschließend beriet er Kunden beim Aufbau und Betrieb von Client Server Infrastrukturen im UNIX-Umfeld als Consultant bei der Digital Equipment GmbH. Seine Tätigkeit als Consultant setzte er bei der Compaq Computer GmbH fort, als Consultant für Internet Sicherheit. Zur Zeit arbeitet Arturo Lopez als Senior Consultat bei der Hewlett-Packard GmbH mit dem Focus IT Sicherheit.

Praktische Verwendung von REXX für Systemverwaltungs- und Administrierungstools
von Gunter Thum
Freitag 28.03.
12:15 - 13:00

Rexx wurde 1981 von Mike Cowlishaw für IBM Grossrechner entwickelt. Für die Workstation-Plattformen wurde REXX zu Object REXX erweitert. In der Zwischenzeit ist Object REXX für OS/2, Windows(tm), AIX, Linux(tm) und Sun/Solaris(tm) erhältlich. Object REXX ist eine objekt-orientierte Programmiersprache, geeignet sowohl für Anfänger als auch für erfahrene OO Programmierer. Durch die Möglichkeit prozedurale als auch OO-Programmierung zu mixen, wird der Einstieg in die OO-Programmierung erleichtert.

Die Object REXX Syntax ist einfach zu erlernen und enthält nur wenig formale Regeln. Durch die umfangreiche Bibliothek mit Funktionen und Methoden ist Object REXX sehr mächtig und für komplexe Anwendungen geeignet. Mehrere Application Programming Interfaces (FTP, Socket, mathematisches Funktionspacket, Regular Expression) sind im Packet enthalten.

Mit einem Beispiel möchten wir zeigen, wie Object REXX als Systemverwaltungs- und Administrierungstool in der Praxis eingesetzt wird. Hierbei wird das Monitoring von Servern, der Backup- und CrashRecovery-Mechanismus, Management von Useraccounts und diverse andere Dinge mit REXX realisiert. Object REXX hilft bei der Verwaltung von tausenden UserAccounts in mehreren Domänen mit mehr als 10TB Datenbestand.

Über den Autor:

Ich bin 40 Jahre und habe an der FH Heilbronn betriebswirtschaftliche Informatik studiert. Nach dem Studium habe 1989 bei der IBM im Softwareentwicklungslabor Böblingen begonnen. Seit 1995 bin ich in der Object REXX Entwicklungsabteilung tätig. Zusammen mit meinem Kollegen Reiner Micke bin ich verantwortlich für die Weiterentwicklung, die Wartung und den Support für Object REXX auf den Unix Plattformen.

VPNs mit dem kommenden Linux Kernel 2.6
von Ralf Spenneberg
Freitag 28.03.
12:15 - 13:00

Linux unterstützt seit einigen Jahren virtuelle private Netzwerke mit IPsec durch das FreeS/WAN Projekt. Verschiedene Gründe (Lizenz, Codequalität, u.a.) haben jedoch bisher feste eine Aufnahme in den Linux Kernel verhindert. Dieselben Gründe sind dafür verantwortlich, dass FreeS/WAN von einigen Distributionen (z.B. RedHat) nicht vertrieben wird.

Seit dem Entwicklerkernel 2.5.45 exisitiert eine neue IPsec Implementierung fest in dem Linux Kernel, die auf dem USAGI Projekt basiert. Dieses wurde von Dave Miller und Alexey Kuznetsov in den Kernel portiert.

Dieser Vortrag versucht eine Einführung in diese neuen Funktionen, die Werkzeuge und Parameter zu geben, so dass diese Funktionen bei Erscheinen des Linux Kernels 2.6 genutzt werden können.

Darüberhinaus versucht der Vortrag einen Vergleich der Funktionalitäten und der Interoperabilität mit FreeS/WAN durchzuführen.

Über den Autor:

Der Autor setzt Linux seit etwa 8-9 Jahren privat ein. Seit etwa 4 Jahren ist er professionell im Linux/UNIX Umfeld als freiberuflicher Trainer für unterschiedliche Firmen tätig. Dabei setzt er seinen Schwerpunkt bei Netzwerkanwendungen und Sicherheit (Firewalls, Intrusion Detection, Penetration Testing) und hat hier auch bereits einige Kurse entwickelt. Im Dezember 2002 veröffentlichte er sein Buch "Intrusion Detection Systeme für Linux-Server".

Bei den letzten beiden Linux-Kongressen und dem letzten Frühjahrsfachgespräch stellte der Autor FreeS/WAN in Tutorials vor.

RPM packaging "the right way"
von Jos Vos
Freitag 28.03.
14:00 - 14:45

This talk will address the main issues related to building RPM packages, and additionally several topics will be discussed that are essential for delivering high-quality packages. The basic elements of an RPM spec file will be shown and for each section a number of hints and tricks will be given to enhance the quality of the resulting package. This will include the use of macros, adapting a package for installing it in an alternative root directory, ensuring correct file ownerships and attributes, and the proper use of pre/post (un)installation and "trigger" scripts. Many real-life examples will be used for illustrating the problems one can encounter and how to solve them in the best way. Also packaging non-free, binary software for internal use will be discussed.

Über den Autor:

Jos Vos is CEO and co-founder of X/OS Experts in Open Systems BV. He has an experience of more than 15 years in the area of research, development, and consulting related to UNIX systems software, Internet, and security. He is the author of ipfwadm and part of the firewall code in the Linux 2.0 kernel. His company X/OS provides a number of products and services related to Linux, UNIX and Open Source software, including firewall and VPN solutions, ranging from small embedded systems to high-availability server products.

Heterogenes Softwarekonfigurationsmanagement mit UNIX
von Matthias Kranz
Freitag 28.03.
14:00 - 14:45

Wie stellen IT-Verantwortliche in Banken sicher, dass am 01.01.2002 um 00:01 Uhr auf allen Geldautomaten der Euro das Sagen und die DM ausgedient hat? Wie erreicht man, dass Tausende von SAP-Anwendern am Montag Morgen auf einen SAP-Client zugreifen, der auf die am Wochenende neu installierte Version der Datenbank und des Anwendungsservers abgestimmt ist?

Softwarekonfigurationsmanagement ist ein feststehender Begriff in großen bzw. komplexen Netzen. Wenn Applikationen, Konfigurationen oder Daten zu einem bestimmten Zeitpunkt und an mehreren Orten nachvollziehbar installiert werden müssen, ist die Administration auf die Unterstützung durch ein entsprechendes Managementwerkzeug angewiesen.

Der Vortrag bzw. das Paper soll einen Überblick über die die allgemeinen und speziellen Anforderungen an ein Managementtool definieren und eine Zusammenfassung aktueller Technologien bieten. Es wird dargestellt, welche unterschiedlichen Objekte und Zustände im Softwaremanagement berücksichtigt werden müssen. Dazu zählen die zu adressierenden Benutzer, Systeme und Systemgruppen ebenso wie die Verteilobjekte und ihre Zielplattformen, die abstrakte Zusammenfassung von Konfigurationen zu Profilen, die Berücksichtigung von Abhängigkeiten zwischen Objekten und deren Parametrisierung. Außerdem fordern die unterschiedlichen Betriebssystemplattformen in einem heterogenen Netz eine Unterstützung verschiedenster Paketformate wie RPM, DEB, PKG, LPP etc. unter LINUX/UNIX sowie MSI, InstallShield und andere unter Microsoft Windows. Bei der eigentlichen Datenübertragung werden die alternativen Ansätze Push und Pull, Broad- und Multicast sowie Bandbreitenmanagement berücksichtigt. Abgeschlossen wird die technische Betrachtung durch die zu berücksichtigenden Sicherheitsaspekte.

In der Zusammenfassung werden, ergänzend zu einer Bewertung der vorgestellten Aspekte, Aufwände und Nutzen einer Einführung bzw. Anwendung von Softwarekonfigurationsmanagementwerkzeugen gegeneinander abgewogen.

Zielpublikum: Der Vortrag richtet sich an alle, die sich mit Software- und Konfigurationsmanagement in heterogenen Netzen beschäftigen oder dafür interessieren. Er setzt keine speziellen Kenntnisse voraus.

Über den Autor:

Matthias Kranz ist 29 Jahre alt, verheiratet und lebt in Berlin. Seit 1993 beschäftigt er sich intensiv mit UNIX, inbesondere mit Linux. Während und nach dem Informatik-Studium in Erlangen und Berlin hat er unter anderem für Siemens-Nixdorf, das Forschungsinstitut GMD FOKUS, das DESY und die Linux Information Systems AG gearbeitet. Zur Zeit ist er als Consultant bei der ASDIS Software AG angestellt. Seit 1998 schreibt er regelmäßig Artikel für Fachzeitschriften und hält Vorträge auf nationalen und internationalen Kongressen, im Speziellen über "CVS" und "IP Quality of Service unter Linux".

Eine komplette Vortragsliste ist unter http://www.buug.de/~mkr zu finden.

Nach dem Boom: Ein Gesundheitscheck für IT-Systeme
von Benedikt Stockebrand
Freitag 28.03.
15:00 - 15:45

Spätestens seit der Mitte der 90er Jahre sind viele IT-Systeme in kürzester Zeit aus dem Boden gestampft worden. Die damalige Einstellung "Geld spielt keine Rolex" hat allzu oft dazu geführt, daß unausgereifte Systeme mit übermäßigen Betriebskosten und allzu häufigen Betriebsstörungen in den leider nicht wirklich geregelten "Regelbetrieb" genommen wurden. Aber der Boom ist vorbei, heute entscheiden die Kosten, wer im harten wirtschaftlichen Alltag langfristig überleben kann.

Die präsentierte Vorgehensweise liefert eine systematische Analyse, die einerseits der IT-Fachseite die Inventarisierung, Priorisierung und Einschätzung der offenen Probleme erleichtert, andererseits aber auch einer Geschäftsleitung als technisch orientierte Entscheidungsgrundlage dienen kann, die die übliche betriebswirtschaftliche Analyse durch das Controlling komplementiert.

Neben der eigentlichen Technik, grob aufgeschlüsselt in Hardware, System-, Middleware- und Anwendungssoftware, werden insbesondere auch Dokumentation, Betriebsabläufe und das Training der Mitarbeiter, sowohl der User als auch der Betriebsverantwortlichen, ausführlich betrachtet.

Die Analyse setzt an drei Stellen an:

Der Regelbetrieb wird auf Performance im weiteren Sinne untersucht. Neben der konventionellen Suche nach Bottlenecks und Hot Spots ist das wesentliche Werkzeug eine Gegenüberstellung dessen, was unabhängig von der vorhandenen Lösung theoretisch möglich sein könnte, und was tatsächlich an Performance beobachtet und gemessen wird.

Zur Analyse der tatsächlichen und potentiellen Störungsfälle werden zunächst Störungsszenarien bestimmt, die dann auf Eintrittswahrscheinlichkeit und Auswirkungen untersucht werden. Das Ergebnis zeigt unbereinigte "Altlasten" auf und ist Grundlage für eine betriebswirtschaftliche Risikoanalyse, die den Szenarien Risiken zuordnet.

Schließlich wird analysiert, welche Probleme langfristig auftreten können. Hier werden Probleme wie die Abhängigkeit von Softwarelieferanten, spezieller Hard- oder Systemsoftware genauso betrachtet wie abzusehende technische Paradigmenwechsel oder wie die Abhängigkeit von einzelnen Mitarbeitern.

Über den Autor:

Benedikt Stockebrand (me@benedikt-stockebrand.de) ist Diplom-Informatiker mit dem Schwerpunkt Operations und Operations Management.

Nach mehrjähriger Tätigkeit in der Abteilung "Data Center Management" der T-Online International AG, zuletzt als Teilprojektleiter "Operations" in einem internen Großprojekt, ist er inzwischen selbständiger Berater im Unix- und TCP/IP-Umfeld.

Seine technischen Interessen liegen in den Bereichen Performance, Skalierbarkeit, Hochverfügbarkeit, Sicherheit und allgemein in den Problemen rund um einen geregelten, zuverlässigen und kostengünstigen IT-Betrieb.