Nicht angemeldet |
|
|
Vorträge
Buffer Overflows - Ursachen und Gegenmaßnahmen für Entwickler und Administratoren
von
Tobias Klein
|
Donnerstag 27.03. 11:30 - 12:15 |
|
Bei näherer Betrachtung beruhen die meisten Schwachstellen, welche zur
erfolgreichen Kompromittierung eines Systems ausgenutzt werden können,
auf Fehlern innerhalb der eingesetzten Software. In diesem Vortrag wird
ein Überblick über die wohl am häufigsten ausgenutzte
Software-Schwachstelle gegeben: Buffer-Overflows. Die Präsentation stellt
neben den Ursachen und Gegenmaßnahmen aus Sicht der Entwickler auch
mögliche Gegenmaßnahmen für Administratoren dar. So werden
Entwicklungswerkzeuge und Programmierrichtlinien aber auch entsprechende
Systemkonfigurationen sowie Produkte vorgestellt, die die gezielte
Ausnutzung obiger Schwachstellen zuweilen unterbinden können, selbst
wenn die Entwicklung bereits abgeschlossen ist.
Über den Autor:
Nach Abschluss seines Studiums arbeitet Tobias Klein seit Juli 2002 als
IT-Sicherheitsberater bei der Firma cirosec GmbH. Er ist Autor des 2001
beim dpunkt Verlag erschienenen Fachbuches "Linux-Sicherheit - Security
mit Open-Source-Software - Grundlagen und Praxis" und schreibt zurzeit
an einem weiteren Titel zur Buffer-Overflow- und
Format-String-Attacken-Problematik, welcher voraussichtlich im 4. Quartal
dieses Jahres erscheinen wird.
|
|
Speichernetze und Anwendungen
von
Ulf Troppens
|
Donnerstag 27.03. 11:30 - 13:00 |
|
Durchschnittlich verdoppelt sich in einem Unternehmen jedes Jahr die
installierte Speicherkapazität. Das heißt: Wer heute 250GB
Festplattenspeicher installiert hat, der wird in fünf Jahren ungefähr 8TB
verwalten und sichern. Solche Datenmengen können nur noch mit
Speichernetzen effizient verwaltet werden.
Bisher waren Speichergeräte über SCSI-Kabel an einen Server angeschlossen.
Speichernetze ersetzen diese Verbindung durch ein neues Netzwerk, das
zusätzlich zu dem bereits existierenden LANs installiert wird. Der Speicher
wird dadurch unabhängig vom Server.
Im Vortrag erkläre ich grundlegende Konzepte und Definitonen von
Speichernetzen sowie deren Einsatz anhand zahlreicher Beispiele.
Über den Autor:
Ulf Troppens ist Mitarbeiter im IBM TotalStorage Interoperability Center in
Mainz, einem Test-, Entwicklungs- und Demolabor für Speicherprodukte und
Speichernetze. Er arbeitet an der Schnittstelle zwischen Technik und Kunde.
Zu seinen Aufgaben gehört der Test neuer Produkte und die Validierung von
Konzepten anhand von im Labor nachgestellten Kundenumgebungen. Er stellt
Kunden die neuesten Hard- und Softwareprodukte im Umfeld Speichernetze vor,
und er bespricht mit ihnen die nachgestellten Testumgebungen. Er ist
Co-Autor des Buches "Speichernetze: Grundlagen und Einsatz von Fibre
Channel SAN, NAS, iSCSI und InfiniBand" und Verfasser zahlreicher
Fachartikel über Speichernetze in der iX.
Ulf Troppens studierte bis 1995 Informatik an der Universität Karlsruhe.
Seit 1989 beschäftigt er sich schwerpunktmäßig mit der Administration von
Unix-Systemen, Speichersystemen, Daten- und Speichernetzen sowie verteilten
Anwendungen.
|
|
Rootkits unter Unix/Linux? Erkennung und Entfernung
von
Wilhelm Dolle
|
Donnerstag 27.03. 12:15 - 13:00 |
|
Einleitung und Motivation
Computersysteme mit einer im Internet erreichbaren IP-Adresse werden
häufig täglich nach Sicherheitslücken gescannt beziehungsweise direkt
angegriffen. Blickt man auf die Sicherheitswarnungen von
Softwareherstellern sowie der Computer Emergency Response Teams
(CERTs), so wird schnell klar, dass viele verbreitete Programmpakete
von Programmierfehlern betroffen sind beziehungsweise in der
Vergangenheit betroffen waren. Sehr beliebt ist bei Einbrüchen in
Rechnersysteme das Ausnutzen von Buffer-Overflow und Format-String
Schwachstellen. Sobald ein Angreifer Zugriff auf das fremde System
erlangt hat, installiert er häufig ein sogenanntes Rootkit. Diese
spezielle Software erlaubt es dem Angreifer, seine eigenen Spuren zu
verwischen und dauerhaften Zugang zu dem kompromittierten Server zu
erhalten. Einmal aktiviert, verhindern Rootkits mehr oder weniger
wirkungsvoll ihre Entdeckung und Entfernung. Ein Rootkit ermöglicht es
einem Angreifer nicht, den erstmaligen root- Zugang zu erhalten. Es
dient vielmehr dazu, einen bereits gehackten root-Zugang für
zukünftige Aktivitäten zu sichern. Um den ungehinderten root-Zugang
zum betroffenen System zu einem späteren Zeitpunkt sicher zu stellen,
ist es notwendig, eigene Dienste zu installieren, die unabhängig von
der ursprünglich ausgenutzten Sicherheitslücke einen direkten Zugang
zum System erlauben. Dazu installiert der Einbrecher oft eine
veränderte (trojanisierte) Versionen eines Standarddienstes.
Verschiedene Typen von Rootkits
Grundsätzlich lassen sich Rootkits in zwei Arten unterteilen,
dateibasierte und kernelbasierte. Erstere ersetzen im kompromittierten
System Dateien und Programme durch ihre eigenen Versionen, um das
System zu manipulieren und ihre Existenz zu verschleiern. Unter Linux
sehr verbreitete Rootkits dieser Gattung waren zum Beispiel die
Linux-Rootkits lrk3, lrk4, lrk5 beziehungsweise das t0rnkit.
Kernelbasierte Rootkits modifizieren den Kernel entweder im Speicher
und / oder auf der Platte. Durch den Umstand, dass sie im Kernel und
nicht im normalen Benutzermodus laufen, haben sie alle nötigen
Privilegien, um ohne Einschränkungen auf das komplette System
zuzugreifen. Die ersten kernelbasierten Rootkits modifizierten den
Kernel über das Laden eines oder mehrerer Module. Verbreitete
Vertreter unter Linux sind zum Beispiel Knark (für Kernel 2.2) und
Adore (für Kernel 2.2 und 2.4).
Auf der DefCon 9 wurde 2001 mit dem Kernel Intrusion System (KIS) zum
ersten Mal ein kernelbasiertes Rootkit vorgestellt, dass den Kernel
direkt im Speicher über /dev/kmem verändern kann. 2002 tauchte mit
SucKIT ein weiterer Vertreter dieses neuen Typus auf.
Erkennen und Entfernen von Rootkits
Sehr oft lassen sich Rootkits durch einen Vergleich des Ergebnisses
eines Portscans von außen mit der lokalen Ausgabe der offenen Ports
über netstat erkennen. Normalerweise verschleiert ein Rootkit nach
innen seine Anwesenheit dadurch, dass es einen nach außen geöffneten
Kommunikationsport nicht anzeigt. Gibt es also Differenzen zwischen
den beiden Listen, so kann dies als erster Hinweis auf ein vorhandenes
Rootkit dienen. Weitere Schritte zum Aufspüren von Rootkits kann die
Liste an in den Kernel geladenen Modulen oder der Vergleich der
Systemsprungtabelle mit einer sauberen System.map sein. Falls eine
Signatur des Rootkits bekannt ist, kann nach dieser im Speicher
gesucht werden. Da viele Rootkits ihre Prozesse, und damit bestimmte
PIDs, verstecken, kann mit einem Hilfsprogramm versucht werden,
nacheinander alle PIDs zu belegen. Sollten hierbei Fehler auftreten,
ist dies ein weiterer Hinweis auf das eventuelle Vorhandensein eines
Rootkits. Zur automatisierten Erkennung von Rootkits findet man im
Internet unter anderem die Projekte 'chkrootkit' und 'Saint Jude'.
Hat man das Rootkit erst mal gefunden und identifiziert, kann man es
sehr häufig leicht entfernen oder zumindest deaktivieren. Danach
sollte man das System am besten komplett neu aufsetzen. Ist dies nicht
möglich, muss man alle trojanisierten Programme durch ihre Originale
ersetzen und eventuell vorhandene versteckte Verzeichnisse löschen. Es
bleibt dann nur noch herauszufinden, welche Sicherheitslücke sich der
Einbrecher zunutze gemacht hat, und diese ebenfalls zu schließen.
Über den Autor:
Wilhelm Dolle hat in Bochum studiert und wechselte 1995 zur Promotion
nach Marburg. Mit Unix / Linux beschäftigt er sich seit 1994.
Hauptsächliche Schwerpunkte seines Interesses lagen und liegen dabei
auf Netzwerkfähigkeiten und Netzwerksicherheit. Seit 1999 arbeitet er
für die Firma interActive Systems GmbH und leitet dort seit 2000 die
Networking Unit und die Abteilung für IT-Sicherheit in Berlin. Wilhelm
Dolle hält in regelmäßigen Abständen Vorträge über Sicherheit in
vernetzten Systemen, hat einige Fachartikel zu diesen Themen
veröffentlicht, arbeitet als Gutachter bei verschiedenen Buch-Verlagen
an Projekten auf diesem Gebiet mit und unterrichtet an einer
Berufsakademie das Fach Netzwerksicherheit.
|
|
Advanced Attacks in Shared Media Networks (WLAN, ...)
von
Lukas Grunwald
|
Donnerstag 27.03. 14:30 - 15:15 |
|
Es wird ein überblick über Angriffe und Auditmöglichkeiten in Shared-Media
Netzen, das sind Netze wo mehrere Informationen gleichzeitig über ein
physikalisches Medium übertragen werden.
Über den Autor:
Lukas Grunwald ist Berater im Bereich IT-Sicherheit bei der DN-Systems
GmbH, er ist Leader des Free-Software Open-Router Projekt und Autor bei
dem iX Magazin für Professionelle Informationstechnik.
|
|
Verfügbarkeit von Applikationen in Failover-Szenarien
von
Winfried Wojtenek
|
Donnerstag 27.03. 14:30 - 15:15 |
|
In dieser Arbeit wird die Verfügbarkeit und Hochverfügbarkeit von
Applikationen erörtert. Zu einer Implementierung einer
High-Availablity-Lösung sollte einleitend die Hardware redundant
ausgelegt werden. Nach
Beseitigung von Single-Points-of-Failure können drei Vorgehensweisen genutzt
werden, die Applikationen nach einem Hardwarefehler wieder zur Verfügung zu
stellen. Diese Lösungen weisen verschiedene technische und adminstrative
Aufwände auf.
- Manuelles Wechseln der betroffenen Applikationen von einem defekten
Server auf einen cold oder hot stand-by Server.
- Halbautomatisches und Skriptbasiertes Wechseln der betroffenen
Applikationen vom "defekten" auf den hot stand-by Server.
- Komerzielle Clusterlösungen für die Failover-Problematik.
Abhängig von der Lösung ergeben sich unterschiedliche Ausfallzeiten und es
entstehen unterschiedliche Anschaffungs-/Implementierungs- und
Wartungskosten.
Über den Autor:
Als ausgebildeter Biologie und Neurowissenschaftler wechselte Winfried
Wojtenek im Jahre 2000 von seinen Nebentätigkeiten in der IT in einen
100%igen IT-Job in der
Systemadministration einer deutschen Fondgesellschaft. Bis Ende 2002 war
er dort für die Unix-Systemadministration und für
Hochverfügbarkeitslösungen verantwortlich.
|
|
Das WaveHAN-Projekt
von
Reyk Flöter
|
Donnerstag 27.03. 15:15 - 16:00 |
|
WaveHAN ist ein nichtkommerzielles Projekt, das sich mit Wireless LAN
(derzeit IEEE 802.11b/a) beschäftigt und es sich zum Ziel gesetzt hat
mit der Technologie ein unabhängiges und freies urbanes Netzwerk in
Hannover aufzubauen.
Die Idee entstand im Dezember 2000 auf dem 17. Chaos Communication
Congress, wo sich etwas stärker mit den vielseitigen Möglichkeiten
rund um Wireless LAN beschäftigt wurde. Die zunehmenden Bestrebungen
das Internet zu zensieren und zu überwachen und die Möglichkeit ein
eigenes stadtweites Netz aufzubauen sind der Grundgedanke und die
treibende Faszination des WaveHAN-Projekts.
Das Konzept ist dabei ganz einfach: mit Hilfe von erschwinglicher
WLAN-Hardware, selbstgebauten Antennen und freier Software unter
GNU/Linux und OpenBSD werden Linkstrecken zwischen verschiedenen
Netzknoten aufgebaut und eigene Hotspots errichtet. Das WaveHAN-Netz
lebt von der Initiative der Interessierten und wächst somit vollkommen
verteilt und dezentral. Die Planung auf Treffen und in den WaveHAN-Foren
und die gemeinsame Verwendung von Ressourcen verbindet das ganze
wiederum zu einem zusammenhängenden Community-Netzwerk.
Im Rahmen des Projekts wird sich auch inhaltlich sehr stark mit
Wireless LAN beschäftigt, was die aktive Mitentwicklung an Open Source
WLAN-Projekten und Treibern sowie die öffentliche Kritik an den
Sicherheitsproblemen aktueller und kommender Standards verdeutlicht,
wie in einer Aktion mit dem Computermagazin c't auf der CeBIT 2002
(http://www.heise.de/english/newsticker/data/anw-14.03.02-009/). Die
eigenen Netzstrukturen werden auch als Test- und Spielwiese für
komplexe Netzinfrastrukturen, Network Intrusion Detection (NIDS)-
Konzepte und alternative WLAN-Sicherheitsverfahren wie dem WLSec
Projekt (http://www.wlsec.net/) genutzt.
Der Vortrag soll weitergehende Informationen über den Projektgedanken
und "Spirit", die Netzstrukturplanung, die praktischen Erfahrungen und
Schwierigkeiten, die alternativen Sicherheitskonzepte und den
aktuellen Status sowie die Zukunftsaussichten des WaveHAN-Projekts
bieten. Da WaveHAN auf die Stadt Hannover beschränkt ist, unterstützen
wir ähnliche Projekte an anderen Orten und freuen uns immer wieder,
wenn wir neue Initiativen mit unserem Projekt motivieren können.
Über den Autor:
Reyk Flöter, geboren am 25.05.1980, ist Mitbegründer des
IT-Security-Unternehmens .vantronix | secure systems
(http://www.vantronix.com/) und Verantwortlicher für den Bereich
Research & Development. Er begann seine IT-Laufbahn in der
Deutschen Post AG und wechselte später zur Deutschen Telekom AG.
Er arbeitete in den Bereichen IT-Service, Administration und später in
der T-Systems Nova im Entwicklungsbreich für UNIX-Systeme. Dort setzte
er sich vor allem für den Einsatz von Open Source Software ein und
richtete ein besonderes Augenmerk auf die Sicherheit der Netzwerke.
Neben seiner beruflichen Tätigkeit engagierte er sich in fachbezogenen
Projekten. Er war unter anderem Vorsitzender des Chaos Computer Club
Erfrakreises Hannover (http://hannover.ccc.de/), trug mit vielen Projekten
und Patches zur Open Source Community bei und ist Mitbegründer des
WaveHAN-Projekts (http://www.wavehan.de/) zum Aufbau eines Bürgernetzes
auf Basis von Wireless LAN. Derzeit engagiert er sich neben seiner
Tätigkeit für .vantronix | secure systems weiterhin aktiv für das
WaveHAN-Projekt, ausserdem ist er Maintainer des ersten Projekts zur
Entwicklung eines Open Source 802.11a-Treibers für Linux
(http://team.vantronix.net/ar5k/).
|
|
MetroCluster und Disaster-Recovery
von
Hartmut Streppel
|
Donnerstag 27.03. 15:15 - 16:00 |
|
Die ununterbrochene Verfügbarkeit von Diensten und Anwendungen ist heutzutage
ein Muss in der Industrie. Viele, auch sehr unterschiedliche Technologien
stehen zur Verfügung, dieses Ziel zu erreichen, von Plattenspiegelung bis hin
zu geografisch verteilten Clustern. Dieser Vortrag soll die unterschiedlichen
Anforderungen und Lösungsmöglichkeiten darstellen und an einigen
Beispielarchitekturen detailliert erklären.
Über den Autor:
Hartmut Streppel ist seit 1982 im UNIX-Umfeld tätig. Nach mehreren Jahren
in der Software-Entwicklung, u.a. beim Portieren und Integrieren
unterschiedlicher UNIX-Versionen, war er Mitglied des
DME-Evaluierungsteams der Open Software Foundation. Anschliessend
arbeitete er mehrere Jahre bei Digital Equipment in der
Vertriebsunterstützung für DEC OSF/1 und TruCluster. Während dieser
Zeit war er auch mehrere Jahre Mitglied des Vorstands der GUUG und
arbeitete dort als Pressesprecher. Seit 1999 arbeitet er bei Sun
Microsystems als IT Architekt für Hochverfügbarkeitslösungen und Cluster.
Zuletzt wurde von ihm ein Blueprint zum Thema "Campus Cluster mit
SunCluster 3.0" veröffentlicht.
|
|
Inventarisierung und Bewertung von IT-Risiken
von
Thomas Maus
|
Donnerstag 27.03. 16:30 - 17:15 |
|
Eigentlich interessiert es - außer einer kleinen Gemeinde - niemanden, ob
Computersysteme sicher sind, oder überhaupt sicher gemacht werden können.
Andererseits stützen wir vielfältige Arbeitsabläufe in Industrie und
Verwaltung zunehmend auf IT-Systeme ab, und ob diese Arbeitsabläufe,
und damit der Bestand von Unternehmen und die Wahrnehmung öffentlicher
Aufgaben, ausreichend sicher sind - dies interessiert sehr wohl.
Und so stellen sich den Verantwortlichen folgende Fragen, auf die der
Vortrag Antworten vorschlägt:
- Wieviel Sicherheit braucht Ihr Unternehmen?
- Was muß geschützt werden?
- Vor welchen Bedrohungen?
- Wieviel Sicherheit ist wirtschaftlich?
- Wie erfüllen Sie die Forderungen des KonTraG?
- Wie kann aus verwundbaren und überwindbaren Komponenten eine
verläßliche Sicherheitsarchitektur entstehen?
Vorgestellt wird ein praxisorientiertes Verfahren, um die Abhängigkeiten
Ihrer Organisation von ihrer IT und die daraus resultierenden Risiken
systematisch zu erfassen. Diese Einzelrisiken werden quantifiziert und
in verschiedenen Dimensionen zu Risikokennzahlen verdichtet.
Unter Risikoinventar ("assets") werden dabei all diejenigen Daten- und
Funktionsbestände der IT-Systeme verstanden, die im Rahmen der
Geschäftsprozesse für die Organisation selbst oder einen Dritten
wertvoll sind, oder deren Missbrauch für die Organisation oder Dritte
einen materiellen oder immateriellen Schaden zur Folge haben könnten.
Die Inventarisierung betrachtet hierzu die verschiedene Aspekte der
Organisation, um das Risikoinventar möglichst vollständig zu
identifizieren: Werte, sicherheitsrelevante Prozeßwirkungen sowie
rechtliche und vertragliche Schadenspotentiale. Zur Klassifikation
materieller und immaterieller Schadenspotentiale wird ein Verfahren
vorgeschlagen.
Im nächsten Schritt werden aus diesem Risikoinventar an Hand der
Schadensklassen Schutzbedürfnisse und Schutzziele abgeleitet, und das
Risikoinventar auf IT-Komponenten lokalisiert. Auf Basis des
Expositionsgrads und des Sicherheitsniveaus der Komponenten wird eine
Risikoklassifikation gewonnen.
Sie erhalten damit eine Datenbasis, welche kontinuierlich weiter gepflegt
werden kann, und Ihnen automatisiert jederzeit Überblick gibt über
- die aktuelle IT-Risikolage des Unternehmens aus Sicht der
Geschäftsprozesse und der Technik
- die Dringlichkeit des Handlungsbedarfs in einzelnen Bereichen
- die Angemessenheit Ihres IT-Sicherheitsbudgets und der
Sicherheitsmaßnahmen
- die Auswirkungen einer konkreten Sicherheitskrise
Gleichzeitig dient sie als Werkzeug, um verschiedene Sicherheitsarchitekturen
und -maßnahmen vor der Realisierung hinsichtlich ihrer Wirkung und
Kosteneffizienz zu untersuchen und zu vergleichen. Weiterhin läßt sich die
potentielle Wirkung neuer Bedrohungsszenarien genauso untersuchen, wie die
Risikolage neuer Geschäftsprozesse oder die Auswirkungen von
IT-Umstrukturierungen.
Über den Autor:
Thomas Maus -25 Jahre IT- und IT-Security-Erfahrung, Diplom-Informatiker
(Uni) mit Schwerpunkt IT-Sicherheitsfragen, seit über 10 Jahren
selbstständiger IT-Sicherheitsberater
|
|
MC/Serviceguard - Enterprise HA mit Linux
von
Kai Dupke
|
Donnerstag 27.03. 16:30 - 17:15 |
|
Linux-basierte Systeme kommen immer häufiger im Umfeld von
geschäftskritischen Applikationen zum Einsatz. In diesem Umfeld ist der
24/7-Betrieb die Regel und es bedarf entsprechender
Hochverfügbarkeitssysteme, um diese Anforderung zu erfüllen.
Im Umfeld der IP-Dienste und storageloser Systeme haben sich
OpenSource-Lösungen, wie 'piranha' oder die Tools des
LinuxVirtualserverProjects, als produktiv erwiesen. Viele Enterprise-Systeme
jedoch setzen weitere Schwerpunkte. Hierbei handelt es sich sowohl um
technische Belange, wie Shared-Storage, Clustergrösse und
Disaster-Festigkeit, und um organisatorische Belange, wie Administration,
Operating, Monitoring und Einbindung in bestehende Landschaften.
MC/Serviceguard kommt aus dem HP-UX-Umfeld und ist eine der am häufigsten
eingesetzten Enterprise-HA-Lösungen. Mit der Portierung auf Linux steht somit
auch hier eine eingeführte und etablierte Lösung zur Erlangung von
Hochverfügbarkeit zur Verfügung.
Der Referent beschreibt in seinem Vortrag die Konzepte und den Aufbau von
Clustern mit MC/Serviceguard unter Linux. Er geht hierbei ein auf die
Unterschiede zur HP-UX-Version und das Quorumkonzept. Darüber hinaus wird der
Referent die Storageanbindung im Bereich SCSI und FC beschreiben und die
Administrative Einbindungin bestehende Clusterlandschaften darstellen.
Über den Autor:
Kai Dupke ist seit Anfang 2000 bei der probusiness AG, Hannover, für den
Geschäftsbereich Linux zuständig. Als Projektberater unterstützt er
darüber hinaus Kunden bei der Erstellung von Backupkonzepten und
Hochverfügbarkeitslösungen. Zuvor hat er als freier Systemberater
kaufmännische Komplettlösungen in Industrie und Handel implementiert und
betreut.
Kai Dupke beschäftigt sich seit 1992 mit Linux, hat in den
Bereichen ISDN und Portierung auf die Alpha-Plattform mitgewirkt. Er ist
Inhaber einer RHCE-Zertifizierung und schreibt seit 1996 Artikel in
diesem Bereich für die Zeitschrift iX und das Linux-Magazin.
Kai Dupke tritt auch als Referent auf und hat als solcher an der
CeBIT 2001 und dem Linux-Tag 2001 teilgenommen.
Kai Dupke ist 35 Jahre alt, in Wuppertal geboren und lebt seit 1989 in
Hannover.
|
|
SpoF - die Suche nach der Verfügbarkeit
von
Kai Dupke
|
Donnerstag 27.03. 17:15 - 18:00 |
|
Hochverfügbare Systeme stellen eine Herausforderung für jeden
IT-Verantwortlichen dar. Während es mittlerweile Produkte und Lösungen
für fast jedes System gibt, sind Konzepte und Herangehensweisen kaum
vorhanden.
Im Rahmen dieses Vortrages werden verschiedene Blickwinkel zum Thema
hochverfügbarer Systeme aufgezeigt.
Hierbei liegt der Schwerpunkt auf der Darstellung der technischen
Risiken und möglicher Lösungen.
Besonderer Augenmerk wird der Suche nach single points of failure (SPoF)
gewidmet, zu denen der Referent neben den technischen Einrichtungen auch
das organisatorische Umfeld zählt.
Im Rahmen des Vortrages werden die folgenden Punkte behandelt:
- Systemanalyse und -darstellung
- Kommunikationswege
- Schwachstellenanalyse
- Risikobewertung
- Konzepte zur Vorbeugung bzw. Vermeidung von SPoFs
- Vorraussetzungen für funktionierende HA-Systeme
- Eigenarten der Projektabwicklung bei HA-Systemen
Über den Autor:
Kai Dupke ist seit Anfang 2000 bei der probusiness AG, Hannover, für den
Geschäftsbereich Linux zuständig. Als Projektberater unterstützt er
darüber hinaus Kunden bei der Erstellung von Backupkonzepten und
Hochverfügbarkeitslösungen. Zuvor hat er als freier Systemberater
kaufmännische Komplettlösungen in Industrie und Handel implementiert und
betreut.
Kai Dupke beschäftigt sich seit 1992 mit Linux, hat in den
Bereichen ISDN und Portierung auf die Alpha-Plattform mitgewirkt. Er ist
Inhaber einer RHCE-Zertifizierung und schreibt seit 1996 Artikel in
diesem Bereich für die Zeitschrift iX und das Linux-Magazin.
Kai Dupke tritt auch als Referent auf und hat als solcher an der
CeBIT 2001 und dem Linux-Tag 2001 teilgenommen.
Kai Dupke ist 35 Jahre alt, in Wuppertal geboren und lebt seit 1989 in
Hannover.
|
|
LDAP-Benutzung mit Java+Tomcat und Python+Zope
von
Holger Blasum und Andreas Meisl
|
Freitag 28.03. 09:30 - 10:15 |
|
Die tierärztliche Fakultät der Universität München verwendet Novell
eDirectory als Datenbank für Studentennutzerdaten. Einmal im Semester
tragen sich die Studierenden in Wahlpflichtfächer ein; dies geschieht
seit Juli 2002 webbasiert. Das hierfür relevante eDir zugrundeliegende
Datenmodell verwendet das LDAPv3 User Schema (RFC 2256).
Auf dieses Schema greifen wir in Lese- und Schreibmodus durch das LDAP
Interface zu; zur Kontrolle verwenden wir Java (Novell JLDAP-Bibliothek zur
Streuerung und Tomcat Servlets hinter Apache zur Darstellung) sowie
Python (python-ldap zur Steuerung und Zope hinter Apache zur
Darstellung).
Wir berichten über unsere Erfahrungen über Installation und
Implementation von Klienten in Python und Java sowie
Performancemessungen (in unserer - zugegebenermaßen einfachen -
Implementation ist Python+Zope 2-8 mal schneller als Java+Tomcat).
Derzeit untersuchen wir die Verwendung von LDAP über SSL von (für
nicht gefirewallte Verwendung).
Über die Autoren:
An der LMU Muenchen ist Holger Blasum derzeit Student in Mathe/Info; einer
seiner Jobs ist die Administration des tierärztlichen Webservers.
Andreas Meisl (CIP der Tierärztlichen Fakultät) betreibt
Systemadministration (Schwerpunkt Netware) seit über 10 Jahren.
|
|
Übernahme einer NT4-Domäne mit Samba 3.0
von
Volker Lendecke
|
Freitag 28.03. 09:30 - 10:15 |
|
In vielen Unternehmen gibt es heutzutage Windows NT4 kompatible
Domänen, um Benutzer und Computer im Netzwerk zu authentifizieren. Für
diese Unternehmen stellt sich zunehmend das Problem, diese
Domänenstruktur ablösen zu müssen, da Microsoft keinen Support für NT4
mehr anbietet. Der normale Upgrade-Pfad besteht darin, Windows 2000
und möglicherweise Active Directory einzusetzen. Wer die zusätzliche
Komplexität und die Lizenzkosten von Windows 2000 scheut, dem wird mit
Samba 3.0 eine alternative Möglichkeit angeboten.
Schon Samba 2.2 ist rudimentär in der Lage, einen NT4-kompatiblen
Domänencontroller zur Verfügung zu stellen. Es gibt jedoch noch einige
Einschränkungen, beispielsweise im Bereich der Gruppenzugehörigkeiten
von Benutzern. Für einen Umstieg von NT4 auf Samba am schmerzlichsten
ist jedoch die Tatsache, daß man bei Samba 2.2 keine echte Migration
aller Konten vornehmen kann, sondern eine neue Domäne bekommt. Samba
3.0 wird diese Einschränkung aufheben und eine nahtlose Migration
ermöglichen.
Dieser Vortrag wird die technischen Hintergründe der Domänenmigration
klären, und eine Demonstration des aktuellen Standes der Entwicklung
von Samba 3.0 zeigen.
Über den Autor:
Volker Lendecke ist Diplom-Mathematiker in Göttingen. Den ersten Kontakt
mit Unix hatte er etwa 1990 mit einer NeXT-Workstation. 1991 ist er nach
Göttingen gekommen, um dort in der Uni mit DEC Ultrix Workstation
konfrontiert zu werden. Sein erster Beitrag zu Samba war die Portierung
auf NeXT. In letzter Zeit versucht er, Samba als PDC ein bißchen zu
polieren. Ende 1996 stellte sich die Frage, was man denn nach der Zeit
der Uni machen könnte. Es fanden sich vier Leute zusammen, die Service
Network GmbH zu gründen. Dort ist Volker Lendecke für Training und
natürlich Samba verantwortlich.
|
|
Linux als Entwicklungsumgebung für Web-Anwendungen
von
Martin Raepple
|
Freitag 28.03. 10:15 - 11:00 |
|
Im Bereich Web-Development sind Linux und Open Source Technologien ein
starkes Gespann, das sich insbesondere nicht vor Windows verstecken muß.
Der
Vortrag geht auf aktuelle Themen und Entwicklungen in diesem Bereich ein
und beschreibt Vor- und Nachteile gegenüber der Alternative Windows als
Entwicklungsplattform. Am Beispiel eines Setups für ein komplexes
Java-basiertes Web-Projekt werden die eingesetzten Tools sowie
Alternativen vorgestellt. Schwerpunkte des Vortrags sind:
- Sourcecode-Editoren für HTML und Java Server Pages
- Eclipse als Java-IDE
- Web-nahe Plugins unter Eclipse
- Deployment-Tools
- Client- und Server-Tools zur Sourcecode-Verwalung/Releasemanagement
- Cross-Browser Testing von Web-Applikationen unter Linux
- Datenbank-Transfer zwischen Produktions- und Entwicklungsumgebung am
Beispiel von DB2 unter Linux
Über den Autor:
Martin Raepple arbeitet als Team-Coach bei der Avinci AG in Frankfurt.
Seine Themenschwerpunkte sind EAI, J2EE, Open Source Software und
IT-Security.
|
|
Konzept eines Single Sign-On Systems in einem heterogenen Netzwerk
von
Dieter Kluenter
|
Freitag 28.03. 10:15 - 11:00 |
|
Die IST Situation
- Anmeldung am System
- Anmeldung bei Mailversnd
- Anmeldung am Fileserver
- Anmeldung zum lesen von E-Mail
- Anmeldung am Verzeichnisdienst
- lokale Speicherung der Anwender-Identitäten
- Führen unterschiedlicher Access Control Lists
Ergebnis: unsicheres System mit hohen Risiken
Anforderungen an ein Single Sign On System
- einmaliges Anmelden am System
- zentrale, skalierbare, Zugriffsberechtigung
- geschütztes Passwort
- zentale Administration
Die erforderlichen Dienste
- Domain Name Service
- Verzeichnisdienst
- Key Distribution Center
- Simple Authentication Security Layer
- Plugable Authentication Modules
- Fileserver mit Kerberos-Unterstützung
- Dateisystem mit Kerberos-Unterstützung
- SMTP Server
- Pop3/Imap Server
- HTTP Proxy
- FTP Server
die zentralen Steuerungs- und Kontrolldienste
- Key Distribution Center, zur zentralen Authentifizierung
- Verzeichnisdienst, die zentale Anwender- und Rechteverwaltung
Zusammenarbeit der zu nutzenden Dienste
Ablaufdiagramme des Zusammenspiels zwischen den Diensten
- SMTP
- Pop3/Imap
- HTTP Proxy
- Fileserver
und den zentralen Diensten LDAP und Kerberos.
Weiterführende Erläuterungen
- Kerberos Version 5
- OpenLDAP
- Samba
- SASL
- PAM
- SSL/TLS
- SRV Einträge im DNS
Über den Autor:
Geburtsjahr: 1943
Studium: Betriebswirtschaft und Soziologie in Köln und London.
Berufliche Tätigkeit:
Markt- und Sozialforscher mit den Schwerpunkten
Innovationsforschung und statistische Datenanalyse.
Beratertätigkeit:
Seit 1990 Berater für System- und Applikationsintegration,
speziell in der Kommunikationswirtschaft.
|
|
Concurrent Programming in Erlang
von
Joe Armstrong
|
Freitag 28.03. 11:30 - 12:15 |
|
I talk about
- The Background and Philosophy behind Erlang
- Erlang - the technology
- I discuss the major commercial successes of Erlang.
- Future problem areas
Background and Philosophy
Erlang is a concurrent programming language with a functional core.
Process creation and message passing in Erlang is extremely
light-weight compared to the threads implementation in, for example,
pthreads, java or C#.
Erlang is the most widely used functional programming language used
for real-commercial applications.
In this talk I talk about "Concurrency Oriented" programming and
design.
I argue that concurrent programs are easier to write and understand
than sequential programs.
I argue that concurrent programming is perceived as difficult only
because of the terrible implementation of threads in mostly operating
systems and languages.
I argue that concurrency is the "natural" way to structure complex
applications.
Erlang - the technology
I talk about Erlang (the language) OTP (the libraries) and
the Open Source Erlang release.
I give examples of simple Erlang programs which solve traditionally
"hard" problems, for example: Changing the code in a server "on the fly"
i.e. while operating the service.
I give an example of a fault-tolerant server with redundant and hot
fail-over characteristics.
Commercial Successes of Erlang
I discuss a number of commercially successful products which use the
Erlang technology - these include:
These include:
- The Ericsson AXD301 and GRPS systems
(The Ericsson AXD301 is an ATM switch with over 1,7 Million lines -
of Erlang - it has a faulty tolerant architecture - and has achieved
"9 nines" reliability in a test performed by British Telecom)
- The Nortel SSL accelerator
Future Areas
I discuss the future problem areas where I expect interesting
developments in distributed computing. In particular:
- Erlang for peer-to-peer computations
- Erlang for secure agent computing
Über den Autor:
Joe Armstrong, Swedish Institute of Computer Science
Joe Armstrong is principle designer of the programming language
Erlang. He is an experienced systems designer and has worked as a
compiler writer, technical author and entrepreneur, and has been
designing and programming fault-tolerant distributed systems for the
last 20 odd years.
Joe was a founder member of the company Bluetail which sold
commercial products based on Erlang and Linux.
Joe has had over 20 years experience designing and programming
fault-tolerant distributed systems.
Joe now works at the Swedish Institute of Computer Science.
|
|
Wie interoperabel ist IPSEC?
von
Arturo Lopez
|
Freitag 28.03. 11:30 - 12:15 |
|
In diesem Vortrag werden wir die Grundlagen der Verschlüsselung von IPSEC
vorstellen. Wir werden die Begriffe Encapsulating Security Protocol (ESP),
Authentication Header (AH), ISAKMP/Oakley, Internet Key Exchange (IKE), IKE
mit Pre-Shared Keys und IKE mit Certificate Authorities (CA) erläutern und die
Arbeitsweise vom IPSEC beschreiben. Ferner werden wir über die gesammelten
Erfahrungen in dem Aufbau von VPNs in einem Multivendor-Umfeld (PIX, Check
Point, Linux, Symantec und W2K) berichten.
Über den Autor:
Arturo Lopez schloss seine akademische Ausbildung an der RWTH-Aachen als
Dipl.-Ing. der Elektrotechnik. Danach plante und betreute er LAN und WANs
auf der Basis von DECnet und TCP/IP für die Robert Bosch GmbH. Anschließend
beriet er Kunden beim Aufbau und Betrieb von Client Server Infrastrukturen
im UNIX-Umfeld als Consultant bei der Digital Equipment GmbH. Seine
Tätigkeit als Consultant setzte er bei der Compaq Computer GmbH fort, als
Consultant für Internet Sicherheit. Zur Zeit arbeitet Arturo Lopez als
Senior Consultat bei der Hewlett-Packard GmbH mit dem Focus IT Sicherheit.
|
|
Praktische Verwendung von REXX für Systemverwaltungs- und Administrierungstools
von
Gunter Thum
|
Freitag 28.03. 12:15 - 13:00 |
|
Rexx wurde 1981 von Mike Cowlishaw für IBM Grossrechner entwickelt. Für
die Workstation-Plattformen wurde REXX zu Object REXX erweitert. In der
Zwischenzeit ist Object REXX für OS/2, Windows(tm), AIX, Linux(tm) und
Sun/Solaris(tm) erhältlich. Object REXX ist eine objekt-orientierte
Programmiersprache, geeignet sowohl für Anfänger als auch für erfahrene OO
Programmierer. Durch die Möglichkeit prozedurale als auch OO-Programmierung
zu mixen, wird der Einstieg in die OO-Programmierung erleichtert.
Die Object REXX Syntax ist einfach zu erlernen und enthält nur wenig
formale Regeln. Durch die umfangreiche Bibliothek mit Funktionen und
Methoden ist Object REXX sehr mächtig und für komplexe Anwendungen
geeignet. Mehrere Application Programming Interfaces (FTP, Socket,
mathematisches Funktionspacket, Regular Expression) sind im Packet enthalten.
Mit einem Beispiel möchten wir zeigen, wie Object REXX als
Systemverwaltungs- und Administrierungstool in der Praxis eingesetzt wird.
Hierbei wird das Monitoring von Servern, der Backup- und
CrashRecovery-Mechanismus, Management von Useraccounts und diverse
andere Dinge mit REXX realisiert. Object REXX hilft bei der Verwaltung
von tausenden UserAccounts in mehreren Domänen mit mehr als
10TB Datenbestand.
Über den Autor:
Ich bin 40 Jahre und habe an der FH Heilbronn betriebswirtschaftliche
Informatik studiert. Nach dem Studium habe 1989 bei der IBM im
Softwareentwicklungslabor Böblingen begonnen. Seit 1995 bin ich in der
Object REXX Entwicklungsabteilung tätig. Zusammen mit meinem Kollegen
Reiner Micke bin ich verantwortlich für die Weiterentwicklung, die
Wartung und den Support für Object REXX auf den Unix Plattformen.
|
|
VPNs mit dem kommenden Linux Kernel 2.6
von
Ralf Spenneberg
|
Freitag 28.03. 12:15 - 13:00 |
|
Linux unterstützt seit einigen Jahren virtuelle private Netzwerke mit
IPsec durch das FreeS/WAN Projekt. Verschiedene Gründe (Lizenz,
Codequalität, u.a.) haben jedoch bisher feste eine Aufnahme in den Linux
Kernel verhindert. Dieselben Gründe sind dafür verantwortlich, dass
FreeS/WAN von einigen Distributionen (z.B. RedHat) nicht vertrieben
wird.
Seit dem Entwicklerkernel 2.5.45 exisitiert eine neue IPsec
Implementierung fest in dem Linux Kernel, die auf dem USAGI Projekt
basiert. Dieses wurde von Dave Miller und Alexey Kuznetsov in den Kernel
portiert.
Dieser Vortrag versucht eine Einführung in diese neuen Funktionen, die
Werkzeuge und Parameter zu geben, so dass diese Funktionen bei
Erscheinen des Linux Kernels 2.6 genutzt werden können.
Darüberhinaus versucht der Vortrag einen Vergleich der Funktionalitäten
und der Interoperabilität mit FreeS/WAN durchzuführen.
Über den Autor:
Der Autor setzt Linux seit etwa 8-9 Jahren privat ein. Seit etwa 4 Jahren
ist er professionell im Linux/UNIX Umfeld als freiberuflicher Trainer für
unterschiedliche Firmen tätig. Dabei setzt er seinen Schwerpunkt bei
Netzwerkanwendungen und Sicherheit (Firewalls, Intrusion Detection,
Penetration Testing) und hat hier auch bereits einige Kurse entwickelt.
Im Dezember 2002 veröffentlichte er sein Buch "Intrusion Detection
Systeme für Linux-Server".
Bei den letzten beiden Linux-Kongressen und dem letzten
Frühjahrsfachgespräch stellte der Autor FreeS/WAN in Tutorials vor.
|
|
RPM packaging "the right way"
von
Jos Vos
|
Freitag 28.03. 14:00 - 14:45 |
|
This talk will address the main issues related to building RPM
packages, and additionally several topics will be discussed that
are essential for delivering high-quality packages. The basic
elements of an RPM spec file will be shown and for each section a
number of hints and tricks will be given to enhance the quality
of the resulting package. This will include the use of macros,
adapting a package for installing it in an alternative root
directory, ensuring correct file ownerships and attributes, and
the proper use of pre/post (un)installation and "trigger" scripts.
Many real-life examples will be used for illustrating the
problems one can encounter and how to solve them in the best way.
Also packaging non-free, binary software for internal use will
be discussed.
Über den Autor:
Jos Vos is CEO and co-founder of X/OS Experts in Open Systems BV.
He has an experience of more than 15 years in the area of research,
development, and consulting related to UNIX systems software,
Internet, and security. He is the author of ipfwadm and part of the
firewall code in the Linux 2.0 kernel. His company X/OS provides
a number of products and services related to Linux, UNIX and Open
Source software, including firewall and VPN solutions, ranging from
small embedded systems to high-availability server products.
|
|
Heterogenes Softwarekonfigurationsmanagement mit UNIX
von
Matthias Kranz
|
Freitag 28.03. 14:00 - 14:45 |
|
Wie stellen IT-Verantwortliche in Banken sicher, dass am 01.01.2002 um
00:01 Uhr auf allen Geldautomaten der Euro das Sagen und die DM
ausgedient hat? Wie erreicht man, dass Tausende von SAP-Anwendern am
Montag Morgen auf einen SAP-Client zugreifen, der auf die am Wochenende
neu installierte Version der Datenbank und des Anwendungsservers
abgestimmt ist?
Softwarekonfigurationsmanagement ist ein feststehender Begriff in großen
bzw. komplexen Netzen. Wenn Applikationen, Konfigurationen oder Daten zu
einem bestimmten Zeitpunkt und an mehreren Orten nachvollziehbar
installiert werden müssen, ist die Administration auf die Unterstützung
durch ein entsprechendes Managementwerkzeug angewiesen.
Der Vortrag bzw. das Paper soll einen Überblick über die
die allgemeinen und speziellen Anforderungen an ein Managementtool
definieren und eine Zusammenfassung aktueller Technologien bieten.
Es wird dargestellt, welche unterschiedlichen Objekte und Zustände im
Softwaremanagement berücksichtigt werden müssen. Dazu zählen die zu
adressierenden Benutzer, Systeme und Systemgruppen ebenso wie die
Verteilobjekte und ihre Zielplattformen, die abstrakte Zusammenfassung
von Konfigurationen zu Profilen, die Berücksichtigung von Abhängigkeiten
zwischen Objekten und deren Parametrisierung. Außerdem fordern die
unterschiedlichen Betriebssystemplattformen in einem heterogenen Netz
eine Unterstützung verschiedenster Paketformate wie RPM, DEB, PKG, LPP
etc. unter LINUX/UNIX sowie MSI, InstallShield und andere unter
Microsoft Windows. Bei der eigentlichen Datenübertragung werden die
alternativen Ansätze Push und Pull, Broad- und Multicast sowie
Bandbreitenmanagement berücksichtigt. Abgeschlossen wird die technische
Betrachtung durch die zu berücksichtigenden Sicherheitsaspekte.
In der Zusammenfassung werden, ergänzend zu einer Bewertung der
vorgestellten Aspekte, Aufwände und Nutzen einer Einführung bzw.
Anwendung von Softwarekonfigurationsmanagementwerkzeugen gegeneinander
abgewogen.
Zielpublikum:
Der Vortrag richtet sich an alle, die sich mit Software- und
Konfigurationsmanagement in heterogenen Netzen beschäftigen oder dafür
interessieren. Er setzt keine speziellen Kenntnisse voraus.
Über den Autor:
Matthias Kranz ist 29 Jahre alt, verheiratet und lebt in Berlin. Seit
1993 beschäftigt er sich intensiv mit UNIX, inbesondere mit Linux.
Während und nach dem Informatik-Studium in Erlangen und Berlin hat er
unter anderem für Siemens-Nixdorf, das Forschungsinstitut GMD FOKUS, das
DESY und die Linux Information Systems AG gearbeitet. Zur Zeit ist er
als Consultant bei der ASDIS Software AG angestellt.
Seit 1998 schreibt er regelmäßig Artikel für Fachzeitschriften und hält
Vorträge auf nationalen und internationalen Kongressen, im Speziellen
über "CVS" und "IP Quality of Service unter Linux".
Eine komplette Vortragsliste ist unter http://www.buug.de/~mkr zu finden.
|
|
Nach dem Boom: Ein Gesundheitscheck für IT-Systeme
von
Benedikt Stockebrand
|
Freitag 28.03. 15:00 - 15:45 |
|
Spätestens seit der Mitte der 90er Jahre sind viele IT-Systeme in
kürzester Zeit aus dem Boden gestampft worden. Die damalige
Einstellung "Geld spielt keine Rolex" hat allzu oft dazu geführt, daß
unausgereifte Systeme mit übermäßigen Betriebskosten und allzu
häufigen Betriebsstörungen in den leider nicht wirklich geregelten
"Regelbetrieb" genommen wurden. Aber der Boom ist vorbei, heute
entscheiden die Kosten, wer im harten wirtschaftlichen Alltag
langfristig überleben kann.
Die präsentierte Vorgehensweise liefert eine systematische Analyse,
die einerseits der IT-Fachseite die Inventarisierung, Priorisierung
und Einschätzung der offenen Probleme erleichtert, andererseits aber
auch einer Geschäftsleitung als technisch orientierte
Entscheidungsgrundlage dienen kann, die die übliche
betriebswirtschaftliche Analyse durch das Controlling komplementiert.
Neben der eigentlichen Technik, grob aufgeschlüsselt in Hardware,
System-, Middleware- und Anwendungssoftware, werden insbesondere auch
Dokumentation, Betriebsabläufe und das Training der Mitarbeiter,
sowohl der User als auch der Betriebsverantwortlichen, ausführlich
betrachtet.
Die Analyse setzt an drei Stellen an:
Der Regelbetrieb wird auf Performance im weiteren Sinne
untersucht. Neben der konventionellen Suche nach Bottlenecks und Hot
Spots ist das wesentliche Werkzeug eine Gegenüberstellung dessen, was
unabhängig von der vorhandenen Lösung theoretisch möglich sein könnte,
und was tatsächlich an Performance beobachtet und gemessen wird.
Zur Analyse der tatsächlichen und potentiellen Störungsfälle werden
zunächst Störungsszenarien bestimmt, die dann auf
Eintrittswahrscheinlichkeit und Auswirkungen untersucht werden. Das
Ergebnis zeigt unbereinigte "Altlasten" auf und ist Grundlage für eine
betriebswirtschaftliche Risikoanalyse, die den Szenarien Risiken
zuordnet.
Schließlich wird analysiert, welche Probleme langfristig auftreten
können. Hier werden Probleme wie die Abhängigkeit von
Softwarelieferanten, spezieller Hard- oder Systemsoftware genauso
betrachtet wie abzusehende technische Paradigmenwechsel oder wie die
Abhängigkeit von einzelnen Mitarbeitern.
Über den Autor:
Benedikt Stockebrand (me@benedikt-stockebrand.de) ist
Diplom-Informatiker mit dem Schwerpunkt Operations und Operations
Management.
Nach mehrjähriger Tätigkeit in der Abteilung "Data Center Management"
der T-Online International AG, zuletzt als Teilprojektleiter
"Operations" in einem internen Großprojekt, ist er inzwischen
selbständiger Berater im Unix- und TCP/IP-Umfeld.
Seine technischen Interessen liegen in den Bereichen Performance,
Skalierbarkeit, Hochverfügbarkeit, Sicherheit und allgemein in den
Problemen rund um einen geregelten, zuverlässigen und kostengünstigen
IT-Betrieb.
|
|
|
Kalender
|
10.November 2019 |
KW | Mo | Di | Mi | Do | Fr | Sa | So |
44 |
28 |
29 |
30 |
31 |
1 |
2 |
3 |
45 |
4 |
5 |
6 |
7 |
8 |
9 |
10 |
46 |
11 |
12 |
13 |
14 |
15 |
16 |
17 |
47 |
18 |
19 |
20 |
21 |
22 |
23 |
24 |
48 |
25 |
26 |
27 |
28 |
29 |
30 |
1 |
49 |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
|
|