Nicht angemeldet |
|
|
Abstracts
IPv6 mit Unix: Eine praktische Einführung von Benedikt Stockebrand
|
Dienstag, 9.3., 11:00-19:00 und Mittwoch (10.3.) 10:00-18:00
|
|
Ziel des Tutoriums ist es, aus Unix-Rechnern ein IPv6-Netzwerk aufzubauen,
das einerseits in sich funktionsfähig ist, sich aber andererseits auch
nahtlos in eine IPv4-Welt einbinden läßt.
Das nötige IPv6-Wissen, von der Terminologie über den Aufbau und die
Notation von IPv6-Adressen bis zu den grundsätzlichen Unterschieden
zwischen IPv4 und IPv6, eignen wir uns rund um diese Experimente an.
IPv6-Vorkenntnisse sind also nicht nötig, nur etwas Erfahrung im Umgang mit
Unix und IPv4-Netzen ist hilfreich.
Wir sind darauf angewiesen, daß möglichst viele Teilnehmer einen eigenen
Unix-Rechner mitbringen, auf dem die Man Pages, die gängigen
Entwicklungswerkzeuge (make, cc/gcc, ld, binutils) und wenn möglich ein
Packet Sniffer (tcpdump, snoop, ethereal, ...) installiert sind. Das
gewählte Unix-Derivat sollte dem jeweiligen Teilnehmer einigermaßen
vertraut (und IPv6-fähig) sein, andere Einschränkungen gibt es nicht.
Wer das Unix in einer VMware oder ähnlichem laufen lassen will, kann das
gerne tun.
Die Teilnehmerzahl ist bedingt durch den experimentell-praktischen
Charakter des Tutoriums auf maximal fünfzehn Teilnehmer beschränkt.
Das Tutorium im Detail:
IPv6-Unterstützung im Betriebssystem: Wir richten im Betriebssystem,
soweit nötig, die IPv6-Unterstützung ein und überprüfen ihre
Funktionsfähigkeit.
Adresskonfiguration: Wir konfigurieren zunächst statische
IPv6-Adressen. Dann richten wir Router so her, daß Hosts damit per
Stateless Autoconfiguration ihre IPv6-Adressen dynamisch selbst
konfigurieren können.
DNS: Wir richten DNS-Server ein, die auch über IPv6 angesprochen
werden können, tragen statische Daten ein, erlauben kryptographisch
abgesicherte dynamische Updates von den eingetragenen Rechnern und
synchronisieren kontinuierlich die Forward und Reverse Zones
miteinander.
IPv6-fähige Services: Mit SSH, NTP, Syslog, SMTP, IMAP, (x)inetd,
HTTP und NFS vervollständigen wir unsere Systeme.
Routing: Wir richten auf mehreren Routern statisches und dynamisches
Routing ein und untersuchen dabei einige Eigenheiten von IPv6 und
Unterschiede zwischen den IPv6-Implementierungen.
Dual-Stack-Konfiguration: Wir richten Rechner mit IPv4- und IPv6-Stack
ein, so daß sie sowohl auf IPv4- als auch auf IPv6-Ressourcen zugreifen
können.
Application Gateways: Für DNS und HTTP bauen wir Application Gateways,
die zwischen beiden Welten auf Applikationsebene vermitteln.
Protocol Translation: Ähnlich wie mit einem NAT-Gateway, das
IPv4-Adressen dynamisch umschreibt, bauen wir ein TRT-Gateway, das
zwischen IPv6- und IPv4-Adressen konvertiert.
Neue Funktionalitäten: Nachdem im Tutorium fast ausschließlich
Funktionalitäten berücksichtigt wurden, die schon IPv4 zur Verfügung
stellt, gehen wir auf interessante Features ein, die IPv4 nicht oder
nur eingeschränkt zu bieten hat.
Offene Probleme: Die IPv6-Spezifikationen werden noch immer
weiterentwickelt, die Implementierungen hinken mehr oder weniger stark
hinterher. Wir sprechen einige Bereiche an, in denen in naher Zukunft
wichtige Fortschritte zu erwarten sind.
Strategie: Abschließend diskutieren wir, wie und wann der Aufbau einer
IPv6-Infrastruktur strategisch sinnvoll ist.
Über den Autor:
Der Autor ist Dipl.-Inform. und freischaffender Systemarchitekt im
Unix- und TCP/IP-Umfeld.
Er unterstützt IT-Projekte dabei,
Software auf real existierender Hardware in real existierenden
Rechenzentren in einen effizienten und zuverlässigen Betrieb zu
nehmen, bringt die Infrastruktur von Rechenzentren auf den Stand der
Technik und führt die IT-Bausünden der New Economy in die
betriebwirtschaftliche Realität.
Neben den dabei relevanten
technischen Themen, insbesondere Performance, Hochverfügbarkeit und
Skalierbarkeit, interessiert ihn auch die dazugehörige
Betriebsorganisation und die Schulung und das Coaching der Mitarbeiter
im IT-Betrieb.
Wenn er sich nicht gerade mit IPv6 beschäftigt,
tauchen geht oder mit dem Fahrrad Kontinente sammelt, ist er unter
stockebrand@guug.de und http://www.benedikt-stockebrand.de/ zu erreichen.
|
|
Aufsetzen eines typischen Java-Projekts (mit Einführung Eclipse) von Carsten Siedentop Ausgebucht
|
Dienstag, 9.3., 11:00-19:00 und Mittwoch (10.3.) 10:00-18:00
|
|
Sowohl Probleme als auch Funktionalitäten treten in den
unterschiedlichsten Projekten immer wieder auf:
- Wieviel Zeit kostet Sie die Konfiguration der Entwicklungsumgebung?
- Ist Ihre Projekt-Basisstruktur für mehrere gleichzeitige Projekte vorbereitet?
- Kennen Sie die Versionskonflikte mit XML-Parsern, JDBC-Treibern, Logging-Klassen?
Inhalt:
Der zweitägige Workshop zeigt den sinnvollen Einsatz von:
- JUnit für Modultests (ein MUSS für jeden Java-Entwickler)
- Log4J zum Logging (wer die Möglichkeiten kennt, baut ganz andere Systeme)
- ANT zu Erstellung der BUILD-Skripte (noch ein MUSS, trotz Eclipse & Co)
- Konfigurationsdateien mit XML
- Anbindung an CVS
Es wird Eclipse als IDE vorgestellt und benutzt. Aber auch Benutzer
von vi, emacs, jEdit, NetBeans, o.ä. kommen voll auf Ihre Kosten.
Ziel: Das Projekt muss ohne Änderungen auf Linux UND auf Windows funktionieren.
Vorraussetzungen: Grundkenntnisse in Java und XML
Zielgruppe: Windows-Programmierer, deren Programme im Unix-Umfeld
laufen sollen. Unix-Programmierer, deren Programme auch im
Windows-Umfeld laufen sollen. Programmierer, die bei ihrer Entwicklung
eine größtmögliche Unabhängigkeit von Betriebssystem und proprietären
Produkten haben möchten.
Über den Autor:
Freiberuflicher Informatiker, der den IT-Alltag sowohl aus Projekten
als auch aus Schulungen kennt. Schulungsthemen: JAVA, XML, UML, COBOL
(sic!)
Ansonsten betreibe ich intensiv Musik und betätige mich im Gymnasium
meiner Kinder in verschiedenen Bereichen.
|
|
Komplexes Netzwerkmanagement mittels OpenSource / Nagios von Günther Mair
|
Dienstag, 9.3., 11:00-19:00
|
|
Große Netzwerkstrukturen bedürfen zentraler Überwachung und zentraler
Dokumentation. Zu den Produkten Tivoli (IBM), OpenView (HP) hat sich
bereits vor einiger Zeit ein OpenSource Produkt namens Nagios (früher
Netsaint) gesellt. Es verfügt über eine Vielzahl an Möglichkeiten zur
Überwachung von Hosts wie Routern, Switches, Server, UPS und anderen
Netzwerkgeräten und ist durch seine einfache und modulare Struktur
sehr einfach von Hand zu erweitern. Nichtsdestotrotz fehlt dem System
ein wichtiger Punkt: es können Kommentare verwaltet werden, allerdings
besitzt das System keine eigene Daten- und Informationsablage für
Begleit-Dokumentation zu den überwachten Systemen.
Dieses Tutorial soll dem Interessierten die Möglichkeit geben einen
Einblick darin zu erhalten, wie ein solches System mittlerer Größe
aufgebaut, strukturierte Vernetzung abgebildet, mit SMS-Diensten
integriert und um den fehlenden Punkt der Dokumentverwaltung erweitert
wird.
Soweit die Entwicklung abgeschlossen ist, wird die für das erste
Quartal 2004 zu erwartende Version 2.0 von Nagios präsentiert und in
einer Beispiel-Umgebung aufgesetzt. Dies beinhaltet Erklärungen zu
allen zentralen Konfigurationsparametern um Nagios, dessen Plugin's
und deren Verwendung. Wichtig ist dabei das richtige "Tuning" des
Monitoring-Systems, um eine dem Administrator eine sinnvolle
Verwaltung seines Netzwerks mit bis zu 100 Rechnern und über 200
darauf laufenden Serverdiensten und/oder Leistungsparametern mit
diesem Tool zu ermöglichen. Das modular aufgebaute System verfügt über
ein ausgeklügeltes, objektorientiertes Template-System, welches die
einfache Eingliederung in verteilte Text-Konfigurationsdateien (einem
zentralen Merkmal von Unix-Systemen folgend) ermöglicht ohne, auch in
komplexeren Umgebungen, auf grafische Schnittstellen und
Administrations-Frontends angewiesen zu sein.
Die Konfigurationsobjekte erstrecken sich dabei von "Hosts" und
"Services", über "Contacts" und "Timeperiods", bis hin zu
"Dependencies" und "Serviceescalations", deren Interaktion und durch
verschiedenste Bedingungen und Beziehungen verschachtelbare und
erzeugbare Systemreaktionen im Detail besprochen werden. Auch auf die
Möglichkeit der Fernsteuerung mittels SMS - nicht zu verwechseln mit
der relativ einfachen und gebräuchlichen Benachrichtigung der
verantwortlichen Administratoren - wird behandelt.
Über den Autor:
Günther Mair, geboren am 24.09.78 in Meran, Südtirol, spricht deutsch
(Muttersprache) und fließend italienisch und englisch. Die ersten
Gehversuchen mit Commodore 64er und 128er endeten sehr bald in der
Programmierung von Basic, anschließend Pascal und ein paar Tropfen
Assembler. Einige Jahre später und um Erfahrung auf MS-DOS,
Turbo-Pascal und den verschiedenen Windows-Versionen reicher, mündeten
die IT-Interessen schließlich auf Linux mit Perl, Shell-Scripts, C und
PHP/PostgreSQL. Mit Hilfe dieser letzten Umgebung entstand, im Laufe
von 2 Jahren als Systemadministrator und Programmierer, u.a. die mit
einem Web-Award ausgezeichnete Internetseite der südtiroler
Weinwerbung/Weinkost. Um die eigenen Interessen zu vertiefen und den
Horizont auf anderen Gebieten, allem voran aber im Netzwerkbereich, zu
erweitern, war ein Umstieg zu einem der großen südtiroler
System-Integratoren der nächste logische Schritt. Seit 3 Jahren
verwaltet dieses Unternehmen nun mit Hilfe von Nagios die eigenen
Backbone-Systeme und alle managed Services seiner Kunden.
|
|
IPsec VPNs mit dem Linux Kernel 2.6 von Ralf Spenneberg
|
Dienstag, 9.3., 11:00-19:00
|
|
Dieses Tutorial beschäftigt sich mit dem Einsatz des neuen Linux Kernel 2.6 zum Aufbau von virtuellen privaten Netzen mit IPsec.
Der Linux Kernel 2.6 enthält einen komplett neuen IPsec Stack. Dieser wurde in Anlehnung an das KAME und das USAGI Projekt von David Miller und Alexey Kuznetsov programmiert. Es stehen inzwischen drei verschiedene IKE Daemonen zur Verfügung, mit denen dieser Stack konfiguriert werden kann: Racoon (KAME), Isakmpd (OpenBSD) und Pluto (FreeS/WAN).
Dieses Tutorial beschreibt die neue IPsec Implementierung und den Einsatz der verschiedenen Werkzeuge. Dabei werden verschiedene Fallbeispiele durchgespielt und diese live mit den Werkzeugen nachgestellt.
Der Teilnehmer erhält eine fundierte Einführung in die Anwendung der Werkzeuge und die Fehlersuche bei ihrem Einsatz.
Über den Autor:
Der Autor setzt Linux seit etwa 8-9 Jahren privat ein. Seit etwa 4 Jahren ist er professionell im Linux/UNIX Umfeld als freiberuflicher Trainer für unterschiedliche Firmen tätig. Dabei setzt er seinen Schwerpunkt bei Netzwerkanwendungen und Sicherheit (Firewalls, Intrusion Detection, Penetration Testing) und hat hier auch bereits einige Kurse (unter anderem für Red Hat) entwickelt. Als Referent wurde er bereits vom Linuxtag, dem LinuxKongress, der SANS und dem Frühjahrsfachgespräch eingeladen. In dem letzten Jahr war er Mitglied des Programmkommitees des Linuxkongresses und des FFG. Im Dezember 2002 veröffentlichte er sein erstes Buch "Intrusion Detection Systeme für Linux-Server". Im November 2003 erschien sein zweites Buch "VPN mit Linux".
|
|
Bewältigung von IT-Sicherheitskrisen von Thomas Maus Ausgebucht
|
Dienstag, 9.3., 11:00-19:00
|
|
Welche Folgen kann ein Hacker-Angriff für mein Unternehmen haben?
Welches Vorgehen empfiehlt sich zur Bewältigung solcher Sicherheitskrise?
Was ist zu bedenken?
Was kommt auf mich zu?
Das Tutorium spielt diese Fragen durch und bietet Raum, die Krisenbewältigung
zu trainieren. In realistischen Szenarien übernehmen die Teilnehmer Rollen
und Aufgaben eines IT-Krisenstabes und führen die bedrohte Organisation
durch die Sicherheitskrise. Auf diese Weise können Sie die unmittelbare,
persönliche Erfahrungen sammeln, von denen wir alle hoffen, dass Sie sie
niemals erleben müssen, und die dennoch unerläßlich sind.
Das Tutorium bietet einen, wenn auch spielerischen, so dennoch
ernsthaften Einstieg in Fragen der IT-Sicherheit: Die potentiellen
Folgen eines Hacker-Einbruchs werden unmittelbar erlebbar und die
Diskussionen um die IT-Sicherheit wesentlich konkreter und
realitätsnäher. Der Fokus des Tutoriums liegt auf der Organisation und
der Lenkung der technischen Kräfte, sowie den Entscheidungsprozessen,
nicht jedoch auf technischen Details.
Inhalte:
Es werden - je nach Verlauf - ein oder mehrere Angriffsszenarien durchgespielt:
Vorbereitung: Die Teilnehmer wählen das Angriffsszenario und
das angegriffene Unternehmen aus, und erhalten die notwendigen
Informationen zu den Rahmenbedingungen. Sie können sich als
IT-Krisenstab organisieren und ihre Strategien absprechen.
Durchführung: Das Angriffsszenario wird realitätsnah und in
Echtzeit simuliert. Die Szenarienleitung gibt den Zeitablauf und die
Ereignisse vor, die die Teilnehmer bewältigen müssen. Dazu können sie
Untersuchungsaufträge und Handlungsanweisungen an (simulierte)
Technikabteilungen geben, deren Ergebnisse die weitere Entwicklung des
Szenarios bestimmen.
Manöverkritik: Die Auswirkungen der Entscheidungen auf
das angegriffene Unternehmen, die Entscheidungsprozesse und die
Wahrnehmung der jeweils vorhandenen Handlungsoptionen werden nach
Abschluß des Szenarios retrospektiv analysiert.
Über den Autor:
Thomas Maus ist Diplom-Informatiker und seit über 10 Jahren
selbstständiger IT-Sicherheitsberater.
|
|
Aufbau und Betrieb von Honeypot-Systemen von Lukas Grunwald
|
Mittwoch, 10.3., 10:00-18:00
|
|
Dieses Tutorial gibt in dem ersten Teil einen Überblick über die
Theorie, den wissenschaftlichen und fachlichen Ansatz von Honeypots
sowie die einzelnen Honeypot-Philosophien und Auswertungsmethoden.
Im zweiten Teil wird dann an einem praktischen Beispiel erst ein
Honeypot, dann ein Honeypot-Netzsystem mit dem Ansatz zu einem wireless
Honeynet aufgebaut. Die Teilnehmer können praktische Erfahrungen beim
Simulieren von Schwachstellen sammeln. Darüber hinaus haben sie
Gelegenheit zur praktischen Anwendung dieser Erfahrungen. Am Ende des
Tutorials wird den Teilnehmern die Möglichkeit gegeben, eigene
Auswertungsskripte auf die neu entstandenen Logfiles zu fahren. Sie
können hierbei auch selber analysieren, welche Attacken auf ihr Honeynet
durchgeführt worden sind, und auch versuchen, die Systeme der anderen
Teilnehmer zu hacken.
Über den Autor:
arbeitet als Consultant bei der DN Systems GmbH in Hildesheim und ist in diverse freie Softwareprojekte involviert.
Zeil: Unix-Admins mit Shell Erfahrung und know how in einer Skript / Auswetungssprache.
|
|
Inventarisierung und Bewertung von IT-Risiken von Thomas Maus
|
Mittwoch, 10.3., 10:00-18:00
|
|
Das Tutorium besteht aus einem einleitenden Vortragsteil, gefolgt
von der praktischen Anwendung des vorgestellten Verfahrens auf
Problemstellungen der Teilnehmer.
1. Vorstellen der Methodik
Eigentlich interessiert es - außer einer kleinen Gemeinde - niemanden, ob
Computersysteme sicher sind, oder überhaupt sicher gemacht werden können.
Andererseits stützen wir vielfältige Arbeitsabläufe in Industrie und Verwaltung
zunehmend auf IT-Systeme ab, und ob diese Arbeitsabläufe, und damit der Bestand
von Unternehmen und die Wahrnehmung öffentlicher Aufgaben, ausreichend sicher
sind - dies interessiert sehr wohl.
Und so stellen sich den Verantwortlichen folgende Fragen, auf die das Tutorium
Antworten vorschlägt:
- Wieviel Sicherheit braucht Ihr Unternehmen?
- Was muß geschützt werden?
- Vor welchen Bedrohungen?
- Wieviel Sicherheit ist wirtschaftlich?
- Welche Maßnahmen bringen den größten Nutzen?
- Welche Maßnahmen sind die dringlichsten?
- Welche IT-Systeme sind kritisch?
- Wie "gesund" ist meine IT-Landschaft?
- Wie berücksichtige ich die IT im Risikomanagement, welches
nach den Forderungen des KonTraG oder Basel II erforderlich wird?
Vorgestellt wird ein praxisorientiertes und vielfach praxiserprobtes
Verfahren, um die Abhängigkeiten Ihrer Organisation von ihrer IT und
die daraus resultierenden Risiken systematisch zu erfassen.
Diese Einzelrisiken werden quantifiziert und in verschiedenen
Dimensionen zu Risikokennzahlen verdichtet.
Unter Risikoinventar ("assets") werden dabei all diejenigen Daten- und
Funktionsbestände der IT-Systeme verstanden, die im Rahmen der
Geschäftsprozesse für die Organisation selbst oder einen Dritten wertvoll sind,
oder deren Missbrauch für die Organisation oder Dritte einen materiellen oder
immateriellen Schaden zur Folge haben könnten.
Die Inventarisierung betrachtet hierzu die verschiedene Aspekte der
Organisation, um das Risikoinventar möglichst vollständig zu identifizieren:
Werte, sicherheitsrelevante Prozeßwirkungen sowie rechtliche und vertragliche
Schadenspotentiale. Zur Klassifikation materieller und immaterieller
Schadenspotentiale wird ein Verfahren vorgestellt.
2. Praktische Anwendung des Verfahrens
Hier erlernen Sie die Anwendung des vorgestellten Verfahrens.
Konkrete Problemstellung aus der Praxis der Teilnehmer sind willkommen
und werden beispielhaft nach der Mehtodik gemeinsam erarbeitet.
Ziel ist, dieses Verfahren in der eigenen Berufspraxis anwenden zu können.
Sie lernen
- die Funktionsweise und Hintergünde, die Möglichkeiten und Grenzen
des eingesetzten Modells kennen
- wie Sie die Risikokultur und Schutzbedürfnisse Ihrer Organisation in diesem
Modell darstellen
- wie Sie die Auswirkung von verschiedenen IT-Versagensmodi auf Ihre
Betriebsaubläufe modellieren
- die Nutzung zur Untersuchung konkreter Fragestellungen und zur Optimierung
einiger Aspekte des IT-Betriebs
So können etwa aus diesem Risikoinventar an Hand der Schadensklassen
Schutzbedürfnisse und Schutzziele abgeleitet, und das Risikoinventar
auf IT-Komponenten lokalisiert werden. Auf Basis des Expositionsgrads
und des Sicherheitsniveaus der Komponenten gegenüber mutwilligen Angriffen oder
zufälligen Betriebsstörungen wird eine Risikoklassifikation
gewonnen.
Sie erhalten damit eine Datenbasis, welche kontinuierlich weiter gepflegt
werden kann, und Ihnen automatisiert jederzeit Überblick gibt über
- die aktuelle IT-Risikolage des Unternehmens aus Sicht der Geschäftsprozesse und der
Technik
- die Dringlichkeit des Handlungsbedarfs in einzelnen Bereichen
- die Angemessenheit Ihres IT-Sicherheitsbudgets und der Sicherheitsmaßnahmen
- die Angemessenheit und Nachhaltigkeit Ihrer System-Architektur
und des System-Managements
- die Auswirkungen konkreter Sicherheitskrisen, Systemausfälle, ...
Gleichzeitig dient sie als Werkzeug, um verschiedene Sicherheitsarchitekturen
und -maßnahmen vor der Realisierung hinsichtlich ihrer Wirkung und
Kosteneffizienz zu untersuchen und zu vergleichen. Weiterhin läßt sich die
potentielle Wirkung neuer Bedrohungsszenarien genauso untersuchen, wie die
Risikolage neuer Geschäftsprozesse oder die Auswirkungen von
IT-Umstrukturierungen.
Unterschiedliche Risikobewertungen unterschiedlicher Abteilungen, insbesondere
Sicherheits- und Fachabteilung, werden durch das Verfahren transparent.
Neben dem Nutzen der Versachlichung der Diskussion bieten sich sogar
organisatorische Möglichkeiten, Dissens elegant zu regeln.
Inhalt im Einzelnen:
- Was ist Risiko-Inventar?
- Wie identifizieren Sie umfassend das Risiko-Inventar Ihres Unternehmens?
- Bewertung von materiellen und immateriellen Schadenspotentialen
- Bewertung von Eintrittswahrscheinlichkeiten
- Was ist Risiko?
- Lineare und nicht-lineare Risikobewertung
- Warum gerade dieses Modell?
- Modellierung der Abhängigkeiten der Geschäftsprozesse von der IT-Infrastruktur
- Modellierung von Sicherheitsmaßnahmen und Sicherheitsrisiken
- Praktisches Erstellen eines automatisierten Risiko-Inventars
- Praktisches Nutzen des automatisierten Risiko-Inventars
Über den Autor:
Thomas Maus ist Diplom-Informatiker und seit über 10 Jahren
selbstständiger IT-Sicherheitsberater.
|
|
Firewall Technologies with Linux as Case Study von Jos Vos
|
Mittwoch, 10.3., 10:00-18:00
|
|
This tutorial presents an overview of generic firewall theory and
techniques, as well as an overview of the available implementations of
these concepts for the freely available Linux operating
system.
The first part covers firewalls in general. It provides
necessary background information, explains the most commonly used
firewall terminology, and it describes most of the currently known
firewall concepts. Furthermore, the various firewall techniques that
are available (like packet filtering and proxy servers operating on
different levels) are explained and their pro's and con's will be
discussed. Some important aspects for designing firewalls are
explained using some example firewall architectures.
The second part covers the firewall software available for the Linux
operating system. A large number of different software packages for
packet filtering and proxy services will be described, as well as
auxiliary techniques and software, like network address translation,
masquerading, virtual private networks, and various additional tools
that can improve the host and network security using Linux systems.
This part includes an extensive introduction to netfilter/iptables,
the Linux 2.4 packet filtering and address translation software, but
it also talks about less well-known software packages, that are often
not standard available in most Linux distributions. The tutorial will
emphasize on the techniques and tools available in Linux 2.4 and 2.6,
but it also shortly addresses migration from Linux 2.2, as well as
future directions.
Über den Autor:
Jos Vos is CEO and co-founder of X/OS Experts in Open Systems BV. He
has an experience of 20 years in the area of research, development,
and consulting related to UNIX systems software, Internet, and
security. He is the author of ipfwadm and part of the firewall code
in the Linux 2.0 kernel. His company X/OS provides a number of
products and services related to Linux, UNIX and Open Source software,
including firewall and VPN solutions, ranging from small embedded
systems to high-availability server products.
|
|
Mobiler, skalierbarer, sicherer – der neue 2.6er Linux-Kernel für den Produktive von Wilhelm Dolle
|
Donnerstag, 11.3., 11:30-12:15
|
|
Knapp zwei Jahre nach der für den Produktiveinsatz gedachten
Kernel-Linie 2.4 wurde im Dezember 2003 der erste Vertreter der neuen
2.6 Version veröffentlich. Auch wenn sicherlich nach den Erfahrungen
mit den ersten Releases der 2.4er Version nicht sofort an ein
Umstellen von kritischen Systemen zu denken ist, so soll dieser
Vortrag die Neuerungen und Verbesserungen eingehen die für den Einsatz
von Linux in Produktivsystemen eine Rolle spielen werden. Dabei soll
besonderes Gewicht auf die verbesserte Skalierbarkeit auf
Mehrprozessorsystemen (u. a. weiche Echtzeitfähigkeit, neuer
Scheduler, Thread-Modell) und die Sicherheitsfeatures im Kernel
(u. a. volle IPv6-Unterstützung, IPSec) gelegt werden. Auch der
Einsatz auf unterschiedlichen Hardwareplattformen und die erweiterte
Unterstützung von mobilen Geräten wird betrachtet werden.
Über den Autor:
Wilhelm Dolle hat in Bochum studiert, wechselte 1995 zur Promotion
nach Marburg und lebt inzwischen in Berlin. Mit diversen
Computersystemen beschäftigt er sich seit 1985. Hauptsächliche
Schwerpunkte seines Interesses lagen und liegen dabei auf
Netzwerkfähigkeiten und Netzwerksicherheit. Seit 1999 arbeitet er für
die Firma interActive Systems GmbH, leitete dort seit 2000 die
Networking Unit und ist seit August 2003 in der Geschäftsleitung für
den Bereich Information Technology zuständig. Wilhelm Dolle hält in
regelmäßigen Abständen Vorträge über Sicherheit in vernetzten
Systemen, hat einige Fachartikel zu diesen Themen veröffentlicht,
arbeitet als Gutachter bei verschiedenen Verlagen und unterrichtet an
einer Berufsakademie das Fach Netzwerksicherheit.
|
|
Hat E-Mail eine Zukunft? Spam, Filter und die Folgen von Bert Ungerer
|
Donnerstag, 11.3., 11:30-12:15
|
|
Die Flut unerwünschter E-Mails ist derzeit die größte gemeinsame Plage der Internet-Anwender und eine große Herausforderung für Entwickler. Im ständigen Wettstreit mit Filterentwicklern und Anbietern anderer Gegenmittel scheinen die Spammer die Nase derzeit vorn zu haben: Im Verbund mit Würmern und Trojanern bedrohen sie nicht nur die elektronische Post, sondern das Internet insgesamt. Nach DoS-Attacken mussten bereits Betreiber von Blacklist-Servern die Segel streichen.
Verteilte Spam-Angriffe, wie sie zurzeit überhand zu nehmen drohen, lassen sich am besten verteilt abwehren. Mit jeder Spam-Mail, die lokale Filterprogramme einzelner Anwender einfach nur löschen, gehen wertvolle Informationen für die Gesamtheit verloren. Wirkungsvolle Filter müssen über bidirektionale Schnittstellen zueinander verfügen, um zum Beispiel Spam-Prüfsummen und -Gateway-Adressen schnell zwischen allen Mail-Transportsystemen zu verteilen.
Darüber hinaus sind grundsätzliche Ergänzungen oder Änderungen von Internet-Protokollen und -Services wünschenswert, wie sie bereits angedacht sind oder sogar schon existieren (Stichworte: Reverse MX Records, AMTP). Doch schon das Beispiel IPv6 zeigt, wie schwerfällig das Internet auf wichtige Neuerungen reagieren kann.
Bei allen Bemühungen dürften technische Lösungen allein keine Abhilfe schaffen. Bewusstsein und Verhalten der E-Mail-Anwender müssen sich ändern - sowohl auf Seiten der Absender als auch der Empfänger. Ungefragte Werbung an frühere Kunden ist ebensowenig angesagt wie die Weiterleitung privater Witze an die ganze Firma.
Genau hier lauert nach dem Spam die nächste Gefahr: Im Zumüllen des Posteingangs mit E-Mails, die eigentlich nicht erwünscht sind, aber auch kein Spam im heutigen Sinne. An dieser Stelle liegt denn auch die eigentliche Chance für die individuelle statistische Klassifizierung und Vorsortierung von Mails, denn Spam sollte das Mail-Gateway erst gar nicht verlassen.
Es wird vielleicht noch Jahre dauern, bis die Spamwelle verebbt, aber letztlich erfahren das Internet im Allgemeinen und E-Mail im Besonderen einen Entwicklungsschub, von dem Anwender nur profitieren können.
Über den Autor:
Dipl.-Phys. Bert Ungerer (40) ist seit 1989 Redakteur beim Heise-Verlag (zunächst bei c't, seit 1996 bei iX). E-Mail ist für ihn die erste und bis heute mit Abstand wichtigste Internet-Anwendung.
Unter anderem zur Verteidigung gegen unerwünschte E-Mails startete er 2002 die Entwicklung eines eigenen Filters. Das Procmail-Script bewahrt mittlerweile diverse Verlagsmitarbeiter vor Spam, sortiert Pressemitteilungen und beantwortet E-Mails bei Bedarf automatisch. Ungerers Fazit: "Die Inhaltsanalyse ist viel zu schade, um nur Müll auszusortieren."
Eine veröffentlichte Version des Filters steht inzwischen iX-Lesern für den Einsatz auf dem eigenen Gateway zur Verfügung. Aber auch Entwickler und Anwender anderer Filter können vom iX-Projekt profitieren: Die Filterelemente lassen sich per Autoresponder testen, und eine automatisch generierte, laufend aktualisierte "temporäre schwarze Liste" demonstriert das Ausmaß der Bedrohung durch verseuchte "Zombie"-Gateways.
Zeitschriftenartikel des Autors zum Thema finden sich in iX 5/2003, S. 58, und iX 11/2003, S. 123.
|
|
Linux-Kernel 2.6 Inside Out: Interne Strukturen prägen Admin-Interfaces von Jürgen Quade
|
Donnerstag, 11.3., 12:15-13:00
|
|
Die neueste Generation des Linux-Kernels zeichnet sich
gegenüber dem Vorgänger sowohl durch eine Reihe
nützlicher und interessanter Features, als auch durch eine
intensive Überarbeitung interner Strukturen und
Subsysteme aus.
Diese Modifikationen innerhalb des Kernels sind aber
nicht rückwirkungsfrei für den Administrator und den
Anwender. An vielen Stellen begegnen ihm neue Komponenten
und Abläufe. Der Vortrag stellt hiervon die
Wichtigsten vor.
Die Überarbeitung beispielsweise des Kernel-Build-Systems
führt dazu, dass Module nicht mehr die Dateierweiterung
".o", sondern die Erweiterung ".ko" tragen. Hinter der
neuen Namensgebung steckt ein Verfahren, um die Versionen
von Kernel, Compiler und Modul genauer aufeinander
abzustimmen.
Auch das Laden von Modulen ist überarbeitet worden. Die
Folge: Neue, vor allem aber schlankere "Modutils" werden
benötigt. Zudem haben sich die Verfahren, Module
automatisiert zu laden, geändert (Stichworte hier
"modprobe" und "hotplug").
Kurz vor Veröffentlichung der ersten Kernel-Version 2.6.0
hat Torvalds noch die seit den Anfängen von Unix
bekannten Majornummern durch Gerätenummern ersetzt. Damit
wird die Limitierung auf 256 Geräte pro Treiber
aufgehoben.
Und als wesentliche Neuerung haben die Entwickler ein
Gerätemodell eingeführt. Mit dem Gerätemodell kommt der
Administrator über das Sys-Filesystem in Kontakt. Dieses
bietet ihm die vielfältigsten Möglichkeiten zur
Konfiguration und Zustandserfassung. In Verbindung mit
dem Hotplug-Mechanismus wird es in naher Zukunft auch
genutzt werden, um das so genannte Device-Filesystem
abzulösen.
Gerätenummern und Gerätemodell sind Elemente des Kernels mit
besonderem Zukunftspotenzial. Dass diese in kommenden
Kernelversionen eine zentrale Rolle spielen werden, steht
außer Frage und soll beleuchtet werden.
Über den Autor:
Nach Studium, Promotion und Industrietätigkeit ist Jürgen Quade heute
an der Hochschule Niederrhein im Bereich von Echtzeitsystemen,
Embedded Linux und Netzwerksicherheit tätig.
Mit Kernel 2.6 (respektive 2.5) beschäftigt sich der Autor
seit mehr als 1 1/2 Jahren. Über den Kernel veröffentlicht
er als Co-Autor regelmässig Fachaufsätze und über die
Entwicklung von Treibern erscheint demnächst ein Buch.
|
|
Emulation von Testnetzwerken mit User-Mode-Linux von Ralf Spenneberg
|
Donnerstag, 11.3., 12:15-13:00
|
|
Dieser Vortrag beschreibt die Emulation von ganzen Netzwerken mit Hilfe von User-Mode-Linux (UML). UML ist ein spezieller Linux-Kernel, der auf einem laufenden Linux-System booten kann und ein neues virtuelles System zur Verfügung stellt. Ursprünglich für die Vereinfachung der Entwicklung von Kernelmodulen gedacht, erlaubt UML heute auch den Aufbau von von virtuellen Netzen eigenständigen virtuellen Rechner, auf denen das Linux Betriebssystem läuft. Dabei stellt UML sämtliche Netzwerkfunktionen zur Verfügung.
Ähnlich dem kommerziellen Produkt VMware kann das Open Source Produkt UML daher genutzt werden um verschiedene Applikationen auf einzelnen getrennten virtuellen Systemen laufen zu lassen oder um Testnetzwerke zu simulieren.
Einige Firmen bieten sogar inzwischen Hosting-Lösungen auf dieser Basis an.
Der Vortrag wird UML und seine Netzwerkfunktionen vorstellen und praktisch demonstrieren.
Über den Autor:
Der Autor setzt Linux seit etwa 8-9 Jahren privat ein. Seit etwa 4 Jahren ist er professionell im Linux/UNIX Umfeld als freiberuflicher Trainer für unterschiedliche Firmen tätig. Dabei setzt er seinen Schwerpunkt bei Netzwerkanwendungen und Sicherheit (Firewalls, Intrusion Detection, Penetration Testing) und hat hier auch bereits einige Kurse (unter anderem für Red Hat) entwickelt. Als Referent wurde er bereits vom Linuxtag, dem LinuxKongress, der SANS und dem Frühjahrsfachgespräch eingeladen. In dem letzten Jahr war er Mitglied des Programmkommitees des Linuxkongresses und des FFG. Im Dezember 2002 veröffentlichte er sein erstes Buch "Intrusion Detection Systeme für Linux-Server". Im November 2003 erschien sein zweites Buch "VPN mit Linux".
|
|
Bluetooth und Linux von Marcel Holtmann
|
Donnerstag, 11.3., 14:30-15:15
|
|
Das Jahr 2004 wird den endgültigen Durchbruch für die Bluetooth
Technologie bringen. Die Preise für Bluetooth fähige Endgeräte
fallen und es gibt immer mehr Anwendungen die Bluetooth
unterstützen. Langsam aber stetig dringt diese Technologie in den
Alltag ein. Und wie so oft spielt Linux bei der Umsetzung neuer
Technologien eine sehr wichtige Rolle. Den offiziellen Bluetooth
Support für Linux gibt es schon seit Mai 2001 und alle grossen Linux
Distributionen bringen mittlerweile Bluetooth Unterstützung von Haus
aus mit. Mit dem BlueZ Projekt steht eine freie Implementierung der
Bluetooth Spezifikation zur Verfügung, die den kommerziellen
Varianten in nichts nachsteht.
Der Vortrag gibt einen Einblick
in den Aufbau von Bluetooth und dessen Protokollstack. Es wird gezeigt,
wie diese Protokolle und auch die Anwendungsprofile in Linux umgesetzt
und nahtlos in andere Teilbereiche von Linux integriert wurden. Des
weiteren wird auf die Bluetooth Funktionen für den täglichen
Gebrauch eingegangen. Hierzu zählt die Einwahl ins Internet über
Handy und ISDN und das Aufbauen von kleinen Bluetooth Netzwerken. Aber
auch das Drucken über Bluetooth und die Benutzung von drahtlosen
Tastaturen und Mäusen ist ein zentraler Punkt.
Ein grosses Ziel
von Bluetooth ist es vorhandene Standards zu benutzen und einfach zu
integrieren. Genau dieses ist auch eines der obersten Ziele von BlueZ
und so wird in vielen Bereichen auf die etablierten Programme und
Module gesetzt um diese dann mit Bluetooth zu erweitern. Bekannte
Beispiele hierfür sind OpenOBEX, Gnokii, CUPS, CAPI und auch HID.
Über den Autor:
Marcel Holtmann ist einer der beiden Hauptentwickler des offiziellen
Linux Bluetooth Stacks BlueZ (www.bluez.org)
und arbeitet dabei am Kernel Code so wie auch an der Bluetooth Library und den Tools. Des
weiteren betreut er auch das OpenOBEX Projekt und hilft anderen
Entwicklern die Bluetooth Technologie in ihre System zu integrieren.
|
|
IPv6: Mehr als ein größerer Adressraum von Benedikt Stockebrand
|
Donnerstag, 11.3., 14:30-15:15
|
|
Die Diskussion, ob IPv6 tatsächlich nötig oder doch nur eine Spielerei
von weltfremden Tekkies ist, wird fast ausschließlich um den
vergrößerten Adressraum herum geführt, oft genug mit Pseudoargumenten,
die stark an "640 KByte sind genug für jeden" (Bill Gates, 1981)
erinnern. Dabei werden andere wichtige Verbesserungen, die IPv6
bietet, genauso vernachlässigt wie die Frage, welchen Nutzen dieser
große Adressraum als solcher bietet.
Zwei große Vorteile von
IPv6 sind vereinfachte Konfiguration und höhere
Zuverlässigkeit:
Anders als ARP in Ethernet-basierten
IPv4-Netzen verhindert IPv6 während der Konfiguration
Adresskollisionen, während ARP blind darauf vertraut, daß die
Netzwerkkartenhersteller jede Ethernet-Adresse nur einmal
vergeben.
Mit den langen Adressen wird es praktikabel, die
Subnetzgröße /64 fest vorzugeben. Innerhalb eines Subnetzes generiert
IPv6 aus jedem gegebenen Netzwerk-Prefix, das es von einem
erreichbaren Router erfragt, und seiner 48 Bit langen Ethernet-Adresse
eine IPv6-Adresse. Auf DHCP oder statisch konfigurierte
Netzwerkparameter kann IPv6 also verzichten.
Wenn Router mehrere
Netzwerk-Prefixe verkünden, wird zu jedem Prefix eine IPv6-Adresse
konfiguriert. Unkontrollierte DHCP-Server können deshalb keinem
Rechner seine "richtige" Adresse
überschreiben.
Routing-Informationen liegen ausschließlich auf
den Routern. Normale Hosts schicken (etwas vereinfacht) alle Pakete,
die sie nicht direkt ausliefern können, an den nächsten erreichbaren
Router und brauchen deshalb keine eigene Routing-Konfiguration
mehr.
Mit dieser automatisierten Konfiguration werden einige
administrative Aufgaben erheblich einfacher, was interessante
Möglichkeiten eröffnet:
Müssen in IPv6-Netzen die Adressen zum
Beispiel bei einem Providerwechsel geändert werden, lassen sich im
laufenden Betrieb die neuen als zusätzliche Adressen einrichten, so
daß die alten Adressen allmählich "aussterben" können.
Network
Appliances können so auch ohne technisches Know-How in
Plug-and-Play-Manier in Betrieb genommen werden. Das senkt die gerne
zitierte "Total Cost of Ownership" pro Netzkomponente und macht damit
IP-Telefone, netzwerkgesteuerte Lichtschalter und Thermostatventile
und viele andere Kleinigkeiten bei ständig sinkenden Hardwarekosten
zunehmend interessant.
Einige neue Features wurden bei IPv6
sauber integriert, während sich die IPv4-Welt hier mit eingeschränkten
Lösungen behelfen muß:
Mobile IP erlaubt es, auch bei ständig
wechselnden Netzwerkverbindungen existierende TCP-Verbindungen nahtlos
aufrechtzuerhalten. Egal ob ich mich mit meinem Notebook oder PDA nur
von meinem Büro in einen Besprechungsraum bewege oder quer durch
Deutschland fahre, ich muß mich nirgends ab- und anderswo wieder
anmelden, muß nur soweit über Ethernet, DSL, UMTS, GPRS oder WLAN
nachdenken, wie ich das Gerät physikalisch einstöpseln muß oder
Performance-Fragen relevant sind.
Mit Ressource Reservation
(RSVP) kann ich für einzelne Verbindungen Bandbreite reservieren und
Quality-of-Service-Merkmale festlegen, womit IPv6 Aufgaben von
spezialisierten Bus-Systemen übernehmen kann.
Ein letztes
Scheinargument, das in der Diskussion um IPv4 oder IPv6 oft angeführt
wird, ist die Behauptung, daß eine Migration zu aufwendig ist und man
den Betrieb dafür nicht stillegen kann, obwohl IPv4 und IPv6
problemlos im gleichen Netz parallel zu betreiben sind und die IETF
konsequent auf zuverlässige Migrationspfade geachtet hat.
Über den Autor:
Der Autor ist Dipl.-Inform. und freischaffender Systemarchitekt im
Unix- und TCP/IP-Umfeld.
Er unterstützt IT-Projekte dabei,
Software auf real existierender Hardware in real existierenden
Rechenzentren in einen effizienten und zuverlässigen Betrieb zu
nehmen, bringt die Infrastruktur von Rechenzentren auf den Stand der
Technik und führt die IT-Bausünden der New Economy in die
betriebwirtschaftliche Realität.
Neben den dabei relevanten
technischen Themen, insbesondere Performance, Hochverfügbarkeit und
Skalierbarkeit, interessiert ihn auch die dazugehörige
Betriebsorganisation und die Schulung und das Coaching der Mitarbeiter
im IT-Betrieb.
Wenn er sich nicht gerade mit IPv6 beschäftigt,
tauchen geht oder mit dem Fahrrad Kontinente sammelt, ist er unter
stockebrand@guug.de und http://www.benedikt-stockebrand.de/ zu erreichen.
|
|
Building a free enterprise Linux using the RHEL sources von Jos Vos
|
Donnerstag, 11.3., 15:15-16:00
|
|
This talk will share experiences rebuilding the Red Hat Enterprise
Linux 3 source rpm's to create X/OS Linux, a free enterprise-class
Linux distribution.
The technical issues and caveats will be discussed, as well as the
motivation behind this effort and some of the legal aspects involved.
Über den Autor:
Jos Vos is CEO and co-founder of X/OS Experts in Open Systems BV. He
has an experience of 20 years in the area of research, development,
and consulting related to UNIX systems software, Internet, and
security. He is the author of ipfwadm and part of the firewall code
in the Linux 2.0 kernel. His company X/OS provides a number of
products and services related to Linux, UNIX and Open Source software,
including firewall and VPN solutions, ranging from small embedded
systems to high-availability server products.
|
|
mini_sendmail, nullmailer & friends - Alternative für Workstations von Ignatios Souvatzis
|
Donnerstag, 11.3., 15:15-16:00
|
|
Das originale Berkeley-Sendmail - bzw. sein aktueller Nachfolger - gilt als monolithisch, unübersichtlich und fehleranfällig. Der heutige Systemadministrator muss sich also nach Alternativen umsehen - aber auch bei diesen müssen wir jederzeit bereit sein, kurzfristig eine neue Version einzuspielen, um Sicherheitslücken zu schliessen.
Schön wäre es daher, eine kompakte Alternative für den Einsatz auf Workstations zu haben, welche auch bei Fehlkonfiguration keine Spams von außen annimmt und auch bei einem Buffer-Overflow das System oder Daten unbeteiligter Benutzer nicht angreift.
Vielfach wird das schon dadurch implementiert, dass die Benutzer die e-mail- Funktion eines Webbrowsers benutzen, der üblicherweise per SMTP direkt an einen getrennten MTA ausliefert. Dies hilft jedoch nicht, wenn ein Programm oder ein alteingesessener Unix-Benutzer ihre E-mail verschicken wollen - hier wird vielfach ein Programm erwartet, das sich wie das Berkeley-Sendmail verhält.
Weniger als Jef Poskanzers "mini_sendmail" kann man gar nicht machen: es liefert die Standardeingabe per SMTP bei einem Smartmailer ein und meldet per Exit Code Erfolg oder Misserfolg. Keinerlei Privilegien (außer Öffnen einer TCP-Verbindung und Lesen der Standardeingabe) sind notwendig.
(Weitere Pakete mit ähnlichen Eigenschaften - aber bedingt durch u. a. SSL- Support mit doppelt so grosser Binärprogrammgröße - sind "msmtp" und "ssmtp".)
"mini_sendmail" braucht daher kein Spoolverzeichnis und ist besonders gut geeignet für plattenlose Clients, oder Rechner, die von einer Flashplatte laufen. Es kann auch aus einem chroot-Käfig heraus Mail an den MTA auf dem uneingeschränkten Filesystem liefern - das ist oft nötig, wenn Dienstprogramme dort erwarten, über die traditionelle Sendmail-Schnittstelle Meldungen an die Administratoren zu schicken.
"mini_sendmail" hat jedoch auch Nachteile. Heutzutage sind die Benutzer nicht daran gewöhnt, von ihrem Mailsystem wegen eines tempörären Ressourcenengpasses eine Fehlermeldung zu bekommen; ein lokaler Spoolbereich auf dem Client ist also doch empfehlenswert. Dazu kommt die sehr minimalistische Implementierung der recht ausufernden Kommandozeilenoptionen des Berkeley-Sendmail, die immer wieder zu neuen Patches an "mini_sendmail" zwingt.
Will man also nicht zur "nullclient"-Konfiguration von Sendmail oder einer äquivalenten Konfiguration von postfix, Exim, etc. greifen, so muss ein spezialisiertes Programm gefunden werden. Stellvertretend hierfür soll der Einsatz von "nullmailer" beschrieben werden. "Nullmailer" benutzt einen lokalen Spool-Bereich, der nur von einer speziellen Userid beschrieben werden kann; seine Injektorkomponente läuft mit setuid-Bit (auf diese User-ID). Ein Daemon liest die Spooldateien und versucht sie wiederholt (je nach Konfiguration über ein SMTP- oder ein QMQP-Backend) auszuliefern.
Nullmailer ist also für Workstations mit echten Festplatten geeignet und kann für diese temporäre Überlastungen des Mailservers abfedern.
Der Vortrag stellt die genannten Programmpakete vor und vergleicht Konfiguration und Anforderungen.
Über den Autor:
Ignatios Souvatzis ist "Systemprogrammierer" (in Wirklichkeit eine Kombination eines Systemadministrators, eines Bandoperators, eines Kernelhackers und eines Benutzerberaters) in der Abteilung V des Instituts für Informatik der Universität Bonn. Er glaubt, den ersten WWW- Server an seiner Universität - jedenfalls aber in der Informatik - eingerichtet zu haben und weiß rückblickend nicht, ob er es nicht bedauern sollte.
Er ist außerdem ein NetBSD- Entwickler und war dort hauptsächlich für einige Gerätetreiber, das neue ARP-Subsystem und den Amiga-Port verantwortlich.
Er schrieb Beiträge über Unix-Anwendungen und -Administration für verschiedene Zeitschriften und ist Co-Autor je eines Buches über FreeBSD- und NetBSD- Systemadministration.
Unix lernte er in seinem zweiten Studienjahr (Physik und Astronomie0 in einer kleinen Softwarefirma auf einem Z8000- System kennen. Später kamen - neben diversen Nicht-Unizes - Ultrix auf DECstation 2100 bis 5000/260, ConvexOS auf Convex C1, AIX 2.2.1 (IBM RT), SunOS 4 und SunOS 5.x (Sparc) dazu.
|
|
Linux-Cluster: Prinzipien und Anwendungen von Christoph Herrmann
|
Donnerstag, 11.3., 16:30-17:15
|
|
In diesem Übersichtsvortrag zum Thema Linux-Cluster werden die drei
grundsätzlichen Anwendungsbereiche Hochleistungsrechner
"High-Performance-Computing" (HPC), Hochverfügbarkeit "High
Availability" (HA) und Lastverteilung "Load-Balancing" vorgestellt. Es
wird gezeigt, wie diese Anwendungsbereiche mit Linux und weiteren
Software- und Hardware-Komponenten abgedeckt werden können. Dazu gibt
es einige Fallbeispiele aus der Praxis von science + computing.
Über den Autor:
Christoph Herrmann, Jahrgang 1969, studierte Physik an der TU-Berlin.
Danach arbeitete er 1.5 Jahre als Lehrer und Systemadministrator im
Lette-Verein in Berlin.
Seit 1999 ist er bei der science + computing ag beschäftigt.
Dort ist er hauptsächlich für Design und Betrieb großer heterogener
Rechnernetze verantwortlich, wobei er hier in zunehmendem Maße mit
Linux-Clustern arbeitet.
In seiner Freizeit beschäftigt er sich am liebsten mit FreeBSD, und
hat auch schon in begrenztem Umfang selber für FreeBSD programmiert.
|
|
Einsatz von Squid Proxyservern von Dirk Dithardt
|
Donnerstag, 11.3., 16:30-17:15
|
|
Das World Wide Web ist aus dem Internet praktisch nicht mehr
wegzudenken. Häufig wird sogar schon das Internet mit dem WWW gleich
gesetzt. Das Datenvolumen des WWW steigt stetig und exponentiell, die
Angebote werden immer vielfältiger - in alle Richtungen. Zu einer
geregelten und ressourcenschonenden Kommunikation im WWW können
Proxy-Server einen erheblichen Beitrag leisten. Durch eine
intelligente Cache-Funktion können sie das Datenvolumen beachtlich
senken, durch Access-Regeln können Zugriffe gezielter gesteuert oder
gar beschränkt werden und durch Ihre eigentliche Proxy-Funktion tragen
sie auch zur Sicherheit von Clients oder Webservern bei.
Squid
ist der wohl bekannsteste und am häufigsten eingesetzte Proxy-Server
auf Unix-/Linux-Systemen. Durch seine gute Skalierbarkeit und den
vielfältigen Konfigurationsoptionen eignet er sich sowohl für kleine
lokale Installationen wie auch für große Proxy-Verbünde in
Weitverkehrsnetzen.
Nach einem kurzen Abriss über die Funktion
von Poxy-Servern im Allgemeinen und den Leistungsmerkmalen von Squid,
wird am einem praktischen Beispiel der Einsatz von Squid in einem
größeren Netzwerk beschrieben. Neben der konzeptionellen Planung wird
schwerpunktmäßig die praktische Umsetzung und Konfiguration eines
Verbundes von mehreren Proxyservern vorgestellt. Themen wie
Lastverteilung, gemeinsamer Cache, Zugriffsregelung, Zugriff auf
mehrere getrennten Netze und Ausfallsicherheit, werden genau so
angesprochen, wie konkrete Konfigurationsbeispiele und mögliche
Stolpersteine. Weitere Einsatzgebiete wie "reverse Proxy" oder
"transparent Proxy" soviel Delay Pools werden kurz angeschnitten.
Nach einem Ausflug in die Access-Listen und -Regeln von Squid wird mit
den Möglichkeiten zur Überwachung des laufenden Betriebs und der
Fehlersuche abgeschlossen.
Über den Autor:
Dirk Dithardt ist bei der Niedersächsischen Landesverwaltung
beschäftigt. Schwerpunkte seiner Arbeit sind Intranet- und
Internet-Dienste, wie DNS, Web und Proxy. Im Besonderen beschäftigt er
sich mit dem zentralen Proxyserver und Webfilter für die rund 2.000
Dienststellen der Landesverwaltung und ihrer 40.000 Nutzer. Auf seiner
Website www.squid-handbuch.de veröffentlicht er neben einem
Online-Handbuch auch eine im Aufbau befindliche deutsche FAQ zu Squid.
|
|
Entwicklung hochverfügbarer Systeme - von der Organisation bis zur Technik von Kai Dupke
|
Donnerstag, 11.3., 17:15-18:00
|
|
Hochverfügbare Systeme stellen eine Herausforderung für jeden IT-Verantwortlichen dar. Während es mittlerweile Produkte und Lösungen für fast jedes System gibt, sind Konzepte und Herangehensweisen kaum vorhanden.
Im Rahmen dieses Vortrages werden verschiedene Blickwinkel zum Thema hochverfügbarer Systeme aufgezeigt. Hierbei liegt der Schwerpunkt auf der Darstellung der technischen Risiken und möglicher Lösungen. Besonderer Augenmerk wird der Suche nach single points of failure (SPoF) gewidmet, zu denen der Referent neben den technischen Einrichtungen auch das organisatorische Umfeld zählt.
Im Rahmen des Vortrages werden die folgenden Punkte behandelt:
- Systemanalyse und -darstellung
- Kommunikationswege
- Schwachstellenanalyse
- Risikobewertung
- Konzepte zur Vorbeugung bzw. Vermeidung von SPoFs
- Vorraussetzungen für funktionierende HA-Systeme
- Eigenarten der Projektabwicklung bei HA-Systemen
Über den Autor:
Kai Dupke ist seit Anfang 2000 bei der probusiness AG, Hannover, für den Geschäftsbereich Linux zuständig. Als Projektberater unterstützt er darüber hinaus Kunden bei der Erstellung von Backupkonzepten und Hochverfügbarkeitslösungen. Zuvor hat er als freier Systemberater kaufmännische Komplettlösungen in Industrie und Handel implementiert und betreut. Kai Dupke beschäftigt sich seit 1992 mit Linux, hat in den Bereichen ISDN und Portierung auf die Alpha-Plattform mitgewirkt. Er ist Inhaber einer RHCE-Zertifizierung und schreibt seit 1996 Artikel in diesem Bereich für die Zeitschrift iX und das Linux-Magazin. Kai Dupke tritt auch als Referent auf und hat als solcher an der CeBIT 2001, den Linux-Tagen 2001 und 2003 sowie der Linuxworldexpo 2003 teilgenommen.
Kai Dupke ist 36 Jahre als, in Wuppertal geboren und lebt seit 1989 in Hannover.
|
|
Storage mit AFS und Samba von Volker Lendecke
|
Donnerstag, 11.3., 17:15-18:00
|
|
In Zeiten wirklich großer Mengen an Plattenplatz, die es
zu verwalten gibt, kommt man um eine Verteilung desselben
im Netzwerk nicht herum. Sei es SAN oder NAS oder eine
beliebige Zwischenform, Speicher wird heutzutage immer
weiter virtualisiert.
Das Andrew File System ist ein Netzwerkdateisystem, das für
große Umgebungen entworfen wurde. Diese Fokussierung
auf Skalierbarkeit bringt einen höheren initialen
Aufwand bei der Installation und eine teilweise etwas
gewöhnungsbedürftige Semantik mit sich. Diese Hürden
zahlen sich jedoch mehr als aus, da AFS bei großen und
vielen Servern sehr viel besser zu handhaben ist als
beispielsweise NFS.
In letzter Zeit sind im Rahmen des Samba-Projektes einige
Erweiterungen entstanden, mit denen sich AFS besser
und reibungsloser in aktuelle Umgebungen integrieren
lässt. Dieser Vortrag wird die neuen Möglichkeiten
theoretisch vorstellen und praktisch zeigen.
Einer der großen Vorteile von AFS gegenüber NFS ist die
Authentifizierung der Benutzer gegenüber dem Server. Ein
NFS-Server vertraut dem Client, dass dieser die Benutzer
authentifiziert hat. Bei AFS muss sich jeder Benutzer
zunächst ein Kerberos-Ticket verschaffen, das er dem Kernel
übergibt, um auf Dateien zugreifen zu können. Dazu benötigt
er das Klartextpasswort.
Wenn man mit Samba AFS-Dateisysteme an Windows-Clients
exportieren möchte, muss sich Samba anstelle des Benutzers
ein Ticket verschaffen. Jedoch hat Samba grundsätzlich
keinen Zugriff auf das Klartextpasswort des Benutzers. Der
Vortrag wird grundsätzliche Lösungen für dieses Problem
aufzeigen, und den Weg, den Samba gewählt hat, beschreiben.
AFS pflegt eine eigene Benutzer- und
Gruppendatenbank. Diese ist unabhängig von der Unix- oder
NT-Benutzerdatenbank. Wenn man einen AFS-Server in einer
Unix- oder Windows-Welt betreiben möchte, muss man alle
Benutzer und Gruppen doppelt pflegen: Einmal in der Unix-
oder Windows-Welt und einmal im AFS.
Die AFS-Benutzerdatenbank ist im ptserver oder Protection
Server implementiert. Die wesentlichen Operationen, die AFS
vom ptserver benötigt, sind die Umsetzung von Namen in IDs
und umgekehrt, und die Abfrage einer Liste von Gruppen,
in denen ein Benutzer Mitglied ist. Diese Operationen
können mit dem Programm ptproxy an einen Winbind-Dämon
weitergeleitet werden, so dass keine separate Pflege der
Benutzerdatenbank notwendig ist. Der Vortrag wird die
Benutzung des ptproxy zeigen.
AFS hat eine eigene Vorstellung davon, was eine Access
Control List ist. Ein wesentliches Feature von Samba 2.2
war, die Posix-ACLs im exportierten Unix-Dateisystem
mit dem entsprechenden Windows-GUI ansehen und ändern
zu können. Mit dem Modul vfs_afsacl gibt es nun die
Möglichkeit, auch die weiter gehenden AFS-Acls von Windows
aus zu bearbeiten.
Über den Autor:
Tja, Selbstlob :-)
Also: Ich bin seit Linux-Kernel 2.0 (oder 1.2??) im Credits-File für das smbfs und ncpfs, die Anbindungen an Windows- und Novell-Server. Seit 1997 habe ich daran aber nichts mehr gemacht, sondern habe mich eher der Serverseite zugewandt.
Seit 1994 bin ich Mitglied im Samba-Team und in Deutschland ziemlich viel im Consulting, Training und so weiter unterwegs. Dabei finde ich eine Menge Bugs und notwendige Features, die ich nach Möglichkeit implementiere.
In letzter Zeit bastele ich für IBM im Rahmen des Stonehenge-Projektes an der Integration von Samba und AFS und letztlich auch an der Verbesserung von AFS.
1997 habe ich in Göttingen mein Mathe-Diplom gemacht und ein halbes Jahr vorher zusammen mit 3 anderen die Service Network GmbH gegründet. Wir sind jetzt 20 Leute und leben vornehmlich von Infrastruktur-Dienstleistungen. Firewalls, VPN und seit ein paar Jahren auch deutlich zunehmend Samba.
|
|
Warum wird der IT-Betrieb trotz aller Sparbemühungen immer teurer? von Thomas Maus
|
Freitag, 12.3., 9:00-10:15
|
|
"Was wollen Sie denn, es funktioniert doch (noch)!?!"
Warum konnten noch vor einem Jahrzehnt 5 Leute 7x24h über 5000 Benutzer
und mehrere UNIX-Großrechner sowie hunderte kleiner Server stressfrei
betreiben, und zwar Betriebssystem, Middleware, User und Anwendungen?
Und warum explodieren heute der Administrationsaufwand und die Kosten,
und manchmal auch die Administratoren und Manager?
Wie konnte es soweit kommen?
Ist diese Entwicklung zwangsläufig?
Wie - vor allem - kehren wir diesen Prozeß wieder um?
Der Vortrag beschreibt an anschaulichen Beispielen, wie es soweit
kommen konnte, und zählt typische Ursachen mit hohem Wiedererkennungswert
für diese Entwicklung auf.
Problem erkannt - Problem gebannt?
Noch nicht ganz: Es wird erläutert, wie die Kosten in Relation zum mit
der IT erzeugten Nutzen und zum in der IT aufgebauten Wert gesetzt
werden können, sowie Ansätze vorgestellt, wie - um den Preis eines
mehr oder minder großen Paradigmenwechsel - die Ursachen der
Fehlentwicklung eingedämmt und wieder wirksame Kontrolle über die
eigene IT und ihre Kosten, ihren Nutzen und ihren inneren Wert (oder
auch Hypothek) gewonnen werden kann.
Über den Autor:
Thomas Maus ist Diplom-Informatiker und seit über 10 Jahren
selbstständiger IT-Sicherheitsberater.
|
|
Sicherheit von SAP-Systemen von Alexander Geschonneck
|
Freitag, 12.3., 10:15-11:00
|
|
- SAP-Landschaften: das vergessene Risiko
- Warum werden die meisten SAP-Systeme unsicher installiert
- Standard Software - Standard Fehler!?
- Überblick über die zwingenden Sicherheitsmassnahmen
- Gefährdungen an der Internetschnittstelle (ITS, WAS, mySAP.com)
- Angriffsbeispiele
Über den Autor:
Alexander Geschonneck ist leitender Sicherheitsberater bei der
HiSolutions AG in Berlin. Seit 1993 ist er branchenübergreifend im
strategischen und operativen IT-Sicherheitsumfeld tätig. Er ist Autor
des im Februar 2004 erscheinenden Buches
"Computer-Forensik. Systemeinbrüche
erkennen, ermitteln, aufklären"
(dpunkt.verlag), Mitautor des IT-Grundschutzhandbuches des Bundesamtes
für Sicherheit in der Informationstechnik und schreibt für die "iX"
sowie andere Fachzeitschriften. Seine Arbeitsgebiete sind
u.a. Beratung im Umfeld der Informationssicherheit, Aufbau und
Coaching von IT-Sicherheitsmanagementteams, Risiko- und
Sicherheitsanalysen, Notfallplanung, Penetrationstests sowie
Sicherheitsvorfallsbehandlung.
|
|
Publishing mit XML: Workflow und Tools von Jochen Hein
|
Freitag, 12.3., 10:15-11:00
|
|
Die Themen XML (extensible Markup Language) und XSL (...)
sind seit einiiger Zeit in aller Munde. Häufig werden diese zum
Austausch von (strukturierten) Daten verwendet. Diese können
maschinell auf Wohlgeformtheit und/oder Validität geprüft werden.
Einige CMS setzen ebenfalls auf XML auf, einige Webseiten verwenden
XHTML. Warum ist aber XML auch zum Publishing interessant?
Zunächst erhält man, zum Beispiel mit DocBook, eine Dokumentenstruktur,
die unabhängig von jeglicher Darstellung ist. Die verfügbaren Tools
können die Dokumente dann in verschiedene Ausgabe-Formate konvertieren.
Dazu dienen XSL-Stylesheets.
Warum DokBook? Ausgefeilte, stabile und verbreitete DTD. Diese kann
für Artikel, Bücher oder Manual-Pages verwendet werden. Erweiterungen
und Anpassungen für Webseiten oder Präsentationen sind ebenfalls
verfügbar.
Zum Editieren kann ein beliebiger Editor verwendet werden (Emacs und VIM
enthalten spezielle Modes für XML), es sind aber auch spezialisierte
Editoren verfügbar. DocBook kann auch mit Abiword und/oder OpenOffice
verwendet werden.
Frei verfügbare Stylesheets konvertieren DocBook/XML in HTML, FO und
RTF. Aus dem FO-Format kann mittels FOP oder passivetex PS/PDF
erzeugt werden. Damit sind alle wesentlichen Formate in passabler
Qualität generierbar. Der Vortrag wird die verschieden Formate und
Tools vorstellen und die verschiedenen Konvertierungen mit Vor- und
Nachteilen beschreiben.
Manche Verlage verwenden eine eigene DTD, so zum Beispiel Pearson.
Diese ist teilweise der Struktur von DocBook sehr ähnlich. Zur
Abgabe des Manuskriptes in der Pearson-DTD muss jedoch eine
Konvertierung erfolgen - dazu kann ein eigenes XSL-Stylesheet erstellt
werden. Für Probeausdrucke sollte dann allerdings nicht das DocBook-
Dokument gedruckt werden, sondern das bereits konvertierte - einfach
um Konvertierungsfehler erkennen zu können.
Vorteile?
- Standardformat, stabil, freie Tools verfügbar, aktive Meintainer,
Mailingliste, Versionsverwaltung
Nachteile?
- langsame und aufwändige Konvertierung, freie Tools haben gelegentlich
schwächen, Verlags-DTD inkompatibel
Über den Autor:
Jochen Hein ist Autor für Addison-Wesley, nach drei Auflagen in LaTeX
ist die vierte Auflage in XML konvertiert und durch einen professionellen
Setzer gesetzt. Der Vortrag wird von den Erfahrungen beim Publishing
mit XML/XSL berichten.
1988 wurde der Referent als SAP R/2 Basisbetreuer in einem Zeitungsverlag.
Im Rahmen des Studiums der Informatik an der TU Clausthal lernte er
im Jahr 1992 Linux kennen und schätzen und ist seitdem in der Community
aktiv. Neben verschiedenen Beiträgen zu Projekten gründete er den
Linux-Stammtisch in Clausthal und die Linux-User-Group Kassel mit.
Heute arbeitet er als SAP R/3 Basis Berater bei der Firma SerCon GmbH
und hält dort außerdem Schulungen zum Thema Linux, Oracle und SAP.
|
|
Zentrale Benutzerauthentifizierung mit NIS und Kerberos von Thorsten Scherf
|
Freitag, 12.3., 11:30-12:15
|
|
Die Benutzerverwaltung in einem großen Netzwerk nimmt eine zentrale Rolle ein. Im Vortrag möchte ich ein Beispiel für eine recht einfache Lösung aufzeigen. Es geht um den Network Information Service, auch unter dem Namen NIS bekannt, und um das Authentifizierungsprotokoll Kerberos.
Mit Hilfe von NIS werden Benutzerinformationen wie beispielsweise die User-ID, Gruppen-ID, Homeverzeichnis und Login-Shell zentral auf einem Rechner bereitgestellt und verwaltet.
Jede Workstation die Teil derselben NIS-Domäne ist wie der NIS-Server kann auf die Informationen, die der Server bereitstellt, zugreifen. Zur eigentlichen Authentifizierung wird Kerberos in der Version 5 verwendet, da es um einiges sicherer ist, als die Authentifizierung über NIS vorzunehmen.
Kerberos ist ein Ticket basiertes Authentifizierungsprotokoll. Es hat den Vorteil, das ein Benutzerpasswort niemals über das Netzwerk übertragen werden muss. Es schützt somit vor ungewollten Netzwerksniffing. Außerdem bietet es den Vorteil, das ein Client sich in einer Netzwerkumgebung nur einmal authentifizieren muss, auch wenn er auch unterschiedliche Netzwerkdienste zugreifen möchte. Vorausgesetzt die Dienste unterstützen Kerberos (GSS-API).
Zum Abschluß zeigt der Vortrag auf, wie es auch für Windows-Clients möglich ist, den neu eingerichteten Kerberos-Server zur Authentifizierung zu nutzen. Allerdings ist hierfür ein weiterer Directory-Service, wie beispielsweise LDAP notwendig, da NIS rein UNIX-spezifisch ist. LDAP ist nicht Thema dieses Vortrages.
Der Vortrag basiert auf einer Red Hat Enterprise Linux 3 Installation. Natürlich funktionieren die gezeigten Beispiele auf unter anderen Distributionen bzw. anderen Versionen.
Über den Autor:
Thorsten Scherf ist 29 Jahre alt und arbeitet als Trainer bei der GfN
AG. Hier führt er Red Hat-Schulungen durch und nimmt die RHCT- sowie
die RHCE-Prüfung ab. Thorsten ist seit 1994 dem Betriebssystem Linux
verbunden, und schreibt u.a. für das Linux-Magazin im Bereich
Netzwerk-Sicherheit.
|
|
NetBSD im Jahr 2003 - NetBSD im Jahr 2004 von Ignatios Souvatzis
|
Freitag, 12.3., 11:30-12:15
|
|
NetBSD ist ein frei verfügbares Unix-ähnliches
"Open Source"- Betriebssystem auf Grundlage der
Codebasis der University of Berkeley. POSIX- und
SUS- Kompatibilität wird weitgehend angestrebt.
Im Unterschied zu Linux kommen Kernel und
grundlegende Libraries und Programme
einschliesslich X11 aus einer Hand. Die kompletten
Kernel- Sourcen sowie große Teile der Userland-
Quellen unterliegen der sogenannten BSD- Lizenz,
und sind daher auch kommerziell ohne Probleme in
Drittprodukten verwendbar.
NetBSD läuft auf 13 CPU-Familien mit 53
Rechnerplatformen ("ports") - Tendenz steigend. Es
ist crosscompilierbar; ein zentrales "build.sh" -
Skript automatisiert alle dazu nötigen Vorgänge,
so dass z.B. wöchentlich mehrere automatisierte
Builds aus dem Release- und dem Entwicklungszweig
zur Verfügung stehen.
Modernes Networking (IPv6, PPPoE, ISDN, WLAN)
stehen in integrierter Form ebenso zur Verfügung
wie wichtige Sicherheitsfeatures (SSH und SSL,
Cryptographische Pseudodisk, Non-Exec Stack,
"Verified Exec", systrace). Das
NetBSD-Software-RAID (basierend auf "RaidFrame")
ist autokonfigurierend und damit auch für die
Rootpartition nutzbar.
Auch auf der i386-CPU (wie schon auf Alpha, Vax,
Sparc) ist im Entwicklerzweig
Multiprozessorunterstützung vorhanden. Eine
Implementierung von "Scheduler Activations" dient
als Grundlage für eine N:M - Threading-
Implementierung.
Vielen Plattformen haben die Fähigkeit,
Systemaufrufe anderer Betriebssysteme der gleichen
CPU auszuführen, so dass z.B. und SunOS4- und
Solaris- Anwendungen auf NetBSD/SPARC und
NetBSD/SPARC64 einsetzbar sind, die nicht im
Sourcecode zur Verfügung stehen; ebenso
Linux/i386- Anwendungen unter NetBSD/i386.
Mehr als 4000 externe Anwendungen sind einfach
(aus Sourcen, zum Teil auch kompiliert
bereitgestellt) installierbar. Dieses Paket
("pkgsrc") ist inzwischen u.a. auch für Darwin/Mac
OS X, Irix, Linux, Solaris, Open- und FreeBSD
verfügbar; AIX und BSDi sind in Arbeit. Ein neues
Feature, "Pkgviews", erlaubt, mehrere Versionen des
gleichen Pakets zu installieren - interessant zum
Upgrade von Paketen, von denen viele andere abhängen,
ohne die Verfügbarkeit zu unterbrechen.
Der Vortrag beleuchtet besonders die
Neuentwicklungen im letzten Jahr für die
anstehende Release 2.0.
Über den Autor:
Hubert Feyrer ist Mitarbeiter am NetBSD Projekt (Packages
Collection und Tools, Dokumentation & Artikel, PR, etc.), Musikant, Unix-SysAdmin, perl- und C/C++-Programmierer, Nachtmensch, IPv6-interessierter Anhänger und Autor Freier Software, Dozent, sowie Comic-Fan.
Ignatios Souvatzis ist "Systemprogrammierer" (in
Wirklichkeit eine Kombination eines Systemadministrators,
eines Bandoperators, eines Kernelhackers und eines
Benutzerberaters) in der Abteilung V des Instituts für
Informatik der Universität Bonn. Er glaubt, den ersten WWW-
Server an seiner Universität - jedenfalls aber in der
Informatik - eingerichtet zu haben und weiß rückblickend
nicht, ob er es nicht bedauern sollte.
Er ist außerdem ein NetBSD- Entwickler und war dort
hauptsächlich für einige Gerätetreiber, das neue ARP-Subsystem und den Amiga-Port verantwortlich.
Er schrieb Beiträge über Unix-Anwendungen und
-Administration für verschiedene Zeitschriften und ist
Co-Autor je eines Buches über FreeBSD- und NetBSD-
Systemadministration.
Unix lernte er in seinem zweiten Studienjahr in einer
kleinen Softwarefirma auf einem Z8000- System kennen.
Später kamen - neben diversen Nicht-Unizes - Ultrix auf
DECstation 2100 bis 5000/260, ConvexOS auf Convex C1, AIX
2.2.1 (IBM RT), SunOS 4 und SunOS 5.x (Sparc) dazu.
|
|
Authentikation in Ad-hoc und Sensor Netzwerken von André Weimerskirch
|
Freitag, 12.3., 12:15-13:00
|
|
Die meisten elektronischen Geräte werden heute mit einem Mikrochip ausgestattet. So hat heute nahezu jede Waschmaschine schon einen eingebetteten Chip integriert. In Zukunft ist zu erwarten, dass sich dieser Trend fortsetzt. Werden diese Geräte mit einer drahtlosen Kommunikationsmöglichkeit ausgestattet (z.B. Bluetooth), so könnten sie zusammen mit schon vorhandenen Computern in Form von Desktop PC's, Mobiltelefonen und elektronischen Organizern ein weit verzweigtes drahtloses Netzwerk aufspannen. Ein solches Netzwerk, das dezentral und selbstorganisierend ist, wird Ad-hoc Netzwerk genannt. Ein Ad-hoc Netzwerk, das aus leistungsschwachen Sensoren besteht, die ihre Umgebung abtasten (z.B. Licht- oder Temperatursensoren), nennt man auch Sensor Netzwerk. Ad-hoc Netze sind insbesondere sinnvoll in Szenarien, wo keine feste Infrastruktur besteht, oder wo diese zu teuer ist. In solchen Netzwerken ist jeder Knoten auf seine Nachbarknoten angewiesen. Er bietet diesen seine Dienste an und nutzt genauso deren Dienste, z.B. bei dem Senden und der Weiterleitung von Datenpaketen. Ad-hoc Netze finden Anwendung in militärischen Szenarien, für die sie ursprünglich entwickelt wurden, aber auch in zivilen Szenarien. Beispiele für Ad-hoc Netzwerke sind:
- Notfallsituationen, in denen die Kommunikation ausgefallen ist;
- Erweiterung traditioneller Netzwerke, um Kosten zu sparen; und
- Errichtung temporärer Netzwerke für ein Gruppentreffen.
Sicherheit in Ad-hoc Netzen muss genauso betrachtet werden wie in
traditionellen Netzwerken. Die Herangehensweise ist jedoch
unterschiedlich. So sind die Geräte, die in Ad-hoc Netzen genutzt
werden, weniger leistungsstark, und in vielen Szenarien gibt es keine
zentralen Server, also keine zuverlässige Infrastruktur. Sicherheit
wird jedoch in den meisten Fällen benötigt, angefangen vom
zuverlässigen Routing über den geschützten Austausch von Dateien bis
hin zu finanziellen Transaktionen, die mit Hilfe der Geräte
(z.B. Handy) abgewickelt werden. Der Ausgangspunkt von Sicherheit ist
die Authentikation. Nur wenn man weiss, mit wem man spricht, kann man
über Verschlüsselung und Integritätssicherung sprechen.
In
dieser Arbeit zeigen wir diverse Ansätze zur Authentikation in Ad-hoc
Netzen. Wir erläutern generelle Probleme, und gehen auf heute
eingesetzte Verfahren ein, z.B. bei Bluetooth. Daraufhin geben wir
einen Überblick über die Effizienz kryptographischer
Primitive. Während auf einem Desktop PC die eingesetzte Kryptographie
bezüglich Rechenintensität inzwischen nahezu irrelevant ist, ist die
Lage bei eingebetteten Systemen, wie sie in Ad-hoc Netzen genutzt
werden, anders. Hier ist es wünschenswert, größtenteils symmetrische
Primitive einzusetzen, die um etwa um einen Faktor 1000 schneller sind
als asymmetrische kryptographische Primitive. Schließlich geben wir
einen Überblick über eigene Forschungsergebnisse. Wir stellen einen
neuen Ansatz zur Authentikation vor, der extrem effizient ist und auch
für leistungsschwache 4-Bit CPU's (z.B. Sensoren) geeignet ist. Dabei
geht es darum, dass die Geräte in der Lage sind, andere Geräte
(genauer gesagt Dienstanbieter) wiederzuerkennen. Wir erweitern diesen
Ansatz so, dass er auch die Identifikation zweier Geräte bei moderater
Rechenleistung sicherstellen kann, also immer noch weit effizienter
als ein traditioneller Ansatz mit Public-Key Methoden ist. Diese
Effizienz wird allerdings mit der Anforderung an eine grobe
Zeitsynchronisierung erkauft.
Über den Autor:
André Weimerskirch erhielt seinen Master Abschluss in Informatik am
Worcester Polytechnic Institute, USA. Er ist derzeit ein Doktorand bei
Prof. Paar an der Ruhr-Universität Bochum und arbeitet seit 1999 im
Bereich der Kryptographie. André Weimerskirch hat weit reichende
Kenntnis in effizienter Arithmetik für kryptographische Verfahren,
Sicherheit in Netzwerken mit leistungsschwachen Prozessoren, sowie
kryptographischen Protokollen. Er hat mehrere Monate an verschiedenen
renommierten Forschungsstätten wie Sun Labs (USA), Philips Research
(USA), Accenture Technology Labs (Frankreich), und Aarhus University
(Dänemark) verbracht. Er hält insgesamt drei Patente im Bereich
Kopierschutz und Zufallszahlengenerator, und hat mehr als 10
internationale Artikel publiziert.
|
|
TCPA: Trusted Computing unter Linux von Wilhelm Dolle
|
Freitag, 12.3., 12:15-13:00
|
|
Die unter der Führung von Compaq, HP, IBM, Intel und Microsoft
gegründete TCPA (Trusted Computing Platform Alliance) startete 1999 mit
dem Ziel, die System- und Applikationssicherheit mittels geeigneter
Kryptohardware, den so genannten TPMs (Trusted Platform Modules), zu
verbessern. Seit April 2003 hat die TCG (Trusted Computing Group)
die Rechtsnachfolge der TCPA übernommen. Auf die von der TCPA
veröffentlichte Spezifikation erfolgte kaum eine Reaktion. Erst als
Microsoft mit Palladium eine Erweiterung ihres Betriebssystems
ankündigte und versprach, dass die größten Sorgen der Vergangenheit wie
Viren, Würmer, Spam-Mails und ständige Sicherheits-Patches damit keine
Chance mehr hätten, begann eine heftige öffentliche Diskussion.
Besonders wurde Microsoft zum Vorwurf gemacht, mit ihrem
Sicherheitskonzept, das seit kurzem NGSCB (Next Generation Secure
Compution Base) heißt, und fest in das für 2005 geplante Windows mit
Codenamen Longhorn integriert werden soll, als primäres Ziel die
Verankerung der digitalen Rechteverwaltung voranzutreiben.
Kritiker befürchten, dass die als Sicherheitsfeatures verkauften
Lösungen eigentlich dazu dienen sollen den Benutzer an die virtuelle
Kette zu legen und DRM (Digital Rights Management) flächendeckend
durchzusetzen. Um die Lage realistisch bewerten zu können,
ist es notwendig die Möglichkeiten der eingesetzten Hardware und
Betriebssysteme genauer zu beleuchten und deren Zusammenspiel zu
analysieren.
Die aktuellen Spezifikationen der TCPA erweitern einen Rechner um die
folgenden Funktionen:
- Sealing (Versiegelung)
- Sicheres Abspeichern kryptographischer Schlüssel
- Sicherer Timer
- Sicherer Zufallszahlengenerator
- Authentifikation des Systems
IBM liefert schon seit geraumer Zeit Notebooks und Desktops mit TPM aus,
HP hat inzwischen ebenfalls begonnen analoge Systeme anzubieten.
Nach dem Willen der Industrie soll TCPA nicht nur in Computern, sondern
auch zum Beispiel in Video- und Audiogeräten sowie Handys Einzug halten.
Bisher wird immer noch betont, dass die Benutzung von TCPA optional sei.
Wie "freiwillig" dies bei künftigen Betriebssystemen und Software
abläuft, bleibt abzuwarten.
Der Vortrag beleuchtet neben der Historie und den Grundlagen die
Hardware des TPM. Anhand des von IBM veroeffentlichten
Linux-Experimentalpaketes wird gezeigt, welche Features heute schon
unter Linux nutzbar sind.
Über den Autor:
Wilhelm Dolle hat in Bochum studiert, wechselte 1995 zur Promotion
nach Marburg und lebt inzwischen in Berlin. Mit diversen
Computersystemen beschäftigt er sich seit 1985. Hauptsächliche
Schwerpunkte seines Interesses lagen und liegen dabei auf
Netzwerkfähigkeiten und Netzwerksicherheit. Seit 1999 arbeitet er für
die Firma interActive Systems GmbH, leitete dort seit 2000 die
Networking Unit und ist seit August 2003 in der Geschäftsleitung für
den Bereich Information Technology zuständig. Wilhelm Dolle hält in
regelmäßigen Abständen Vorträge über Sicherheit in vernetzten
Systemen, hat einige Fachartikel zu diesen Themen veröffentlicht,
arbeitet als Gutachter bei verschiedenen Verlagen und unterrichtet an
einer Berufsakademie das Fach Netzwerksicherheit.
|
|
Intrusion Detection in LAN und WLAN von Bernhard Schneck
|
Freitag, 12.3., 14:00-14:45
|
|
Teil 1
War driving ist derzeit ein beliebter Zeitvertreib und führt auch meist schnell zum Erfolg. Bei einem WLAN-Audit für einen unserer Kunden in einem Industriegebiet wurden auf einer Wegstrecke von ca. 4km über 80 Accesspoints gefunden, ein grosser Teil davon sogar ohne WEP oder andere Sicherheitsmechanismen (soweit wir's gesehen haben, genauer hingeguckt haben wir nur bei unserem Kunden :-)
Derartige Angriffe lassen sich mit den normalen Systemtools oft nicht leicht entdecken. Inzwischen kann man aber mit einigen Tools und ein paar Patches (z.B. kismet) spezielle Sensoren aufbauen, mit denen eine Reihe von Layer-2 Angriffen auf eine WLAN-Infrastruktur erkannt werden kann. Werden derartige Sensoren mit klassischen IDS-Systemen gekoppelt, können auch in Funknetzen Angriffsversuche erkannt werden.
Teil 2
Nur in (mehr oder weniger) trivialen Fällen ist eine Überachung mit Einzelsensoren ausreichend, sobald z.B. verschiedene Netzsegmente oder (bei WLAN) größere Flächen überwacht werden sollen, die über eine Funkzelle hinausgehen, müssen mehrere Sensoren mit einem zentralen Analysesystem eingesetzt werden.
Logging in eine Datenbank ist aber bei Standard-SNORT eine sehr aufwändige Operation (über 10 INSERTs bzw. UPDATEs), während der keine weiteren Pakete analysiert werden können. Um das zu optimieren, wurde von Dirk Geschke ein Open-Source Tool FLoP (Fast Logging of Packets) freigegeben, das die Sensoren von den Datenbankoperationen entlastet und somit die Verluste minimiert.
Abschluss
Kurz soll noch das (igitt kommerzielle) Produkt GeNUDetect erwähnt werden, das die vorgestellten Mechanismen benutzt, um Angriffe sowohl auf LAN als auch WLAN erkennen und analysieren zu können
Über den Autor:
Bernhard Schneck (Dipl-Phys)
ist seit der Gründung vor 12 Jahren technischer Geschäftsführer und Mitgesellschafter der GeNUA Gesellschaft für Netzwerk- und UNIX-Adminstration mbH, Kirchheim (bei München). Die Hauptarbeitsgebiete sind Entwicklung von komplexen Internet Sicherheitslösungen sowie die Unterstützung bei der Migration zu und beim Betrieb von UNIX- und Linux-Systemen.
|
|
Tinyldap, oder: LDAP aus dem Maschinenraum von Felix von Leitner
|
Freitag, 12.3., 14:00-14:45
|
|
LDAP unter Unix, das heißt in den allermeisten Fällen: OpenLDAP. Mit OpenLDAP haben viele Admins allerdings negative Assoziationen: haarige Installation, unklare Schema, langsame ACLs, ein LDAP-Server verbraucht schon mal 100.000 offene Deskriptoren, u.v.m.
Aus der persönlichen Einschätzung des Autors, es bei OpenLDAP mit dem Sendmail bzw. BIND 4 unter den LDAP-Servern zu tun zu haben, entstand die Idee, vielleicht "mal schnell" selbst einen LDAP-Server zu programmieren. Dieser Talk soll in die Problematik einführen und über die Erfahrungen berichten.
Über den Autor:
Felix ist Geschäftsführer der Unix- und IP-Consulting-Firma Code Blau, würde sich selbst aber eher als Hacker bezeichnen und verbringt seine Zeit seit einigen Jahren damit, inspiriert von qmail typische Unix-Probleme möglichst klein und effizient zu lösen. Sein bekanntestes Projekt ist die diet libc, eine besonders kleine libc für Linux.
|
|
Das Wireless LAN Security Framework von Reyk Flöter
|
Freitag, 12.3., 14:45-15:30
|
|
Wireless LANs haben mittlerweile in fast jedes Netzwerk Einzug gehalten. Nicht nur in Büros, in öffentlichen Einrichtungen und in Hotels, sondern durch eine Grossoffensive auch immer weiter im privaten Haushalt. Die Netze werden intesiv genutzt und neuwertige mobile Endgeraete wie Notebooks oder PDAs werden nun meist serienmaessig mit integriertem WLAN-Support ausgestattet. Die Verbreitung nimmt stetig zu und es hat sich mit neuen, schnelleren Standards und proprietaeren Erweiterungen von bis zu 108Mbps viel in der Entwicklung getan.
Doch wie sieht es mit der Sicherheit aus? Die Probleme sind bekannt, fast jedes bekannte Computermagazin, diverse Tageszeitungen bis hin zur TV-Boulevardsendung haben bereits darüber berichtet - das Funkmedium ist unsicher und die integrierte Verschlüsselung WEP ist leicht zu knacken. Der erste Teil des Vortrags gibt einen Überblick über die bekannten und weniger bekannten Probleme der WLANs nach IEEE
802.11 und die Bemühungen von Industrie und IEEE, diese zu
beseitigen. Von WEPplus, WPA bis hin zur WPA und 802.11i gibt es diverse weitere Lösungen, die es zu durchleuchten gilt. Ein anderer Ansatz zur Absicherung von WLANs sind VPN-Technologien, bei denen höhere Protokollebenen verschlüsselt werden und die Unsicherheit des Link Layers in Kauf genommen wird.
Das Wireless LAN Security Framework ist ein Open Source Projekt, dass sich mit den Problemen der aktuellen WLAN Standards beschäftigt. Ziel des Projekts ist einerseits die Analyse und der demonstrative Angriff von Protokollschwächen und andererseits die Entwicklung von eigenen,alternativen Sicherheitsverfahren. So bietet das WLSec Projekt ein komplettes Authentifizierungs- und Verschlüsselungsverfahren, dass die Stärken von IPSec und Link Layer-Verschlüsselung vereint. Starke Kryptographie, sichere Authentifikation und Authentizität auf per-Paket Basis mit bewährten, anerkannten Verfahren geben dem
WLSec-Ansatz einen entscheidenen Vorteil zu anderen, aktuellen WLAN-Sicherheitsmechanismen. Das Projekt soll im zweiten Teil des Vortrags anschaulich dargestellt und insgesamt mit anderen Sicherheitslösungen verglichen werden.
Über den Autor:
Reyk Flöter, geboren am 25.05.1980, ist Mitbegründer des
IT-Security-Unternehmens
.vantronix | secure systems und
Verantwortlicher für den Bereich Research & Development. Er begann
seine IT-Laufbahn in der Deutschen Post AG und wechselte später zur
Deutschen Telekom AG. Er arbeitete in den Bereichen IT-Service,
Administration und später in der T-Systems Nova im Entwicklungsbreich
für UNIX-Systeme. Dort setzte er sich vor allem für den Einsatz von
Open Source Software ein und richtete ein besonderes Augenmerk auf die
Sicherheit der Netzwerke. Neben seiner beruflichen Tätigkeit
engagierte er sich in fachbezogenen Projekten. Er ist unter anderem
Vorsitzender des Chaos Computer Club
Erfrakreises Hannover, trägt mit vielen Projekten und Patches zur
Open Source Community bei und ist Mitbegründer des
WaveHAN-Projekts zum Aufbau eines
Bürgernetzes auf Basis von Wireless LAN. Derzeit engagiert er sich
neben seiner Tätigkeit für .vantronix | secure systems weiterhin aktiv
für das WaveHAN-Projekt, ausserdem ist er Maintainer des WLSec
Projekts zur Entwicklung eines sicheren, alternativen
WLAN-Securityframeworks.
|
|
Open-Router von Lukas Grunwald
|
Freitag, 12.3., 14:45-15:30
|
|
Das Linux-Router Project ist tot, was kommt nun, mit Open-Router TNG wird ein plattformunabhäniges Build-System sowie eine modulare erweiterkeit von Funktionen und Features auf einem Free-Software-projekt welche einen kompletten ISP-/Mittelklasse-Router mit GNU/Linux und Boardmitteln nachbilden kann.
Besonders zu Erwähnen sind die erweiterten Kontrolle- und Beobachtungsfunktionen.
Der Vortrag wird sehr Praxisnah mit vielen Beispielen und "proof-of concept code" vorgestellt, das projekt will aber noch KEIN FERTIGES PRODUKTIONSSYSTEM vorstellen sondern Konzepte von dem was kommen wird.
Es wird gezeigt wie auf der ORP-Plattform andere Projekte aus dem Bereich PBX, Home-Automatisation oder Audit-Systeme sich als Turn-Key Lösungen aufbauen lassen.
Über den Autor:
arbeitet als Consultant bei der DN Systems
GmbH in Hildesheim und ist in diverse freie
Softwareprojekte involviert.
|
|
Ermittlungsstrategien nach Systemeinbrüchen von Alexander Geschonneck
|
Freitag, 12.3., 15:30-16:15
|
|
- Rollen und Abläufe bei der Ermittlung
- Ansatzpunkte für die Ermittlung
- Was müssen Administratoren bei der forensischen Untersuchung beachten?
- Umgang mit Beweismitteln
- Häufige Fehler
Über den Autor:
Alexander Geschonneck ist leitender Sicherheitsberater bei der
HiSolutions AG in Berlin. Seit 1993 ist er branchenübergreifend im
strategischen und operativen IT-Sicherheitsumfeld tätig. Er ist Autor
des im Februar 2004 erscheinenden Buches
"Computer-Forensik. Systemeinbrüche
erkennen, ermitteln, aufklären"
(dpunkt.verlag), Mitautor des IT-Grundschutzhandbuches des Bundesamtes
für Sicherheit in der Informationstechnik und schreibt für die "iX"
sowie andere Fachzeitschriften. Seine Arbeitsgebiete sind
u.a. Beratung im Umfeld der Informationssicherheit, Aufbau und
Coaching von IT-Sicherheitsmanagementteams, Risiko- und
Sicherheitsanalysen, Notfallplanung, Penetrationstests sowie
Sicherheitsvorfallsbehandlung.
|
|
|
Kalender
|
10.November 2019 |
KW | Mo | Di | Mi | Do | Fr | Sa | So |
44 |
28 |
29 |
30 |
31 |
1 |
2 |
3 |
45 |
4 |
5 |
6 |
7 |
8 |
9 |
10 |
46 |
11 |
12 |
13 |
14 |
15 |
16 |
17 |
47 |
18 |
19 |
20 |
21 |
22 |
23 |
24 |
48 |
25 |
26 |
27 |
28 |
29 |
30 |
1 |
49 |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
|
|