GUUG e.V.
Antonienallee 1
45279 Essen
kontakt@guug.de
Impressum

Abstracts

Kerberos/LDAP
von Joachim Keltsch und Mark Pröhl
Ausgebucht
Dienstag, 27.02.2007 10:00-18:00 und
Mittwoch, 28.02.2007 10:00-18:00

Der Workshop beschäftigt sich mit der Authentisierung über Kerberos und der Benutzerverwaltung über LDAP. Er erstreckt sich über zwei Tage, wobei jedes der Themen jeweils den Schwerpunkt eines Tages darstellt.

Zielgruppe des Workshops sind Administratoren reiner Linux Netze oder gemischter Linux/Windows Umgebungen. Vorausgesetzt werden Linux Administrationserfahrung, Netzwerkerfahrung, sowie ein Grundverständnis symmetrischer und asymmetrischer kryptographischer Verfahren.

Am Anfang jedes Workshop-Tages wird in einem ca. zweistündigen Vortrag ein Überblick über das Thema gegeben, das dann den Rest des Tages von den Teilnehmern praktisch umgesetzt wird, begleitet von kurzen theoretischen Erläuterungen.

Der Workshop im Detail

1. Tag: Kerberos - ein kryptographischer Authentisierungsdienst

Vortrag: Der Kerberos Authentisierungsdienst

Der Vortrag beschäftigt sich mit den Design-Zielen von Kerberos, den Rahmenbedingungen, denen diese Ziele unterliegen, sowie mit der tatsächlichen Umsetzung in Kerberos V.

Zentraler Inhalt des Konzeptes hinter Kerberos ist ein Single-Sign-On. Dabei kann ein Benutzer, nachdem er sich lokal an einer Workstation mit seinem Passwort angemeldet hat, auf Netzwerk-Dienste zugreifen, ohne erneut ein Passwort angeben zu müssen.

Im Vortrag wird entwickelt, wie man dieses Ziel eines Single-Sign-On umsetzen kann, welche Probleme dabei auftreten, und wie man diese mit kryptographischen Methoden bei Kerberos V gelöst hat.

Praxis: Aufbau einer MIT-Kerberos Realm

Unter debian Linux setzen die Teilnehmer in Zweiergruppen einen Kerberos Authentisierungsdienst auf (Key-Distribution-Center, KDC).

Die Authentisierung einer Linux-Workstation wird über die PAM in die Kerberos Realm integriert, ebenso wird eine Windows-XP-Workstation eingebunden.

Zusätzlich zum integrierten Login wird am Beispiel des Web-Servers Apache eine Anwendung kerberisiert. Als Clients stehen Mozilla 1.8 und IE 6 zur Verfügung.

2. Tag: LDAP - ein hierarchischer Verzeichnisdienst

Vortrag: Lightweight Directory Access Protocol

Zunächst wird in einem Überblick über die LDAP Entwicklungsgeschichte die Verwandtschaft zum X500 Verzeichnisdienst dargestellt. Daraus werden Gemeinsamkeiten und Unterschiede zwischen LDAP und X500 entwickelt.

Darauf aufbauend werden die Stärken und Schwächen eines so allgemeinen Verzeichnisses dargestellt. Kerninhalte stellen Delegation und Replikation dar.

Zum Schluss werden Einsatzmöglichkeiten und konkrete Probleme von LDAP als Verzeichnisdienst vorgestellt.

Praxis: Aufbau eines OpenLDAP Verzeichnis-Dienstes

Unter debian Linux setzen die Teilnehmer in Zweiergruppen einen openLDAP Server auf und populieren ihn mit Kommandozeilen- und grafischen Werkzeugen.

Dann wird der Netzwerkzugriff auf den Server über TLS abgesichert, dazu ist ein kurzer Exkurs über Zertifikatmanagement mit openssl notwenig. Im Anschluss daran replizieren die Teilnehmer ihren Server zur Erhöhung der Verfügbarkeit des Verzeichnisses. Abschließend wird der Zugriff auf den LDAP Dienst kerberisiert.

Als Anwendung der aufgebauten LDAP Infrastruktur steht den Teilnehmern die Adressbuchfunktion im Mozilla zur Verfügung, außerdem kann das Benutzerverzeichnis der Linux-Workstation an LDAP angebunden werden. Damit wird der erste Tag abgerundet, da Kerberos ausschließlich ein Authentisierungsdienst ist und Benutzerdaten zwingend aus einem Verzeichnisdienst wie LDAP oder NIS+ bezogen werden müssen.

Über die Referenten:

Joachim Keltsch hat an der Universität Stuttgart Physik studiert und arbeitet seit 1996 im IT-Service der science+computing AG in Tübingen. Er ist dort seitdem auf den Gebieten Konzeption und Systemmanagement großer heterogener Rechnernetze tätig.

Außerdem engagiert er sich im Bereich Trainingsentwicklung und Durchführung von IT Schulungen. In diesem Umfeld war er unter anderem 2000 für ein halbjähriges Traineeprogramm verantwortlich, das s+c zur Qualifikation neuer Mitarbeiter durchführte.

Seitdem hat sich sein Schwerpunkt zu Open-Source-Migrationsprojekten und der Beobachtung, Evaluierung und Entwicklung neuer Methoden und Konzepte im IT-Service verlagert.

Erste Erfahrungen mit Kerberos hatte er bereits 1992 bei der Systemadministration einer AFS Umgebung gesammelt. Mit LDAP beschäftigt er sich seit einigen Jahren im Zusammenhang mit Samba Migrationsprojekten.

Mark Pröhl beendete im Januar 1999 sein Physikstudium an der Universität in Tübingen mit einer Diplomarbeit am Institut für Theoretische Physik. Seine dort gesammelten Kenntnisse in der Systemadministration setzt er seit dem 1. April 1999 bei s+c im Geschäftsbereich IT-Service Tübingen ein. Dort befasst er sich vor allem mit Betrieb und Konzeption heterogener Unix/Linux/Windows- Umgebungen und so auch intensiv mit den Infrastruktur-Komponenten Samba, LDAP und Kerberos.

Netzwerküberwachung mit Open Source Tools
von Jens Link, Wilhelm Dolle, Thomas Fritzinger und Christoph Wegener
Ausgebucht
Dienstag, 27.02.2007 10:00-18:00 und
Mittwoch, 28.02.2007 10:00-18:00

Durch die wachsende Abhängigkeit unseres täglichen Lebens von einer funktionierenden IT-Landschaft und die gleichzeitig rapide zunehmende Komplexität der dazu benötigten Infrastrukturen, gewinnen die Themen Netzwerkmanagement und Netzwerküberwachung immer mehr an Bedeutung. Zur Netzwerküberwachung existiert eine Reihe von komplexen und oft sehr teuren kommerziellen Werkzeugen. Dieser Workshop zeigt, wie man eine analoge Funktionalität mit spezialisierten, freien und quelloffenen Programmen erreichen kann.

Themen im Detail/Ablauf des Tutoriums:

  • Organsisatorische Fragen
    • Möglichkeiten der Netzwerküberwachung
    • Business Planing / Business Continuity / TCO
    • Warum freie und quelloffene Software?
    • Bedeutung der Netzwerküberwachung beim Risikomanagement im Rahmen von Basel II und des Sarbanes-Oxley Acts (SOX)
  • Rechtliche Aspekte
  • Simple Network Management Protocol (SNMP)
  • Qualitative Überwachung
    • Multi Router Traffic Grapher (MRTG)
  • Verfügbarkeitsüberwachung
    • Nagios
  • Proaktive Überwachung, Auswerten von Logdateien
  • Fehlersuche in Netzwerken mit Wireshark (ehem. Ethereal)
  • NetFlow Analyse mit nfdump/nfsen
  • Sicherheits-Monitoring
    • nmap
    • Nessus und neue Open-Source Alternativen
    • Snort

Die Inhalte werden im Vortragsstil vermittelt und durch praktische Übungen durch die Teilnehmer am eigenen Rechner vertieft. Ergänzend steht das Vortragsscript als Folienkopien mit der Möglichkeit für Notizen bereit.

Zielgruppe/Voraussetzungen:

Das zweitägige Tutorium richtet sich an erfahrene Systemadministratoren, deren Aufgabe die Betreuung, Überwachung und Optimierung von komplexen Netzwerkumgebungen ist. Die Teilnehmer sollten bereits Erfahrungen mit der Installation von Programmen unter Linux haben und rudimentäre Grundkenntnisse des TCP/IP-Stacks mitbringen.

Die Teilnehmer müssen einen Rechner mit einer aktuellen Linux-Distribution mitbringen. Hinweis: Benutzer anderer Betriebssysteme (*BSD oder MacOS) sollten sich vor der Veranstaltung mit den Vortragenden in Verbindung setzen.

Im Laufe des Workshops wird der Aufbau eines Überwachungsservers auf Basis von Linux mit exemplarischen Diensten gezeigt und diskutiert werden. Dabei werden aber nicht nur die rein technischen Aspekte der Netzwerküberwachung beleuchtet, sondern auch die Grundlagen der notwendigen organisatorischen und rechtlichen Rahmenbedingungen aufzeigen und berücksichtigt. Nach der Veranstaltung können die Teilnehmer die gewonnenen Erkenntnisse dann selbständig in die Praxis umsetzen.

Über die Referenten:

Wilhelm Dolle ist Senior Security Consultant bei der HiSolutions AG, einem Beratungshaus für Information Security und Risk Consulting, in Berlin und seit vielen Jahren im IT-Sicherheitsumfeld tätig. Er ist CISA, CISSP sowie vom BSI lizensierter ISO 27001 / Grundschutzauditor und hat bereits in früheren Positionen als Abteilungsleiter und Mitglied der Geschäftsleitung eines mittelständischen Unternehmens Erfahrungen in den Bereichen IT-Sicherheitsmanagement, Risiko- und Sicherheitsanalysen sowie Incident Management sammeln können.

Thomas Fritzinger ist ausgebildeter Fachinformatiker für Systemintegration. Seit 2002 ist für die interActive Systems GmbH tätig und leitet dort die Abteilung für Networking Development.

Jens Link Netzwerk- und Security-Consultant. Er ist seit mehr als 10 Jahren im IT-Bereich tätig. In dieser Zeit musste er sich immer wieder mit den verschiedensten Netzwerkproblemen (auf allen zehn Ebenen des OSI-Modells) auseinandersetzen.

Christoph Wegener, promovierter Physiker, ist seit 1999 mit der wecon.it-consulting freiberuflich in den Themen IT-Sicherheit und Open Source / Linux aktiv; seit Anfang 2005 ist er zudem im europäischen Kompetenzzentrum für Sicherheit in der Informationstechnologie (eurobits) in Bochum tätig. Darüber hinaus ist er Gründungsmitglied der Arbeitsgruppe Identitätsschutz im Internet (a-i3) e.V. und dort Vorsitzender des Verwaltungsrats.

IPv6 mit Unix
von Benedikt Stockebrand
Dienstag, 27.02.2007 10:00-18:00 und
Mittwoch, 28.02.2007 10:00-18:00

Ziel des Tutoriums ist es, aus Unix-Rechnern ein IPv6-Netzwerk aufzubauen, das in sich funktionsfähig ist, aber auch nahtlos in eine IPv4-Welt eingebunden werden kann.

Das nötige IPv6-Wissen, von der Terminologie über den Aufbau und die Notation von IPv6-Adressen bis zu den grundsätzlichen Unterschieden zwischen IPv4 und IPv6, eignen wir uns rund um diese Experimente an. IPv6-Vorkenntnisse sind also nicht nötig, etwas Erfahrung im Umgang mit (dem eigenen) Unix und IPv4-Netzen allerdings schon.

Wir sind darauf angewiesen, daß möglichst viele Teilnehmer einen eigenen Unix-Rechner mitbringen, auf dem die Man Pages, eventuell die gängigen Entwicklungswerkzeuge (make, cc/gcc, ld, binutils) und wenn möglich ein Packet Sniffer (tcpdump, snoop, ethereal/wireshark, ...) installiert sind. Das gewählte Unix-Derivat sollte dem jeweiligen Teilnehmer einigermaßen vertraut (und IPv6-fähig) sein, andere Einschränkungen gibt es nicht. Wer das Unix in einer VMware oder ähnlichem laufen lassen will, kann das gerne tun.

Das Tutorium im Detail:

IPv6-Unterstützung im Betriebssystem: Wir richten im Betriebssystem, soweit nötig, die IPv6-Unterstützung ein und überprüfen ihre Funktionsfähigkeit.

Adresskonfiguration: Wir konfigurieren zunächst statische IPv6-Adressen. Dann richten wir Router so her, daß Hosts damit per Stateless Autoconfiguration ihre IPv6-Adressen dynamisch selbst konfigurieren können.

DNS: Wir richten DNS-Server ein, die auch über IPv6 angesprochen werden können, tragen statische Daten ein, erlauben kryptographisch abgesicherte dynamische Updates von den eingetragenen Rechnern und synchronisieren kontinuierlich die Forward und Reverse Zones miteinander.

IPv6-fähige Services: Mit SSH, NTP, Syslog, SMTP, IMAP, (x)inetd, HTTP und NFS vervollständigen wir unsere Systeme.

Routing: Wir richten auf mehreren Routern statisches und dynamisches Routing ein und untersuchen dabei einige Eigenheiten von IPv6 und Unterschiede zwischen den IPv6-Implementierungen.

Dual-Stack-Konfiguration: Wir richten Rechner mit IPv4- und IPv6-Stack ein, so daß sie sowohl auf IPv4- als auch auf IPv6-Ressourcen zugreifen können.

Application Gateways: Für DNS und HTTP bauen wir Application Gateways, die zwischen beiden Welten auf Applikationsebene vermitteln.

Protocol Translation: Ähnlich wie mit einem NAT-Gateway, das IPv4-Adressen dynamisch umschreibt, bauen wir ein TRT-Gateway, das zwischen IPv6- und IPv4-Adressen konvertiert.

Neue Funktionalitäten: Nachdem im Tutorium fast ausschließlich Funktionalitäten berücksichtigt wurden, die schon IPv4 zur Verfügung stellt, gehen wir auf interessante Features ein, die IPv4 nicht oder nur eingeschränkt zu bieten hat.

Offene Probleme: Die IPv6-Spezifikationen werden noch immer weiterentwickelt, die Implementierungen hinken mehr oder weniger stark hinterher. Wir sprechen einige Bereiche an, in denen in naher Zukunft wichtige Fortschritte zu erwarten sind.

Strategie: Abschließend diskutieren wir, wie und wann der Aufbau einer IPv6-Infrastruktur strategisch sinnvoll ist.

Die Teilnehmer müssen einen IPv6-fähigen Laptop mitbringen, um sinnvoll am Tutorium teilnehmen zu können. Als Arbeitsgrundlage erhält jeder Teilnehmer ein Exemplar des Buchs "IPv6 in Practice" des Referenten.

Über den Referenten:

Benedikt Stockebrand ist Dipl.-Inform. und arbeitet freiberuflich als Trainer, Fachjournalist und -autor im Unix- und TCP/IP-Umfeld.

Seit einigen Jahren ist sein Schwerpunktthema IPv6, vor allem aus Sicht der Systemadministration und -architektur. Im Oktober 2006 ist sein Buch "IPv6 in Practice -- A Unixer's Guide to the Next Generation Internet", bei Springer, Heidelberg erschienen.

Wenn er sich nicht gerade mit IPv6 beschäftigt, tauchen geht oder mit dem Fahrrad Kontinente sammelt, ist er unter stockebrand@guug.de und http://www.benedikt-stockebrand.de zu erreichen.

IPv4 - Basiswissen ohne Mystik mit Linux
von Johannes Hubertz
Dienstag, 27.02.2007 10:00-18:00

Ein eintägiges Tutorium soll in die Internet-Protokollsuite einführen. Dabei sollen auch Sicherheitsaspekte beleuchtet werden.

IP-Adresse, Netzmaske, Routing sind die Grundlage für anschließende Beschäftigung mit ICMP, UDP, TCP, Layer2, MAC, ARP, RIP, OSPF, DNS, HTTP, SMTP, ... der ganze Protokoll-Zoo wartet darauf, entdeckt und verstanden zu werden.

Der IP-Header nach RFC971 bildet die Grundlage des heutigen Internet und dient als Einstieg ins Thema. Adresse, Netzmaske, Routing führen schnell dazu, mehrere Maschinen zu vernetzen. Hierzu ist die Kenntnis der Konfigurationsdateien notwendig, Linux soll als Beispiel für Unix-Systeme ausreichen. Wie statisches Routing funktioniert, wird an einem kleinen Beispielnetz auf Folien vorgestellt. Dynamisches Routing (RIP,OSPF) wird kurz vorgestellt, jedoch nicht vertieft.

Redirects führen zum Thema ICMP. Mit einem Ping Daten zu transportieren, soll mit libnet-rawip-perl gezeigt werden. UDP und TCP sollen kurz vorgestellt werden, die Zuverlässigkeit wie auch Aufzeichnung mit Ethereal stellen sofort die manglende Vertraulichkeit unter Beweis.

DNS stellt den bei weitem wichtigsten Dienst im Netz dar. Die Teilnehmer sollen erfahren, wie er funktioniert und was dabei wichtig ist. Einige Begriffe sollen verständlich werden: Delegation, Authoritativer Nameserver, TTL, Cache-Mechanismen, Rekursive Abfragen. 'dig' als universelles Hilfsmittel soll zeigen, was es kann. Aber auch DNS-Spoofing soll erklärt werden.

Email als ältester allgemein genutzter Dienst im Netz soll kurz und prägnant mittels Telnet auf Port 25 gezeigt werden. Ebenso kann ein Webserver angesprochen werden, eine Aufzeichnung mit Ethereal oder tcpdump zeigt, wie es geht.

Sicherheitsaspekte sollen zu allen Protokollen angesprochen werden, z.B. [Arp|IP]-Spoofing und/oder [Arp|DNS]-Poisoning. Nicht nur die einfache Fälschbarkeit von Email-Absendern sollte nach dem Tutorial jedem Teilnehmer bewusst sein.

Die Teilnehmer müssen einen Laptop mit lauffähigen Linux (möglich auch die Verwendung von Knoppix) mitbringen.

Über den Referenten:

Johannes Hubertz wurde 1954 in Köln geboren und studierte nach seinem Abitur ab 1973 etwas Elektrotechnik in Aachen. Ab 1980 arbeitete er bei einer großen europäischen IT-Firma, erst in der Hardware-Reparatur, dann ab 1984 in der Softwareentwicklung für Datenerfassungs- und übertragungsgeräte.

Mit Unix kam er erst 1987 in Form von Xenix in Berührung, später mit AIX, SCO-Unix und anderen Derivaten. Richtig gefallen hat ihm nur Linux, da er sich darin die Bits einzeln so genau ansehen kann, wie er gerne möchte. Ab 1996 beschäftigte er sich mit dem Internet und den dazu benötigten elektrischen Geräten. Das Betreiben von Routern, Email-, DNS-, News- und Webservern, u.a. auch www.bundestag.de, war eine schöne Herausforderung und schulte in Sachen System-Verfügbarkeit und -kenntnis.

Ab dem Frühjahr 1997 war nur noch IT-Sicherheit sein Thema, zuerst war ssleay angesagt, um eine AS400 für Aussendienstler per Browser verfügbar zu machen, später kamen andere Sicherheitsthemen hinzu. IPSec und PKI wurden öfter und gerne für Kunden implementiert.

Ab 1998 setzte er Linux bei seinem Arbeitgeber für einige sicherheitskritische Dinge wie Routing, DNS und Server-Überwachung ein, dabei wurde Debian schnell der Favorit. Eine kostengünstige Firewall- und VPN-Lösung mußte 2001 entwickelt werden, zur eigenen und Kundenverwendung. Die wird bei der nun bei eigenen Kundschaft weiterentwickelt und betrieben. Seit August 2005 ist er selbständig und hat eigene Kundschaft zu beglücken.

Kontrollierte Wege ins Web mit Squid
von Dirk Dithardt
Mittwoch, 28.02.2007 10:00-18:00

Squid ist der wohl bekannteste freie Web-Cache-Proxyserver und als Proxyserver für HTTP/HTTPS und FTP sehr gut geeignet. Er kann sowohl für sehr kleine und preiswerte Installationen (5-10 Nutzer) wie auch für große Proxyverbünde in Weitverkehrsnetzen mit mehreren hunderttausend Nutzern eingesetzt werden.

Ursprünglich vornehmlich als Cachepool zur Bandbreitenersparnis eingesetzt, hat diese Funktionalität heute aufgrund sich ständig verdoppelnder Bandbreiten, wegfallender Volumenbeschränkungen und zunehmender Dynamik des Web nur noch untergeordnete Bedeutung.

Dieses Tutorium vermittelt den heute weit wichtigeren Nutzen eines Proxyservers zur Verkehrssteuerung und zur Filterung von Webzugriffen. Durch umfangreiche Vernetzungen verschiedenster privater und öffentlicher Netze, die verstärkte Nutzung von VLANs und VPNs wird eine gezielte Steuerung von Webzugriffen immer komplexer.

Intranet, Extranet, Filialnetze und nicht zuletzt das Internet bieten unter verschiedensten Adressen und Wege erreichbare Informationen an, die über die meist simplen Konfigurationsmöglichkeiten der gängigen Browser nur noch schwer in Ihrer Gesamtheit erreichbar sind.

Hier kann Squid mit seinen komplexen Konfigurationsmöglichkeiten Zugriffe gezielt lenken, steuern und regeln. Netze können je nach Anfrage über unterschiedliche Wege erreichbar gemacht werden, Zugriffe können auf bestimmte Bereiche des Web begrenzt werden, Adressen können über unterschiedliche DNS-Server aufgelöst werden.

Durch Proxy-Verbünde können Wege optimiert, Verbindungen leichter durch fremde Netze getunnelt oder Lasten über mehrere Zugänge Verteilt werden.

Das Tutorium vermittelt im ersten Teil die grundlegenden Kenntnisse zur Installation von Squid und zur Konfiguration der beschrieben Scenarien.

Im zweiten Teil werde die Routingfunktionalitäten an mehren praktischen Beispielen konfiguriert und getestet.

Im dritten Teil werden sowohl die internen Filterfuntionalitäten von Squid wie auch externe Filtermöglichkeiten (squidGuard) konfiguriert und ein Ausblick auf weitere Möglichkeiten der Einbindung externer Server (ICAP) aufgezeigt.

Über den Referenten:

Dirk Dithardt verfügt über mehr als zehn Jahre Berufserfahrung in der Systemadministration und ist heute bei der Niedersächsischen Landesverwaltung beschäftigt. Schwerpunkte seiner Arbeit sind Intranet- und Internetdienste, wie DNS, Web und Proxys. Im Besonderen beschäftigt er sich mit dem zentralen Proxyserver/Webfilter für die rund 2.000 Dienststellen der Landesverwaltung und ihre 70.000 Nutzer.

MySQL Performance Tuning
von Kristian Köhntopp
Mittwoch, 28.02.2007 10:00-18:00

MySQL ist die populärste Open Source Datenbank. Das Tutorium demonstriert anhand verschiedene Performanceprobleme mögliche Optimierungsmöglichkeiten für die Datenbank: Hardwareauswahl, Konfigurationsoptimierung, Optimierung von SQL und Schema und skalierbare Architekturen.

Es ist hilfreich, aber NICHT erforderlich, einen Laptop mit MySQL 5.0.27, mindestens 512M (besser 1024M) sowie 4-8G freiem Plattenplatz mitzubringen.

Über den Referenten:

Kristian Köhntopp ist derzeit als Senior Consultant für MySQL AB unterwegs. In anderen Leben war er Senior Security Engineer bei einem großen Webportal, Dozent für Security Management, Contributor für einige größere Open Source Projekte. Seine Blogs sind unter http://blog.koehntopp.de und http://mysqldump.azundris.com zu finden, der interssante Teil seiner Website hat die URL http://kris.koehntopp.de/artikel/.

World domination - Open Source im Auswärtigen Amt
von Torsten Werner
Donnerstag, 01.03.2007 9:30-10:15

Das Auswärtige Amt hat bereits 2002 begonnen Linux und Open Source weltweit einzusetzen. Zwei jüngere Projekte aus dem Jahr 2006 sollen etwas näher vorgestellt werden, die zeigen, dass es mit Open Source sehr gut möglich ist, sowohl leistungsfähige und gleichzeitig wirtschaftliche IT-Infrastrukturen aufzubauen.

Ab dem 2. Halbjahr 2006 begann das AA, weltweit an über 220 Auslandsvertretungen hochverfügbare Heartbeatserver mit Debian GNU/Linux zu installieren, um die künfigen Anforderungen bezüglich Erfassung biometrischer Daten erfüllen zu können. Die Cluster arbeiten sowohl in einer Loadbalancing-Konfiguration und beherrschen automatisches Failover und speichern ihre Daten redundant über DRBD. Dafür und für die vollautomatische Installation sowie Softwareverteilung wurden notwendige Anpassungen am Debianbetriebssystem hauptsächlich durch eigenes Personal durchgeführt.

Im Rahmen der Vorbereitung auf die deutsche EU-Ratspräsidentschaft werden seit Herbst 2006 mehrere hundert Notebooks verteilt, die ausschließlich mit Debian in einer Konfiguration ausgestattet sind, die für mobiles Arbeiten mit sicherer Kommunikation via IPSEC optimiert sind. Die Notebooks werden von den Anwendern mit großer Begeisterung eingesetzt, weil der Nutzen einer sicheren mobilen Kommunikation eine mögliche Abwehrhaltung gegenüber neuen Open-Source-Anwendungen beim Nutzer überwiegt.

Über den Referenten:

Torsten Werner hat an der Technischen Universität Dresden Physik studiert und ist seit dieser Zeit aktiver Debian-Entwickler. Danach war er mehrere Jahre als Assistent an derselben Universität mit den Aufgabenschwerpunkten Atom- und Plasmaphysik sowie Verkehrswirtschaft tätig. Seit 3 Jahren arbeitet er in der Arbeitsgruppe "IT-Strategie" des Auswärtigen Amts.

HTTP(S) Loadbalancing und Failover mit dem Apache 2.2 und Heartbeat
von Torgen Foertsch
Donnerstag, 01.03.2007 10:15-11:00

Mit dem Release des Apache-Webservers in der Version 2.2 hat der Apache neue interessante Funktionen spendiert bekommen. Eine dieser neuen Funktionen stellt das Modul "mod_proxy_balancer" bereit.

Mit diesem Modul lassen sich lastverteilende Setups realisieren, wahlweise fuer das HTTP(S)-,FTP- oder AJP13-Protokoll. Die verschiedenen Protokolle sind jeweils in Hilfsmodulen implementiert. Bei der Realisierung kann man zwischen zwei Scheduler-Algorithmen waehlen. Die Scheduler-Algorithmen "byrequests" und "bytraffic" werden im Rahmen diese Vortrages kurz vorgestellt. Ebenfalls existiert eine Weboberflaeche fuer die Administration des Loadbalancers.

Eine Besonderheit in einem solchem Setup ist das HTTPS-Protokoll. Eigenheiten bei der Verwendung in einem solchen Setup werden ebenfalls behandelt.

In Kombination mit Heartbeat kann hier ein hochverfuegbarer, lastverteilender Webserver-Cluster aufgesetzt werden. Dies wird durch praktische Beispiel demonstriert.

Über den Referenten:

Torgen Förtsch ist als Senior Consultant, Trainer und Systemarchitekt im Bereich Opensource Software fuer die SerNet GmbH tätig. Schwerpunktmäßig beschäftigt er sich mit der Administration von Linux, Webservern, Datenbanken und Security sowie der Entwicklung von datenbankgestützter Webapplikationen.

Sicherheit sensibler Daten im Unternehmen
von Christian Götz
Donnerstag, 01.03.2007 10:15-11:00

Dass es in Unternehmen vertrauliche Daten gibt, ist nichts Neues. Der typische technische Ansatz um die Sicherheit solcher Daten zu gewährleisten ist einerseits die Verschlüsselung von Festplatten und andererseits die Implementation von Zugriffsschutz, so dass sich externe Personen weder physisch noch logisch Zugriff zu solchen Daten verschaffen können. Warum also ein Vortrag über sensible Daten im Unternehmen?

Die Antwort auf diese Frage erschließt sich am einfachsten über mehrere Gegenfragen: Wie gelangen sensible Daten eines Unternehmens am wahrscheinlichsten in falsche Hände? Kann man das Problem auf den Schutz vor externen Personen reduzieren? Und wenn nicht, was hilft die Verschlüsselung von Festplatten gegen Mitarbeiter, die berechtigterweise täglich mit den Daten arbeiten und sie versehentlich oder im schlimmsten Fall sogar vorsätzlich an Dritte weitergeben? Kann man sich davor denn überhaupt schützen? Diese und viele weitere Fragen sollen im Mittelpunkt des Beitrags stehen.

Wenn sich Unternehmen überlegen, was denn wirklich sensible Daten sind, dann kommen viele IT-Verantwortliche vorschnell zu dem Schluss, dass es bei ihnen ja gar nichts zu holen gibt. Die Konkurrenten sehen das oft anders. Detaillierte Kundenlisten mit Vertragsdetails sind für einen existierenden oder zukünftigen Mitbewerber oft bares Geld wert. Nicht selten und in den verschiedensten Branchen verlassen Mitarbeiter den bisherigen Arbeitgeber, um dann selbst ein Konkurrenzunternehmen zu eröffnen. Wie viele Daten sie dabei mitnehmen lässt sich meist nicht nachvollziehen.

Aber nicht nur Kundendaten sind dabei interessant. Firmen, die eigene Forschung oder Produktentwicklung betreiben, investieren oft beträchtliche Beträge in diese Entwicklung und entsprechend groß wären die Verluste falls ein ausländischer Mitbewerber mit ähnlichen Produkten auf Basis von gestohlenen Entwicklungsdaten früher auf den Markt kommt.

Eine weitere Variante von sensiblen Daten sind personenbezogene Daten oder börsenrelevante Daten, die schlicht aufgrund von gesetzlichen Bestimmungen zu schützen sind. In jedem Fall aber geht es um Daten, mit denen im Unternehmen gearbeitet wird. Eine Sicherheitslösung, die eigene Mitarbeiter nicht berücksichtigt oder die sich bei der Arbeit störend bemerkbar macht, kommt deshalb für viele Unternehmen nicht in Frage.

In dem endgültigen Beitrag sollen die einzelnen Bedrohungsszenarien ausführlich dargestellt werden.

Um sensible Daten zu schützen, ist es nicht sinnvoll in blindem Aktionismus verschiedenste Sicherheitsprodukte einzukaufen und zu implementieren. Stattdessen sollte man sich zunächst überlegen, wovor man die Daten eigentlich schützen möchte und welche die wahrscheinlichsten Bedrohungsszenarien sind.

Im endgültigen Beitrag werden bisherige Lösungsansätze skizziert und neue innovative technologische Ansätze zum Schutz ausführlich erläutert.

Über den Referenten:

Nach dem Abitur studierte Christian Götz Medizinische Informatik an der Universität Heidelberg und der Fachhochschule Heilbronn. Seit 1998 ist er als IT-Sicherheitsberater für große, internationale Unternehmen tätig, wobei er auf die Bereiche Verwundbarkeits-Management, Intrusion Prevention und Sicherheitsüberprüfungen spezialisiert ist. Als Autor hat er diverse Artikel in Zeitschriften veröffentlicht.

XAMPP
von Kai Seidler
Donnerstag, 01.03.2007 11:30-12:15

XAMPP ist eine vom non-profit Projekt Apache Friends zusammengestellte kostenlos erhältliche Apache-Distribution für die Betriebssysteme Linux, Solaris, Mac OS X und Windows. XAMPP zeichnet sich dadurch aus, dass es besonders einfach zu installieren ist und es so auch dem Laien möglich macht, diese Technologien zu nutzen. Der Begriff Laien schießt in diesem Fall aber auch professionelle Entwickler ein, die sich aber nicht mit Administrationsproblemen beschäftigen wollen.

Erwünschter Nebeneffekt von XAMPP ist eine Kapselung der webbasierten Anwendung und ihrer Laufumgebnung gegenüber dem Betriebssystem: Eine Applikation kann also z. B. sehr leicht mit XAMPP unter einem SuSE- oder Debian-Linux entwickelt werden und für die Produktion auf einen Solaris-Rechner mit XAMPP migriert werden.

Im Falle von Linux löst XAMPP auch die Abhängigkeit von der Linux-Distribution: XAMPP für Linux ist zum Beispiel so zusammengestellt, dass es extrem unabhängig von der Distribution ist und sowohl unter aktuellen als auch unter sehr alten Linux-Versionen lauffähig ist. XAMPP ist abwärtskompatibel zu Distributionen ab Debian 2.2 (August 2000), SuSE 7.0 (Oktober 2000) und RedHat 7 (September 2000). D. h. auch wenn der Support für eine SuSE-Version eingestellt wurde, muss nicht zwangsläufig auf die neuste SuSE-Version umgestellt werden. Oder wenn eine neue MySQL-Version benötigt wird, muss nicht gleich die gesamte System-Distribution aktualisiert werden.

Schwerpunkte des Vortrags sind:

  • Was ist eigentlich XAMPP?
  • Installation und Konfiguration
  • Erste Schritte mit XAMPP
  • XAMPP im Alltag
  • XAMPP in der Produktion
  • Weiterentwicklung und Erweiterung von XAMPP
  • Ausblick in die Zukunft: XAMPP 2.0

Das voraussichtlich im Herbst 2007 erscheinende XAMPP 2.0 bietet zusätzlich automatisierte Funktionen um Entwicklern und Administratoren bei der Migration einer Webanwendung (zum Beispiel von einem Entwicklungs-System zum Produktionssystem) zu unterstützen.

In diesem Vortrag wird vorgestellt, wie XAMPP in Entwicklungs-Prozessen eingesetzt werden kann und wie diese durch die neue Migrations-Unterstütung vereinfacht und automatisiert werden können.

Über den Referenten:

Kai Seidler, geboren 1970 in Hamburg, hat 1989 bis 1999 Informatik an der Technischen Universität Berlin studiert. Seine Diplomarbeit beschäftigte sich mit der Verwendung von Software-Agenten im Rahmen von Verkehrstelematikdiensten.

Neben seinem Studium arbeite er als freier Trainer und Dozent unter anderem an der Freien Universität Berlin (ZEDAT), der Verwaltungsakademie Berlin (VAk), Schule für Rundfunktechnik (srt) und für die SuSE Solutions AG. Von 1993 bis 1998 arbeite er in der Projektgruppe "Kulturraum Internet" am Wissenschaftszentrum Berlin für Sozialforschung und betreute dort den auf Linux basierenden Webserver der Projektgruppe.

Nach seinem Studium arbeite er zunächst an der Technischen Universität Berlin als Systemadministrator für Solaris-Systeme. Seit 2001 arbeitet er als Systemadministrator der outermedia GmbH.

Ehrenamtlich engagierte Kai Seidler sich als FTP-Administrator von ftp.cs.tu-berlin.de und als IRC-Administrator von irc.fu-berlin.de. Im Jahr 2002 gründete er mit Kay Vogelgesang das "Apache Friends"-Projekt zur Förderung von webbasierten Technologien.

Kai ist Co-Autor der Bücher "Apache für Dummies" und "LAMP für Dummies". 2006 erschien sein Buch "Das XAMPP-Handbuch" bei Addison-Wesley Deutschland.

RFID -- Richtig Fiese Incidents und Desaster?
von Thomas Maus
Donnerstag, 01.03.2007 11:30-12:15

RFID ist angesagt. RFID macht die Welt besser. RFID löst eigentlich fast alle Probleme. Kurz: RFID ist Hype-Tech.

Da bei Hype-Tech, erfahrungsgemäß, im Rausch der Visionen leicht der Blick für die Risiken und Nebenwirkungen einer Technologie verloren geht, sollen diese in diesem Vortrag etwas beleuchtet werden.

Das "Internet der Dinge", wie RFID auch genannt wird -- diese Analogie könnte weit zutreffender sein, als uns das lieb sein dürfte, denn die allermeisten Angriffstrategien auf den Schichten 1 bis 8 lassen sich auf RFID-Lösungen übertragen.

Neben einer eventuellen Verbesserung logistischer Prozesse (da holt die Realität die Technologie aber auch schon ein ...), werden diese auch in überraschender Weise angreifbar. Manche moderne Plage, seien es die Industriespione oder Terr^H^H^Houristen dürften ihre helle Freude an dieser Technologie entdecken.

Über den Referenten:

Thomas Maus - Diplom-Informatiker (Uni), 25 Jahre IT- und IT-Security-Erfahrung. Mit 16 gewann er in einem kleinen Team in einem landesweiten Wettbewerb Computer für die Schule, an der in einem Informatik-Schulversuch dann die Schulverwaltungs-SW für Rheinland-Pfalz entwickelt wurde -- womit ein anhaltendes Interesse für Fragen der Systemsicherheit, -performance und -architektur geweckt wurde. 1984 begeisterte er sich für UNIX-Systeme und IP-Stacks, sowie die Idee der Freien Software.

Seit 1993 berät er in den Bereichen IT-Sicherheit, System-Performance und dem Management großer, heterogener, unternehmenskritischer Installationen.

Seine Tätigkeiten spannen einen weiten Bogen von der Planung, Inbetriebnahme und Betriebsführung großer Anwendungskomplexe, technischer Projektleitung, organisatorischem und technischem Trouble-Shooting über Sicherheitskonzepte und -analysen etwa für Handelsräume bis hin zum Training internationaler Polizeikräfte zur Cyber-Crime-Bekämpfung.

Sicherheitsrisiko Web-2.0-Anwendung
von Carola Kummert
Donnerstag, 01.03.2007 12:15-13:00

Das sogenannte Web 2.0 ist in aller Munde, man könnte den Begriff inzwischen durchaus sogar als Hype bezeichnen. Damit ist fast alles, was im Web keine AJAX-basierten Features aufweisen kann, vollkommen outdated und geht keinesfalls mehr mit der Zeit - zumindest, wenn man den vollmundigen Ansagen des Marketings verschiedenster Firmen trauen darf.

Dass sich hinter den neuartigen Applikationen allerdings auch neue Sicherheitsrisiken verbergen, ist nur den Wenigsten bewusst. Noch weniger Menschen wissen zudem, dass sich diverse AJAX-Anwendungen dazu missbrauchen lassen, den Browser des Surfers zu übernehmen und zum eigenen Nutzen fernzusteuern. Dabei reicht das Spektrum vom Ausspähen von persönlichen Daten bis zur Installation von Schadsoftware. Behält man dazu im Hinterkopf, dass sich via Browser fast plattformunabhängig Manipulationen durchführen lassen, kann man nicht nur vom Web 2.0 sondern auch von einer Angriffswelle der nächsten Generation sprechen.

Der Vortrag stellt daher verschiedene Angriffsvektoren, gegen die es sich zu schützen gilt, sowie erfolgreiche Möglichkeiten, diesen Schutz zu realisieren, vor.

Über den Referenten:

Carola 'Sammy' Kummert lebt und arbeitet seit kurzem in Hamburg

Sesam schließe dich
von Oliver Tennert
Donnerstag, 01.03.2007 12:15-13:00

In der heutigen Zeit muss man nicht viele Worte verlieren, um die Verschlüsselung von Daten und Dateien zu motivieren. Nahezu jede Linux-Distribution bringt die eine oder andere auf Standardmechanismen beruhende Lösung zur Datei- und Partitionsverschlüsselung mit.

Dabei ist in der jüngsten Vergangenheit ein eindeutiger Trend zu verzeichnen, der weg führt von der expliziten (gnupg, mcrypt) oder auch der transparenten Verschlüsselung einzelner Dateien (CFS) hin zur Verschlüsselung kompletter Blockgeräte, sprich Partitionen oder Logical Volumes. Die dm-crypt-Implementierung, die mit LUKS in den zukünftigen Linux-Distributionen wohl verstärkte Anwendung finden dürfte, ist hierfür ebenso ein Beispiel wie das aus dem Projekt E4M ("encryption for the masses") hervorgegangene TrueCrypt, welches sogar Interoperabilität mit der Windows-Welt herstellt.

Diesem Trend stellt sich nun eCryptfs entgegen, indem es eine Lösung im aktuellen Linux-Kernel darstellt, die voll auf transparente Verschlüsselung einzelner Dateien setzt, mit all den bekannten Nachteilen, aber auch den Vorteilen.

In diesem Vortrag werden dm-crypt/LUKS, TrueCrypt und eCryptfs vorgestellt und ihre Gemeinsamkeiten und Unterschiede aufgezeigt, wobei auch auf kryptographische Details eingegangen wird.

Über den Referenten:

Dr. Oliver Tennert ist eigentlich Theoretischer Physiker, hat aber vor geraumer Zeit Beruf und Hobby getauscht und ist seit 1999 bei dem Tübinger IT-Dienstleister science + computing ag als Senior Solution Engineer tätig.

Seine Interessensschwerpunkte umfassen neben Sicherheitslösungen und Konzepten und Funktionsweise sogenannter sicherer Betriebssysteme vor allem Cluster- und Storage-Konzepte, Design und Implementierungen moderner Dateisysteme sowie Methoden der modernen Computerforensik -- Themen, zu denen er zahlreiche Artikel in mehreren Zeitschriften veröffentlicht hat.

Jabber: Mehr als Instant Messaging
von Jochen Topf
Donnerstag, 01.03.2007 14:30-15:15

Jabber ist ein auf offenen Standards basierendes Instant-Messaging und Chat-System. Jeder kann einen eigenen Server aufsetzen und damit am weltweiten Jabber-System teilnehmen, so ähnlich wie man es auch von der E-Mail kennt. Durch das erweiterbare XML-basierte Protokoll bietet Jabber eine Flexibilität, die die proprietären Alternativen von AOL's AIM über ICQ bis MSN nicht kennen.

Der Vortrag gibt einen Überblick über die Welt von Jabber und das Extensible Messaging and Presence Protocol (XMPP) und seine Erweiterungen. Er zeigt, warum Jabber nicht nur eine gute Wahl für ein Chat-System ist, sondern auch, wie es für den Austausch von strukturierten Daten eingesetzt werden kann.

Über den Referenten:

Jochen Topf (Jahrgang 1970) arbeitet seit 1995 als selbständiger Berater, und Entwickler in der Internetwirtschaft.

Innovationen in Solaris - heute und morgen
von Franz Haberhauer
Donnerstag, 01.03.2007 14:30-15:15

Die Solaris Entwicklung erfolgt als Open Source Projekt und damit quasi im Goldfischglas. Für einen produktiven Einsatz kommen neue Funktionalitäten aber meist erst in Betracht nachdem sie in einen Solaris 10 Update integriert wurden. Für jemanden, der sich nicht intensiv mit der Solaris-Entwicklung auseinander setzt, ist es schwierig hier den Überblick zu behalten. Dieser Vortrag stellt einige der wesentlichen neuen Funktionalitäten im aktuellen Solaris 10 Update und Solaris Express vor - insbesondere solche, die für Administratoren relevant sind. Unter anderem werden die neuen Möglichkeiten der Netzwerklink-Administration mit dladm - von der WiFi-Konfiguration bis hin zur Linkaggregation vorgestellt - dazu auch einige Neuerungen, die nicht zuletzt für Solaris auf Laptops relevant sind wie das neue Management von Removable Media Management. Dazu gibt der Vortrag einen Ausblick auf weitere Projekte, die Administratoren für ihre Planungen kennen sollten.

Über den Referenten:

Franz Haberhauer fungiert bei Sun in Deutschland seit 1994 als Operating Systems Ambassador - einer Evangelisten- und Mittlerrolle zwischen Suns Feldorganisation und den Engineering- , Produktmanagement und -marketingbereichen mit einen besonderen Fokus auf das Thema Betriebssysteme. Mit zu seinem Plattform Technologie Team gehören auch die beiden anderen deutschen OS-Ambassadore Uli Gräf und Detlef Drewanz.

Franz Haberhauer begann seine Laufbahn bei Sun 1993 in der Technischen Vertriebsunterstützung in der Geschäftsstelle Stuttgart. 1998 bis 2001 vertrat er im Technology and Architecture Office deutschlandweit Suns Technologieportfolio und wurde 2002 Technischen Direktor ernannt, einer fachlichen Führungsposition.

Franz Haberhauer schloss 1986 sein Studium an der Universität Stuttgart als Diplom-Informatiker ab. Bereits während des Studiums sammelte er als freier Mitarbeiter in erste Erfahrungen in der industriellen Software-Entwicklung. Danach war er zunächst als wissenschaftlicher Mitarbeiter an der Universität in der Datenbankforschung tätig. 1989 übernahm er dort die Leitung des Rechnerlabors des Instituts für Parallele und Verteilte Höchstleistungsrechner.

Erfolgreich bewerben und arbeiten in der IT-Branche und im Projektgeschäft
von Martina Diel
Donnerstag, 01.03.2007 15:15-16:00

Ziel des Vortrages ist es, Menschen, die in der IT-Branche arbeiten oder arbeiten wollen, einige Tipps und Handwerkszeug für Spaß und Erfolg im Job mitzugeben.

Schwerpunkte des Vortrages sind:

Techie oder Manager, Spezialist oder Generalist, Organisator oder Macher: was bin ich und was ist der richtige Job für mich? Und wenn ich es weiß: wie finde ich Firmen, die für mich geeignet sind?

Soll ich als Angestellter oder freiberuflich arbeiten - was sind Vor- und Nachteile?

Als Freelancer: Wie finde ich meine Projekte? Was sind Bodyleasing-Firmen und wie arbeiten sie? Wie kann ich mein Honorar kalkulieren?

Als Angestellter: Wie sollte ich mich bewerben? Wie muss ein Anschreiben aussehen, was gehört in den Lebenslauf? Ich zeige Positiv- und Negativbeispiele und erkläre, was Personaler und „Schlipse“ lesen wollen und was sie zum Gähnen oder gar zum Aussortieren der Unterlagen bringt. Außerdem zeige ich, wie man auch einem IT-fremden Leser nahebringt, wo die eigenen Stärken liegen.

Wichtiger noch als Lebenslauf und Anschreiben ist das IT-Profil: Wie erstelle ich ein aussagekräftiges IT-(Projekt)profil? Wie unterscheidet sich ein Profil von einem Lebenslauf?

Was gibt es sonst noch zu beachten, z.B. bei einer Mailbewerbung?

Wenn der erste Schritt geschafft ist, wird es ernst: wie verhalte ich mich richtig im Vorstellungsgespräch? Was sind absolute No-Nos?

Ein Thema, das in aller Munde ist: Was genau ist eigentlich Networking? Welche Netzwerke empfehlen sich und wie nutze ich sie? Was geht gar nicht?

(Almost) last but not least: Wie überlebe in einer nicht techie-freundlichen Umgebung und bleibe bei Verstand? Projektmanager und BWLer verstehen leichtgemacht. :-)

Schließlich: Nützliche Links und Literatur

Über den Referenten:

Martina Diel, Jahrgang 1966, ist nach einem Studium der Fremdsprachen und der Agrarökonomie seit 1994 in der IT-Beratung tätig, zunächst als Beraterin in Bank-IT-Projekten, später als Projektleiterin, Projektmanager und Key Account Manager mit Verantwortung für das Recruiting zahlreicher freiberuflicher und festangestellter Mitarbeiter. Der Schwerpunkt ihrer Projektarbeit liegt im Bereich Anwendungsentwicklung in Grossrechnerumgebungen (MVS-Mainframes), dem Reporting und Controlling für Großprojekte, der Vereinbarung von SLAs und der technisch-organisatorischen Umsetzung von Gesetzesänderungen. Im Jahr 2006 gründete Martina Diel Ziele - Wege - Perspektiven, ein Unternehmen, das sich mit Beratung und Coaching von Einzelpersonen rund um Bewerbung und Beruf befasst – der Schwerpunkt liegt dabei auf Kunden aus der IT-Branche. Seit einigen Jahren ist sie mit unixoiden Betriebssystemen als Anwenderin vertraut und arbeitet privat sehr zufrieden mit debian.

Solaris Container Best Practices
von Detlef Drewanz
Donnerstag, 01.03.2007 15:15-16:00

Virtualisierung ist heute eines der zentralen Themen im Rechenzentrum. Solaris Container sind eine Technologie in Solaris mit der sich Sun vom Wettbewerb differenzieren. Mittlerweile sind in verschiedenen Projekten Erfahrungen im Einsatz von Containern gesammelt worden, konkrete Erfahrungen, wo die Container-Technologie besonders vorteilhaft ist und auch worauf beim Einsatz zu achten ist.

Dieser Vortrag geht auf konkrete Einsatzgebiete und Erfahrungen aus verschiedenen Projekten mit Solaris Containern ein. Weiterhin werden an Beispielen unterschiedliche Konfigurationsmöglichkeiten von Containern diskutiert und bewertet.

Über den Referenten:

Detlef Drewanz ist seit 1998 bei Sun Microsystems in Berlin im Bereich PreSales tätig. Seit 4 Jahren ist er als OS Ambassador deutschlandweit für Solaris 10 Themen zuständig. Davor war er Mitarbeiter an der Uni Rostock, FB Informatik und bei Hitachi internetworking.

Systeme mit Systrace härten
von Stefan Schumacher
Donnerstag, 01.03.2007 16:30-17:15

Systrace von Niels Provos ist ein System, das Zugriffsrechte unter Unix auf einzelne System-Calls herunterbricht. Somit ist es möglich Programme, die bisher SUID/SGID liefen als unpriviliegierter Benutzer auszuführen und lediglich Zugriff auf die benötigten privilegierten Syscalls zu gewähren. Dies erhöht die Sicherheit eines Systems enorm. Systrace läuft u.a. unter NetBSD, OpenBSD und Linux.

Der Vortrag zeigt Einrichtung und Benutzung von Systrace unter NetBSD.

Über den Referenten:

Stefan Schumacher ist Student und nebenbei Systemadministrator und Datenbankentwickler/-administrator (PostgreSQL), arbeitet im NetBSD-Projekt mit und interessiert sich insbesondere für Computersicherheit (Kryptographie, IDS, Honeypots) und Datenbanken.

Dtrace in der Administration
von Ulrich Gräf
Donnerstag, 01.03.2007 16:30-17:15

Dtrace oder Dynamic Tracing ist eine neue Möglichkeit die Aufrufe im Kernel vom Solaris/OpenSolaris zu untersuchen. Das heißt aber auch, dass die Systemcalls der Applikationen untersucht werden können.

Dtrace hat daher einen vollständig anderen Ansatz als truss (Linux: strace). Mit truss muß die zu untersuchende Applikation schon bekannt sein, weil man nur von der Applikation aus tracen kann. Das ist schwierig wenn viele Applikationen auf einem Rechner konsolidiert sind. Mit Dtrace ist man in der Lage vom Kernel aus die Systemcalls den verschiedenen Applikationen zuzuordnen und ggf. Statistiken zu erstellen.

Das klingt erstmal nach viel Overhead ist aber elegant mittels asynchronem Schreiben in shared Memory so implementiert, daß normale Messungen mit Dtrace keine messbare (<0.1%) Verlangsamung der Applikation bewirken. Daher ist trace auch problemlos im Produktions-Environment nutzbar (anders als truss/strace).

Dtrace kann auch Programme untersuchen, die mit dtrace Probes instrumentiert sind (z.B. Java 5 und Java 6).

Nach einer kurzen Einführung über Dtrace werden Beispiele für den Einsatz in Adminstration vorgestellt, unter anderem zum Lösen von Performance-Problemen.

Über den Referenten:

Ulrich Gräf ist seit 14 Jahren bei Sun tätig; davon 4 Jahre im deutschen Benchmark-Zentrum von Sun und die vergangenen 5 Jahre als OS Ambassador deutschlandweit für Betriebssysteme und Performance. Davor war er Mitarbeiter der TH Darmstadt, Institut für Theoretische Informatik, FG Systemprogrammierung.

bcfg2 - Konfigurationsmanagement für heterogene Umgebungen
von Marko Jung und Robert Gogolok
Donnerstag, 01.03.2007 17:15-18:00

Bcfg2 hilft Systemadministratoren eine konsistente, reproduzierbare und verifizierbare Spezifikation ihrer Systemumgebung zu erstellen und bietet mit Visualisierungs- und Reporting-Tools notwendige Werkzeuge für alltägliche administrative Aufgaben.

Das distributions- und plattformübergreifende Tool basiert auf einem Modell, in welchem die Systembeschreibung verwendet werden kann, um den Status von Systemen zu validieren und (optional) anzupassen. Als Alleinstellungsmerkmal bietet bcfg2 die Möglichkeit, die Vollständigkeit der Spezifikation aufgrund der Rückmeldungen der Konfigurationsclients zu überprüfen. Dieses Feature ermöglicht es eine akkurate, allumfassende Konfiguration zu definieren.

Als fünftes selbst entwickeltes Konfigurationstool der Argonne National Laboratory wurde bcfg2 so entworfen, dass der Angleich zwischen der Spezifikation und dem Status des Systems sehr sanft geschehen kann und manuelle Konfigurationsänderungen besonders behutsam behandelt werden können. Mit bcfg2 erhält man das richtige Tool um komplexe Migrationen oder Deployments durchzuführen, wodurch man dem rasanten Entwicklungstempo moderner Netzwerke mit wechselnden Clients und Betriebssystemen Schritt halten kann.

Über die Referenten:

Marko Jung beschäftigt sich bereits seit mehr als 10 Jahren mit Freier Software. Als freiberuflicher IT-Berater unterstützt er kleine und mittelständige Unternehmen bei Migrationen und dem Einsatz von freier Software.

Robert Gogolok studiert Informatik an der Universität des Saarlandes.

Beide beteiligen sich aktiv an der Entwicklung von bcfg2.

Was sind Roles, Authorizations und Privileges genau?
von Wolfgang Ley
Donnerstag, 01.03.2007 17:15-18:00

Solaris bietet seit Solaris 8 Role-Based Access Control (RBAC) als festen Bestandteil des Betriebssystems mit an. Die damit verbundenen Bestandteile wie Authorizations, Roles oder Profiles sind aber wenig bekannt. Dis konstante Erweiterungen dieses Frameworks (z.B. durch Ressource-Controls ab Solaris 9 oder Privileges in Solaris 10) haben hieraus ein ueberaus maechtiges Werkzeug gemacht, dass weit ueber die Faehigkeiten von "sudo" hinausgeht.

Im Rahmen des Vortrages werden die einzelnen Komponenten mit Ihren Aufgaben vorgestellt und schließlich gezeigt wie diese in ein Gesamtkonzept aufgehen.

Teilnehmer erhalten einen Einblick in die Features und sind danach in der Lage zu erkennen wann und welche der Konzepte im Einzelfall sinnvoll angewendet werden koennen und wie diese tatsaechlich genutzt werden koennen.

Über den Referenten:

Wolfgang Ley (39) hat nach seinem Studion an der TU Clausthal in der Zeit von 1994-1998 als Diplom-Informatiker maßgeblich an dem Aufbau des DFN-CERTs (Computer Emergency Response Teams) mitgewirkt. Seit seinem Wechsel 1999 zu Sun in das Mission Critical Solution Center beschäftigt er sich neben Sicherheit hauptsächlich mit den Kernel- und Netzwerkkomponenten von Solaris. Bereichsübergreifend fungiert er dabei als Solaris Experte.

Anatomie einer Debian-Package
von Marc Haber
Freitag, 02.03.2007 10:15-11:00

Debian und von Debian abgeleitete Distributionen benutzen anders als viele andere Distributionen ein "eigenes" Packageformat. Auch bei diesem wird in einem automatisierbaren Prozess aus einer Source-Package eine Binary-Package erstellt, die - mit umfangreichen Metadaten versehen - schließlich auf dem Zielsystem die saubere Installation der Software und aller benutzten Libraries, Helfer etc. sicherstellt.

Im gegebenen Zeitrahmen kann natürlich nur eine Kurzeinführung gegeben werden.

Zu den angesprochenen Themen zählen:

  • Kurzeinführung in Debian
    • Was ist Debian
    • Geschichte
    • Debian Free Software Guidelines
    • Debian-Policy
    • Der Debian Release-Prozess: unstable, testing, stable und Feinheiten
  • Format einer Source-Package
    • Pristine Sources: Soweit möglich, ist der vom Programmautor freigegebene Original-Tarball in unveränderter Version die Grundlage der Debian-Source-Package.
    • Debian-diff: Ein Satz von Patches, die nach dem Auspacken auf den Original-Tarball angewendet werden, um die baubare Debian-Package zu erhalten.
  • Kontrolldateien
    • debian/rules: Die zentrale Datei, die den Bau einer Debian-Package steuert und die alle Regeln und Sonderregeln enthält.
    • debian/control: Enthält Beschreibung von Source- und Binary-Package und deklariert die Abhängigkeiten der vorliegenden Package zu anderen Packages im System. Dabei können Abhängigkeiten sowohl zur Bau- als auch zur Installationszeit sichergestellt werden.
    • debian/changelog: Enthält neben des Changelogs noch weitere Informationen über die aktuelle Version der Package.
    • Maintainer-Scripts
    • Dokumentation
  • Helfer
    • debhelper
  • Format einer Binärpackage

Zielgruppe des Vortrags sind Administratoren von Debian-Systemen, die mehr Werkzeug haben wollen, um im Störungsfall das System wieder zu reparieren, und Entwickler, die einen Überblick über die Bestandteile einer Debian-Package und deren Interaktion erhalten wollen.

Über den Referenten:

Marc Haber, Jahrgang 1969, hat ein Informatik-Diplom der Universität Karlsruhe (TH). Der Schwerpunkt seiner Tätigkeit liegt seit 1998 bei IT-Sicherheit, Netzen und Internet-Diensten unter unixoiden Betriebssystemen.

Nach beratender Tätigkeit für Rechtsanwälte und Steuerberater in den 1990er-Jahren arbeitete er einige Jahre für verschiedene kleine Internetprovider und konnte sich dort breites und vielseitiges Wissen aneignen. Seit 2004 ist er Geschäftsführer der syscovery network services GmbH mit Sitz in Mannheim. Seit 2001 arbeitet Marc Haber als Developer im Debian-Projekt mit und zeichnet dort unter anderem verantwortlich für das Packaging des Default-MTA exim.

Zu seinen Publikationen zählen unter anderem das Buch "Sicher ins Netz mit Freier Software", erschienen im Jahr 2000. Er ist Co-Autor des Heidelberger Mustervertrags "Internet-Dienste-Vertrag".

Routing im Internet - Eine Einführung in BGP
von Thorsten Dahm
Freitag, 02.03.2007 10:15-11:00

In diesem Vortag geht es ganz grob darum das "Mysterium" BGP ein wenig näher zu beleuchten. Es werden Begriffe wie Autonomes System, BGP Attribute u. ä. erläutert. Der Vortag soll dazu dienen Leuten, die nicht täglich ihr Geld mit Internet-Routing verdienen, einen kleinen Einblick in diese Welt zu geben.

Über den Referenten:

Thorsten Dahm arbeitet seit 1997 in der IT-Branche, seit 2000 als Network Engineer. Zur Zeit ist er für AOL Deutschland in Hamburg tätig. Seine Aufgabengebiete erstecken sich vom Design über Implementation und Betrieb bis hin zum Troubleshooting komplexer Netze mit den Komponenten Routing, Switching, Firewalling/Security und Loadbalancing.

ErlGrey - Replizierte Mailfilterung
von Ignatios Souvatzis
Freitag, 02.03.2007 11:30-12:15

Filterung im weitesten Sinne ist in den letzten Jahren die Norm beim E-mail-Empfang gewesen. Leider hat jede Strategie nur eine begrenzte Lebensdauer; schließlich ist Werbemüll technisch nicht wirklich von Nutznachrichten zu unterscheiden, und die Unterscheidung ist einerseits von den persönlichen Bedürfnissen der Empfänger abhängig, andererseits denken sich Spamversender regelmäßig neue Tarnstrategien aus. Deswegen müssen regelmäßig neue Regeln oder gar neue Strategien zum Einsatz gebracht werden.

Herkömmliche Lösungen kranken daran, dass ein Austausch von Regeln nur in engen Grenzen möglich ist; der Austausch einer kompletten Filterstrategie ist in der Regel entweder mit einer kurzen Betriebsunterbrechung oder gar mit dem Ausfall der Filterung - also kurzzeitiger ungefilterter Zustellung der Post - verbunden.

Darüber hinaus bauen dynamische Regelwerke - beispielsweise Greylisting - Datenbanken auf, die zwar theoretisch nicht unbedingt sicherungswürdig sind, nach dem Verlust etwa der Spoolplatte aber nicht a priori in einem konsistenten Zustand wieder herzustellen sind. Auch sollten Mailfilterungssysteme auf Hauptserver und Backup MX grundsätzlich parallel gefahren werden, da sonst der Müll zur Hintertür hereinkommt und - etwa bei gefälschten Absendern - gegebenenfalls Bouncemails oder Fehlermeldungen zum Postmaster des Backup MX erzeugt, statt auf der SMTP- Ebene abgewiesen zu werden.

Mit Erlang stehen eine funktionale Sprache und Laufzeitsystem zur Verfügung, die es erlaubt, den Code langlaufender Server unterbrechungsfrei auf der Funktionsebene auszutauschen. Daneben enthält Erlang Kommunikationskonstrukte, die es erlauben, Datenstrukturen der Programme auszutauschen.

Der Autor hat den Versuch gestartet, Blacklisting, Greylisting, und Ausnahmeregelungen in einem Erlang- Modul zu realisieren und in sein Mailsystem zu integrieren. Das Datenbanksystem wird von Erlang in Echtzeit synchron gehalten, so dass mehrere Inkarnationen als "hot spare" bei Ausfall des Hauptsystems oder als parallel laufende sekundäre Mail Exchanger dienen können.

Erste Erfahrungen werden vorgestellt.

Über den Referenten:

Ignatios Souvatzis ist "Systemprogrammierer" (in Wirklichkeit eine Kombination eines Systemadministrators, eines Bandoperators, eines Kernelhackers und eines Benutzerberaters) in der Abteilung V des Instituts für Informatik der Universität Bonn. Er glaubt, den ersten WWW- Server an seiner Universität - jedenfalls aber in der Informatik - eingerichtet zu haben und weiß rückblickend nicht, ob er es nicht bedauern sollte.

Er ist außerdem ein NetBSD- Entwickler und war dort hauptsächlich für einige Gerätetreiber, das neue ARP-Subsystem und den Amiga-Port verantwortlich.

Er schrieb Beiträge über Unix-Anwendungen und -Administration für verschiedene Zeitschriften und ist Co-Autor je eines Buches über FreeBSD- und NetBSD- Systemadministration.

Unix lernte er in seinem zweiten Studienjahr in einer kleinen Softwarefirma auf einem Z8000- System kennen. Später kamen - neben diversen Nicht-Unizes - Ultrix auf DECstation 2100 bis 5000/260, ConvexOS auf Convex C1, AIX 2.2.1 (IBM RT), SunOS 4 und SunOS 5.x (Sparc) dazu.

MPLS - Multiprotocol Label Switching
von Jens Link
Freitag, 02.03.2007 11:30-12:15

Wenn es um die Vernetzung von Unternehmensstandorten geht kommt häufig die Sprache auf MPLS. Der Vortrag erklärt wie MPLS funktioniert und welche Vorteile und Nachteile MPLS basierende VPNs bieten.

Darüber hinaus wird auf die Implementierung von MPLS basierenden VPNs eingegangen und gezeigt, wie Trafficengeniering mit MPLS funktioniert.

Über den Referenten:

Jens Link ist Netzwerk- und Security-Consultant und seit 10 Jahren im IT Bereich tätig.. Seitdem muss er sich immer wieder mit den verschiedensten Netzwerkproblemen (auf allen zehn Ebenen des OSI-Modells) auseinandersetzen.

Blacklistings gegen Spam: Fluch oder Segen?
von Bert Ungerer
Freitag, 02.03.2007 12:15-13:00

Aus derzeit etwa 40.000 Müll-Mails täglich generiert der Spam-Filter der iX-Redaktion "NiX Spam" eine laufend aktualisierte Blacklist von IP-Adressen, die in jüngster Zeit als Spam-Quellen in Erscheinung getreten sind. Sie steht in Textform zum Download zur Verfügung, aber auch als DNSBL (DNS-basierte Blacklist/Blocking List). Auch wenn derartige Blacklists immer wieder reichlich Kritik ernten, scheint es einen großen Bedarf daran zu geben: Die DNSBL von NiX Spam wird mehrere 1000 Mal pro Sekunde von Mailservern in aller Welt abgefragt. Das geschieht nicht selten zu dem Zweck, E-Mails von gelisteten Adressen noch während des SMTP-Dialogs abzulehnen, obwohl ein einzelnes Filterkriterium eigentlich generell nicht als ausreichend anzusehen ist.

Der Vortrag gibt einen Überblick über die Funktionsweise der weitgehend automatisiert arbeitenden Blacklist sowie unabdingbare Vorsichtsmaßnahmen wie eine parallel zu führende Whitelist und das Ermöglichen einer vorzeitigen, zumindest vorübergehenden Austragung durch die Blacklist-Opfer selbst. Häufig handelt es sich dabei um Endanwender, die schlecht gepflegte, von Spammern missbrauchte Mailserver verwenden, ohne etwas von der Funktionsweise von E-Mail, geschweige denn von IP-Blacklists zu wissen.

Neben der Abwägung der Vor- und Nachteile von IP-Blacklists und einem Überblick über einige besonders beliebte finden sich Informationen über weniger schmerzhafte Alternativen, zum Beispiel Hash-Vergleiche zur Erkennung bekannter Spam-Mails, die der Mail-Filter der iX ebenso anbietet. Ferner soll die Möglichkeit einer allgemeineren Liste zur Diskussion gestellt werden, die IP-Adressen von SMTP-Clients eine Reputation zuordnet und ohne die grundsätzlich fehlerträchtige Filterung von E-Mails auskommt.

Über den Referenten:

Dipl.-Phys. Bert Ungerer ist seit 1989 Redakteur beim Heise-Verlag (zunächst bei c't, seit 1996 bei iX). E-Mail ist für ihn die erste und bis heute mit Abstand wichtigste Internet-Anwendung.

Unter anderem zur Verteidigung gegen unerwünschte E-Mails startete er 2002 die Entwicklung eines eigenen Filters. Das Procmail-Script bewahrt nicht nur diverse Verlagsmitarbeiter vor Spam, sondern analysiert auch E-Mails an zahlreiche Spamfallen.

Die letzte Verteidigungslinie
von Florian Brand
Freitag, 02.03.2007 12:15-13:00

Die Firewall ist offen. Der einzige Admin ist im Urlaub, und da meldet bugtrack einen Exploit genau für die verwendete Apache Version...

Dieser Talk beschäftigt sich mit einigen Technologien, die dann einspringen, wenn die normalen Mechanismen versagt haben.

Der Talk beginnt mit einem kurzen Überblick zu verschiedenen Angriffstechniken. Im Anschluss beleuchtet er Ansätze mit denen die Auswirkungen einer Sicherheitslücke minimiert werden können. Der Fokus liegt dabei auf Techniken, die ab Fedora Core 5, beziehungsweise Red Hat Enterprise Linux 5 standardmäßig verwendet werden: Execshield, SELinux und Compiler/GlibC Security Features.

Die einfache Anpassung von SELinux an eigene Bedürfnisse bildet die zweite Hälfte des Vortrags. Es wird gezeigt, wie man -- ohne Modifikation der komplexen Policy -- SELinux für den täglichen Servereinsatz anpassen kann. Dies geschieht mittels sogenannten Booleans und Security Contexts. Als Beispiel dient hier der Klassiker: Linux im Webserver-Betrieb.

Ein Ausblick auf die tiefergehenden Möglichkeiten von SELinux rundet den Vortrag ab.

Über den Referenten:

Florian Brand ist seit 1999 bei Red Hat in Stuttgart als Trainer angestellt. Er gib dort international Schulungen des Red Hat Certified Engineer(RHCE) und Red Hat Certified Architect (RHCA) Curriculums. Seine Themen-Schwerpunkte sind Red Hat Network, HA Clustering, Webserver und Security. Florian Brand ist ausserdem Kursautor und trat auch auf verschiedenen Konferenzen als Speaker in Erscheinung. Vor seiner Zeit bei Red Hat studierte er Physik an der Universität Würzburg und wurde dort mit dem "Unixvirus" infiziert.

SCdaemon - Ein neue Infrastruktur für Smartcards
von Werner Koch
Freitag, 02.03.2007 14:00-14:45

Smardcards unter Unix leiden seit Jahren unter uneinheitlichen und inkompatiblem Schnittstellen sowie fehlerhaften Treibern. Unterstützung für Anwendungen auf Smartcards sind noch seltener anzutreffen und in der Regel alles andere als fehlerfrei. Nachdem das GnuPG Projekt seit Jahren eine voll funktionsfähige Smartcard auf allen Plattformen unterstützt, ist es an der Zeit über die Infrastruktur neu nachzudenken.

Mit SCdaemon, einer Komponente von GnuPG 2.0, existiert nun eine einheitliche Schnittstelle zu Smartcards, die es ermöglich jede beliebige Smartcard Anwendung zu unterstüzten. Statt auf eine Low-level Schnittstelle, wie PC/SC aufzusetzen, implementiert SCdaemon ein High-Level API, welches wesentlich mehr Freiheiten gibt und besser verständlich ist. Die Abfrage von PINs und anderen Daten kann transparent durch GUI Popups erreicht werden.

Scdaemon setzt direkt auf dem modernen CCID Standard zum Ansprechen eines Chipkartenlesers auf; kann aber auch PC/SC hierzu benutzen. Der Hostanwendung hin stellt scdaemon sich als intelligentes Token mit eigener graphischer Schnittstelle dar. Dessen API ist Textbasiert und deswegen leicht zu protokollieren und debuggen. Intern verwendet SCdaemon eine einheitliches Schnittstelle zu Modulen, welche den Zugriff auf die jeweilige Smartcardanwendung abstrahieren. Diese Module ermöglichen es, Funktionalitäten - die technisch nicht auf der Smartcard implementiert werden müßen - auf die Hostanwendung auszulagern. So wird es ermöglicht, die wesentlich größeren Resourcen des Hosts sowie moderne Implementationstechniken zu verwenden. Zur Zeit sind Module zum Zugriff auf verschiedene PKCS#15 Anwendungen, DINSIG, OpenPGP und die Telesec Karte vorhanden.

Dargestellt wird die Entwicklunsgeschichte des SCdaemon, der generelle Aufbau von Modulen, das API und geplante Weiterentwicklungen. Desweiteren wird am Beispiel von Scute, einem PKCS#11 Konnektor, beschrieben, wie das High-Level API in der Praxis benutzt wird.

Über den Referenten:

Nach Schule, Zivildienst und einer Lehre als Elektriker, arbeitete er als Softwareenwickler bei der AFS Düsseldorf; nebenbei studierte er Informatik an der FH Dortmund. Er war danach einige Jahre der Chefentwickler der PC Softwarestruktur bei ABIT Software und arbeitete von 1991 bis 2001 als freiberuflicher Berater und Entwickler. 2001 gründete er die Firma g10 Code zur kommerziellen Weiterentwicklung der Freien Software GnuPG.

Seit den späten 70er Jahren ist Koch Funkamateur und an Softwareentwicklung interessiert. Über die Jahre arbeitete er sowohl mit kleinen CP/M Systemen als auch mit Mainframes, Sprachen von Assembler bis Smalltalk und Anwendung von Treibern bis zu Finanzierungssoftware. Er benutzt GNU/Linux als Entwicklungsplattform seit 1993, ist der Hauptautor des GNU Privacy Guards und Gründungsmitglied der FSF Europe.

Bacula
von Jens Kuehnel
Freitag, 02.03.2007 14:00-14:45

Bacula ist ein OpenSource Backupprogramm, das alle wichtigen Funktionen bietet die in einem Unternehmen benötigt werden.

Viele Administratoren von Unixrechner bauen ihr Backup mit Hilfe von Skripten, cpio und tar selbst oder benutzen Closed Source Programm wie arkeia, arkserv oder andere. Als einzige echte OpenSource Backup-Lösung wurde bis jetzt hauptsächlich amanda eingesetzt. Das Programm bacula ist zwar etwas neuer, aber jetzt auch für den Produktiveinsatz geeignet und hat einige sehr interessante Features.

bacula besteht aus mehreren Modulen die auf unterschiedlichen Rechner verteilt werden können. Der Director-Deamon ist das Herz des ganzen, er verwaltet und koordiniert das Backup/Restore. Der Storage-Server schreibt die Daten auf Tape oder Festplatte. Der Datenbank-Server enthält den Catalog indem alle gesicherten Dateien gespeichert sind. Die zu sichernden Daten von einem System zu saugen, ist Aufgabe des File-Servers. Dieser FileServer ist nicht nur für Unix, sondern auch für Windows (ohne die Hilfe von cygwin) verfügbar, damit müssen die zusichernden Daten nicht mehr per SMB vom System abgeholt werden.

Als Datenbank kann mysql, postgresql oder sqlite eingesetzt werden. Es werden selbstverständlich Multi-Volumebackups unterstützt, ebenso Backup auf CD/DVD oder Backup von nicht permanent vorhanden Rechnern, wie z.B. Laptops.

Dieser Vortrag soll aufzeigen welche Vorteile und Möglichkeiten sich mit bacula bieten. Vor allem den grundsätzliche Aufbau und einige Begriffe sind am Anfang des Vortrages wichtig, da ein Einstieg sonst schwierig werden kann. Danach soll gezeigt werden, wie man eine einfache Client-/Server-Backup Lösung mit bacula aufbauen kann. Abgerundet wird das ganze mit der Vorstellung eines komplexten Backup-Szenarios. Zum Abschluss darf natürlich ein Ausblick auf zukünftige Versionen nicht fehlen.

Über den Referenten:

Jens Kühnel ist freier Linux-Trainer, Consultant und Buchautor und hat erst kürzlich festgestellt, das seine Laptop-Festplatte seit über 2 Monaten nicht mehr gesichert wurde. Bei seiner Suche nach einer Backuplösung fand er bacula, dessen klarer Aufbau, Multiplatformfähigkeit und gute Dokumentation ihn sofort aufgefallen ist. Er sammelt Unix-Zertifikate wie die von LPI, Redhat und Novell und ist als Trainer für RedHat, SuSE(Novell) und Microsoft zertifiziert. Als Vortragender ist er auf verschiedenen Konferenzen (LinuxTag, Chemnitzer Linuxtage, Linuxdan Ljubljana Slovenien, ...) aufgetreten.

FreeWRT als Firmware für WLAN Router / VoIP mit Embedded Systemen
von Michael Schwab
Freitag, 02.03.2007 14:45-15:30

Auf vielen DSL/WLAN Routern, die man im Fachhandel kaufen kann (z.B. Linksys Router, Netgear WGT634U), läuft ein Linux. Leider liegt es nicht im Interesse der Hersteller dem Endkunden Zugriff auf das System zu geben, damit bleiben die vielfältigen Möglichkeiten die Linux bietet weitgehend ungenutzt. Das FreeWRT Projekt hat sich der Problematik angenommen und eine freie auf Linux basierende Firmware für verschiedene Router und embedded Plattformen entwickelt. Die FreeWRT-Firmware lässt sich sehr leicht installieren und gibt einem volle Kontrolle über das Gerät und die darin vorhandene Hardware wie z.B. der eingebauten WLAN Karte. Zugnag per SSH gehören genauso zum Distributionsumfang wie ein Paketemanagementsystem. Dem Benutzer stehen etwa 300 Pakete zur Auswahl wie z.B. Webserver, Proxyserver, VPN Clients und Server, Samba, Anbindung von USB Festplatten und VoIP. Als beispielhafte Anwendung für ein embedded System wird in diesem Vortrag eine Asterisk Telefonanlage vorgestellt die auf einem embedded System läuft und alle Funktionen mitbringt, die man sich von einer vollwertigen VoIP Telefonanlage wünscht.

Siehe auch: Linux klein und fein - Ein vollwertiges Linux für Embedded-Systeme in der Preisregion unter 100 Euro - UpTimes Februar 2006

Über den Referenten:

Der Autor, Michael Schwab ist mit seiner Firma de-SOLUTION selbständiger Unternehmer, er ist eines der Gründungsmitglieder des FreeWRT Projekts und beschäftigt sich schon länger mit VoIP und embedded Systemen.

Referenzen:

  • Artikel in der UpTimes Dezember 2005 - VoIP mit Asterisk
  • Artikel in der UpTimes Februar 2006 - Linux klein und fein - Ein vollwertiges Linux für Embedded-Systeme in der Preisregion unter 100 Euro
  • Vorträge auf dem FFG 2006 und LinuxTag 2006 zum Thema VoIP und Asterisk
Monitoring MySQL
von Kristian Köhntopp
Freitag, 02.03.2007 14:45-15:30

Jeder, der einen MySQL Server produktiv im Einsatz hat muß diesen Überwachen. Der Vortrag geht das Thema von Grund auf an:

  • Welche Informationen kann man wie aus einem MySQL-Server herausziehen?
  • Wie integriert man diese Informationen in eine bestehende Überwachungsinfrastruktur auf der Basis von SNMP, Nagios, Cacti?
  • Welche abgeleiteten Meßwerte sind als Kennzahlen interessant?
Über den Referenten:

Kristian Köhntopp ist derzeit als Senior Consultant für MySQL AB unterwegs. In anderen Leben war er Senior Security Engineer bei einem großen Webportal, Dozent für Security Management, Contributor für einige größere Open Source Projekte. Seine Blogs sind unter http://blog.koehntopp.de und http://mysqldump.azundris.com zu finden, der interssante Teil seiner Website hat die URL http://kris.koehntopp.de/artikel/.

libfind - Neue Paradigmen bei Entwurf und Implementierung von UNIX Programmen
von Jörg Schilling
Freitag, 02.03.2007 15:45-16:30

In den 1970er Jahren lief UNIX auf sehr kleinen Rechnern (PDP-7...PDP-11) mit maximal 128 kB RAM. Virtuelle Speicherverwaltung war unbekannt, und die einzige Möglichkeit mit den knappen Resourcen umzugehen war das Swappen (der komplette Austausch von Programmen im Speicher). Als um 1975 die "Pipes" erfunden wurden, glaubte man die universelle Lösung gefunden haben, um komplexe Funktionalität mit Hilfe von kleinen Programmen zu implementieren.

Obwohl die aus dieser Problemlage entstandenen Programmierregeln spätestens keinen Sinn mehr ergeben seit Rechner typischerweise mit mehr als 100 MB RAM ausgestattet wurden, hält sich bei UNIX-Entwicklern und -Administratoren hartnäckig das Gerücht, es wäre ein Fehler, die Regeln aus den 1970er Jahren durch neuere zu ersetzen.

Der Vortrag versucht, neue Methoden zu beschreiben, die mit Hilfe von Shared Libraries Code wiederverwendbar machen und dabei komplexere Funktionalität mit weniger Rechnerbelastung zu implementieren als dies mit den althergebrachten Methoden möglich wäre. Es wird auf David Korn und die neue ksh93 eingegangen, die versucht, aufwändige exec(2) Aufrufe durch Integration der typischen Programme aus /usr/bin zu vermeiden. Es wird auf libfind sowie star und mkisofs eingegangen und erklärt, wie man mit Hilfe der neuen libfind ungeahnte neue Möglichkeiten schaffen kann, die über die einfache Kombination der Kommandozeilenprogramme hinausgehen. Es wird erklärt, warum dies auch eine Möglichkeit ist zu vermeiden, dass Programme immer komplexere Kommandozeilenoptionen benötigen.

Über den Referenten:

Jörg Schilling arbeitet seit dem Frühjahr 1985 mit SunOS/Solaris und hat seit Mai 1986 eine "eigene Sun" zu Hause. Er ist der Autor der ältesten freien "tar" Implementierung "star" und ist als Autor von cdrtools/cdrecord bekannt.

Weitere Informationen unter:

Virtual Machine Based Rootkits - eine neue Bedrohung
von Wilhelm Dolle und Christoph Wegener
Freitag, 02.03.2007 15:45-16:30

Der Vortrag wird kurz in auf die Grundlagen und technischen Hintergründe von traditionellen Rootkits, der Virtualisierung und den Unterschieden zwischen Software-/und Hardware-Virtualisierung eingehen.

Rootkits, deren Hauptaugenmerk darauf liegt ihrem Anwender einen dauerhaften und unbemerkten Zugriff auf einem kompromittieren System zu geben, gewinnen durch die Benutzung von Virtualisierungstechniken nochmals deutlich an Gefahr. "SubVirt", "Bluepill" und "Vitriol" werden als Vertreter dieser VMBRs genannten Gattung genauer hinsichtlich der Möglichkeiten ihrer Erkennung und Entfernung besprochen. Ebenso werden Möglichkeiten aufgezeigt die verhindern, dass sich diese Art von Schädlingen erst auf einem System einnistet, beispielsweise Trusted Computing.

Über die Referenten:

Wilhelm Dolle ist Senior Security Consultant bei der HiSolutions AG, einem Beratungshaus für Information Security und Risk Consulting, in Berlin und seit vielen Jahren im IT-Sicherheitsumfeld tätig. Er ist CISA, CISSP sowie vom BSI lizensierter ISO 27001 / Grundschutzauditor und hat bereits in früheren Positionen als Abteilungsleiter und Mitglied der Geschäftsleitung eines mittelständischen Unternehmens Erfahrungen in den Bereichen IT-Sicherheitsmanagement, Risiko- und Sicherheitsanalysen sowie Incident Management sammeln können.

Christoph Wegener, promovierter Physiker, ist seit 1999 mit der wecon.it-consulting freiberuflich in den Themen IT-Sicherheit und Open Source / Linux aktiv; seit Anfang 2005 ist er zudem im europäischen Kompetenzzentrum für Sicherheit in der Informationstechnologie (eurobits) in Bochum tätig. Darüber hinaus ist er Gründungsmitglied der Arbeitsgruppe Identitätsschutz im Internet (a-i3) e.V. und dort Vorsitzender des Verwaltungsrats.

Snoopy's Little Shop of Horrors
von Snoopy
Freitag, 02.03.2007 16:30-17:15

Snoopy erzählt Anekdoten aus seinem wild bewegten EDV-Leben: Legenden von wirklichen Desastern, Fehlplanungen und Menschen, die es gut meinten, aber dann doch versagten. Einige Desaster beleben den tristen Arbeitsalltag in der EDV-Welt, aber auch die reale Welt hat in dieser Beziehung einiges zu bieten. Wie bei Snoopy üblich wird der Vortrag nicht nur kabarettistisch unterhalten, sondern hoffentlich auch zum Nachdenken anregen.

Über den Referenten:

In grauer EDV-Vorzeit (UNIX Version 6) Studium am Queen Mary College, London. Im Herzen immer Sysadmin gewesen, aber ein paar Abstecher in die Niederungen der Hardware-Entwicklung, Tonstudiotechnik, Flugsimulator-Bau und gar Gastronomie gemacht. Seit ein paar Jahren hat ihn der Ruf der Selbstständigkeit erreicht und er tingelt als Berater, Seher, Alchemist, Hofnarr und Autor durch die Kunden-Netze.

Veranstaltungen
FFG2019
Frühjahrsfachgespräch 2019
9.-12. April 2019 am KIT in Karlsruhe
Kalender
10.November 2019
KWMoDiMiDoFrSaSo
44  28 29 30 31 1 2 3
45  4 5 6 7 8 9 10
46  11 12 13 14 15 16 17
47  18 19 20 21 22 23 24
48  25 26 27 28 29 30 1
49  2 3 4 5 6 7 8
GUUG News