German Unix User Group (GUUG)
Abstracts | FFG2010 | Frühjahrsfachgespräch
http://www.guug.de/veranstaltungen/ffg2010/abstracts.html
2019-11-10

Abstracts

Netzwerküberwachung mit Open-Source-Tools
von Timo Altenfeld, Wilhelm Dolle, Robin Schröder und Christoph Wegener
Dienstag, 25.05.2010 10:00-18:00 und
Mittwoch, 26.05.2010 10:00-18:00

Das zweitägige Tutorium "Netzwerküberwachung mit Open-Source-Tools" richtet sich an erfahrene Systemadministratoren, deren Aufgabe die Betreuung, Überwachung und Optimierung von komplexen Netzwerkumgebungen ist. Die Teilnehmer sollten bereits Erfahrungen mit der Installation von Programmen unter Linux haben und rudimentäre Grundkenntnisse des TCP/IP-Stacks mitbringen.

Im Laufe des Workshops wird der Aufbau eines Überwachungsservers auf Basis von Linux mit exemplarischen Diensten gezeigt und diskutiert werden. Dabei werden wir aber nicht nur die rein technischen Aspekte der Netzwerküberwachung beleuchten, sondern auch die Grundlagen der notwendigen organisatorischen und rechtlichen Rahmenbedingungen aufzeigen und berücksichtigen. Nach der Veranstaltung können die Teilnehmer die gewonnenen Erkenntnisse dann selbständig in die Praxis umsetzen.

Durch die wachsende Abhängigkeit unseres täglichen Lebens von einer funktionierenden IT-Landschaft und die gleichzeitig rapide zunehmende Komplexität der dazu benötigten Infrastrukturen gewinnen die Themen Netzwerkmanagement und Netzwerküberwachung immer mehr an Bedeutung. Zur Netzwerküberwachung existieren eine Reihe von komplexen und oft sehr teuren kommerziellen Werkzeugen. Dieser Workshop zeigt, wie man eine analoge Funktionalität mit spezialisierten, freien und quelloffenen Programmen erreichen kann.

Themen im Detail/Ablauf des Tutoriums:

  • Organisatorische Fragen
    • Möglichkeiten der Netzwerküberwachung
    • Business Planing / Business Continuity / TCO
    • Warum freie und quelloffene Software?
    • Bedeutung der Netzwerküberwachung beim Risikomanagement (Basel II / Sarbanes-Oxley Act (SOX))
  • Rechtliche Aspekte
  • Informationsgewinnung
    • Simple Network Management Protocol (SNMP)
  • Qualitative Überwachung
    • Multi Router Traffic Grapher (MRTG)
    • Cacti und RRDTool
  • Verfügbarkeitsüberwachung
    • Nagios
  • Proaktive Überwachung, Auswerten von Logdateien
  • Fehlersuche in Netzwerken mit Wireshark
  • Sicherheits-Monitoring
    • Host- und Netzwurk-Scanning mit nmap
    • Nessus und Open-Source-Alternativen

Die Inhalte werden im Vortragsstil vermittelt und durch praktische Übungen der Teilnehmer am eigenen Rechner vertieft.

Hardware-Voraussetzungen: Die Teilnehmer müssen einen Rechner mit einer aktuellen Linux-Distribution mitbringen -- Benutzer anderer Betriebssysteme (*BSD oder MacOS-X) sollten sich vor der Veranstaltung über contact@linux-kongress.org mit den Vortragenden in Verbindung setzen.

Über die Referenten:

Timo Altenfeld, Fachinformatiker für Systemintegration, ist Systemadministrator an der Fakultät für Physik und Astronomie der Ruhr-Universität Bochum. Seit Beginn seiner Ausbildung faszinieren ihn Open Source-Tools und Linux, die er bereits seit geraumer Zeit auch in der beruflichen Praxis zur Überwachung von Linux-, Windows- und Solaris-Systemen einsetzt. Mit dem Einsatz von Linux in diversen Umgebungen beschäftigt er sich seit dem Jahre 2003. Außerdem Studiert er zur Zeit Wirtschaftsinformatik an der FOM Essen.

Wilhelm Dolle leitet als Business Field Manager den Bereich Security Management bei der HiSolutions AG, einem Beratungshaus für Information Security und Risk Management, in Berlin. Er ist CISA, CISM, CISSP sowie lizensierter Grundschutz-/ISO 27001- und BS 25999-Auditor und hat bereits zahlreiche Erfahrungen in den Bereichen Sicherheitsmanagement, Risiko- und Sicherheitsanalysen sowie Incident Management sammeln können. Wilhelm Dolle ist Autor zahlreicher Fachartikel und hat Lehraufträge an verschiedenen Universitäten und einer Berufsakademie inne.

Robin Schröder, ebenfalls Fachinformatiker für Systemintegration, ist seit Anfang 2006 in der Abteilung "IT-Systeme, Software-Integration" der Verwaltung der Ruhr-Universität Bochum tätig. Er administriert dort zahlreiche Linux-, Solaris- und Windows-Systeme und überwacht den Applikationsbetrieb mit verschiedenen Open Source-Tools. Mit Computern, Linux und Netzwerken beschäftigt er sich bereits seit dem Jahre 1995.

Christoph Wegener, CISA, CISM und CBP, ist promovierter Physiker und seit 1999 mit der wecon.it-consulting freiberuflich in den Themen IT-Sicherheit und OpenSource unterwegs. Er ist Autor vieler Fachbeiträge, Fachgutachter für verschiedene Verlage und Mitglied in mehreren Programmkomitees. Seit Anfang 2005 ist er zudem am europäischen Kompetenzzentrum für Sicherheit in der Informationstechnik (eurobits) tätig und in der Ausbildung im Bereich der IT-Sicherheit aktiv. Darüber hinaus ist er Gründungsmitglied der Arbeitsgruppe Identitätsschutz im Internet (a-i3) und dort, sowie in der German Unix User Group (GUUG), Mitglied des Vorstands.

KVM in Theorie und Praxis
von Oliver Rath und Christian Anton
Dienstag, 25.05.2010 10:00-18:00 und
Mittwoch, 26.05.2010 10:00-18:00

Abstract

Virtualisierung mausert sich immer mehr vom Medienhype zum Gebrauchsprodukt. Neben den etablierten alten Lösungen drängt massiv eine neue Software ins Rampenlicht, aufgrund ihrer einzigartigen Kombination aus Schlankheit, Tempo und der GPL-Lizenz: KVM (Kernel Virtual Machine, www.linux-kvm.org)

Wir führen in die Benutzung und Architektur von KVM als Virtualisierunglösung ein, und demonstrieren neben den reinen OpenSource-Tools auch die von Red Hat auf den Markt gebrachte Business-Lösung "Red Hat Enterprise Virtualization" für Server und Desktops.

Ergänzend kommen die Techniken vde (Virtual distributed Ethernet) und spice ( www.spice-space.org) zur Sprache.

1. Tag:

  1. Einführung in die Virtualisierung
  2. Plazierung von KVM in Bezug auf andere etablierte Lösungen (vmware, xen, virtualbox)
  3. Funktionsweise von KVM auf x86-Hardware
  4. Installation von KVM + Userlandtools
  5. Ausführen einer ersten virtuellen Maschine (vorgefertigt)
  6. Netzwerkkonfiguration
  7. Verfeinern der Konfiguration

2. Tag:

  1. Installation einer eigenen virtuellen Maschine in KVM
  2. Paravirtualisierung per VirtIO-Devices
  3. vde + spice
  4. Verwalten von KVM-Instanzen mit libvirt
  5. Live-Migration
  6. Die Enterprise Cloud - Virtualisierung mit Red Hat

Über die Referenten:

Oliver Rath hat Mathematik und Informatik studiert und beschäftigt sich seit 1997 Linux, seit 2006 mit der Virtualisierungslösung KVM, die auch in die Produkte der Rath EDV Einzug gehalten haben. Weitere Themen sind Gentoo und Behördenprodukte.

Christian Anton beschäftigt sich bei der Mabunta GmbH als Consultant mit Systemmonitoring, Virtualisierung und Firewalls.

Aufbau und Verwaltung hochverfügbarer Virtualisierungsclusters mit Xen/KVM
von Thomas Groß
Dienstag, 25.05.2010 10:00-18:00 und
Mittwoch, 26.05.2010 10:00-18:00
Vorbereitung
  • Einführung in die Technologien iSCSI, Xen, KVM, Bonding, DRBD, pacemaker, Infiniband und LVM.
  • die Clusterstruktur vorstellen: SAN bestehend aus 2 Storage-Servern, 2 Clusterserver
Cluster aufbauen
  • Clusterserver und Storage-Server mit verbinden (Bonding/Infiniband)
  • Storage-Subcluster mit DRBD, pacemaker konfigurieren
  • Ausfall eines Storage-Servers testen
  • iSCSI / NFS konfigurieren
  • Xen konfigurieren
Virtuelle Maschinen erzeugen und verwalten
  • LVM (iSCSI) oder Files (NFS) als Container für die virtuellen Maschinen verwenden
  • virtuelle Maschinen aus Vorlagen installieren und konfigurieren
  • virtuelle Maschinen klonen
  • iSCSi Targets für virtuelle Maschinen erzeugen und verwenden
  • XEN Steuerdateien erzeugen
  • virtuelle Maschinen starten, stoppen, migrieren
Das Cluster verwalten
Zur Verwaltung der virtuellen Server und deren Dienste verwenden wir LAX. Die LAX-Scripts automatisieren und vereinfachen die Admin-Tätigkeiten erheblich.

Vorbereitung
  • Einführung in die Verwaltungssoftware LAX
  • Scripte und GUI zum Erzeugen, Verwalten und Sichern virtueller Maschinen
  • virtuelle Netzwerke modellieren

Teilnehmer sollten Linux-Admin-Kenntnisse auf der Kommandozeile mitbringen.

Über den Referenten:

Thomas Groß ist Geschäftsführer der Firma teegee. Er hat an der TU Chemnitz Informationstechnik studiert und ist seit 1990 selbständig. Schwerpunkte seiner Arbeit sind linuxbasierte IT-Infrastruktur sowie System- und Netzwerkadminstration. In seiner Freizeit widmet er sich seinen Kindern, Bergtouren, Laufen oder Skifahren. Bei den Offline-Medien bevorzugt er Bücher wie von J.K. Rowling, J. R. R. Tolkien oder Walter Moers die er leider schon alle gelesen hat.

Plattformübergreifende Dateidienste sicher anbieten
von Daniel Kobras und Michael Weiser
Dienstag, 25.05.2010 10:00-18:00 und
Mittwoch, 26.05.2010 10:00-18:00

Das Tutorium behandelt die Implementierung sicherer Dateidienste für Unix-, Linux- und Windows-Clients. Er wendet sich an Administratoren, die in ihren Umgebungen Dateidienste über CIFS oder NFS anbieten und nun die Sicherheit dieser Services erhöhen möchten.

Dazu werden folgende Szenarien betrachtet:

1) Dieses Szenario geht aus von einer bestehenden Infrastruktur basierend auf Active Directory, in der Dateidienste über CIFS und NFSv3 angeboten werden. Das Ziel ist die Migration auf NFSv4 mit GSS als Security Flavor. Die Teilnehmer lernen hier den Aufbau eines kerberisierten NFSv4-Dienstes mit Anbindung an das Active Directory. 2) Die Ausgangslage in diesem Szenario ist eine reine Open-Source-Infrastruktur mit OpenLDAP und einer Samba-3-Domäne. Als Dateidienste existieren auch hier bereits CIFS und NFSv3. Das Ziel ist ebenfalls die Ablösung von NFSv3 durch sicheres NFSv4.

Während das Active Directory aus Szenario-1 bereits eine vollständige Kerberos-Infrastruktur beinhaltet, soll diese hier mit möglichst geringem Aufwand erst noch aufgebaut werden. Dazu lernen die Teilnehmer, wie sich die Samba-Domäne mit Hilfe der Kerberos-Implementierung Heimdal ohne Migrationsaufwand zu einer Kerberos Realm erweitern lässt.

3) Neue Infrastruktur mit OpenAFS

Im dritten Szenario verzichten die Teilnehmer auf CIFS und NFS, um statt dessen eine alternative Lösung mit OpenAFS aufzubauen. Damit eröffnet sich die Möglichkeit eines einheitlichen Dateidienstes für Unix-, Linux- und Windows-Clients.

Verglichen mit Szenario-1 und 2 entsteht hier ein höherer Migrationsaufwand. Die Kerberos-Infrastruktur aus Szenario-1 oder 2 lässt sich jedoch auch für OpenAFS verwenden. Die Sicherheit der einzelnen Varianten unterscheidet sich hinsichtlich der Kriterien Daten-Integrität, -Vertraulichkeit und Authentisierung. Zusammen mit den Teilnehmern werden die einzelnen Lösungen im Verlauf des Workshops darauf hin analysiert und bewertet.

Voraussetzungen: Grundlegendes Know-How in der Linux-Netzwerkadministration. Grundkenntnisse zu Kerberos, LDAP, Samba und NFS sind empfehlenswert.

Über die Referenten:

Daniel Kobras ist als Systems Engineer bei der Tübinger science+computing ag beschäftigt. Dort arbeitet er unter anderem an skalierbaren Speicherlösungen für Kunden der Automobilindustrie.

Michael Weiser begleitet seit 2004 bie der science+computing ag Projekte und Workshops zu den Themen LDAP, Kerberos und AD-Integration sowie High-Performance-Computing.

Linux Cluster einfach gemacht
von Michael Schwartzkopff
Dienstag, 25.05.2010 10:00-18:00

In den letzten Jahren hat sich bei den Projekten rund um hoch verfügbare Linuxserver einiges getan.

Linux-HA ist tot, es lebe pacemaker!

Dieses Tutorium soll einen Überblick über die Entwicklung der verschiedenen Teilprojekte geben, den aktuellen Stand darstellen und natürlich sollen die Teilnehmer ihre eigenen Cluster aufbauen. Sie lernen, was Ressourcen und Bedingungen sind und welche Regeln es für die optimale Platzierung von Ressourcen, abhängig von den Umweltbedingungen (Netz!) gibt.

Benötigt werden zum Tutorium zwei Rechner, empfohlen wird VirtualBox, da die Verwaltung auf dem Desktop relativ einfach ist. Jede andere Virtualisierung (XEN, KVM) sollte auch gehen.

  • Eine Schnittstelle NAT möglich, besser bridged
  • eine Schnittstelle internes Netz, so dass sich die beiden Rechner unterhalten können.
  • Debian Lenny auf beiden VMs installiert. Andere Distributionen sind möglich, wird aber nicht gesondert darauf eingegangen.

(Fragen zum Setup oder Tutorial direkt an den Referenten misch [aet] schwartzkopff [punkt] org)

Über den Referenten:

Dr. Michael Schwartzkopff wuchs in München auf und hat dort auch seine Ausbildung bis zur Promotion in Physik an der TU München absolviert. Das Interesse für Computer wurde schon früh mit einem Commodore 3032 geweckt und hielt über den ersten eigenen Apple bis zum jetzigen Tag an. Mit dem Linux-Virus wurde er als Administrator in der Universität 1994 infiziert. Nach einem kurzen beruflichen Intermezzo im Kaukasus machte er sein Hobby zum Beruf und arbeitet nun als Berater bei der Firma MultiNET Services GmbH zu allen Themen rund um Linux, IT-Sicherheit und Netzwerk-Management.

Solaris/ZFS/Security/OracleDB HowTo
von Bertram Dorn
Dienstag, 25.05.2010 10:00-13:00

Unsere Daten sollen sicher sein, und wir wollen performant darauf zugreifen können. Eine dieser zwei Aussagen alleine funktioniert nicht, da auch die DBAs und Admins ihren Job erledigen müssen, um ersteres zu gewährleisten, und dabei kann sie Solaris unterstützen. Wir können nun durch - Zonen (Sicherheit, Administrierbar) - Ressourcemanagement (Performance, Administrierbar) - ZFS (Performance Administrierbar) - RBAC (Sicher, Administrierbar) - BSM (Sicher) - BART (Sicher) - PRM (Sicher) - IPF (Sicher) mit einem OracleDB Install auf Solaris beide Ziele erreichen. Und soll dies auch noch Auditierbar/Belastbar und Performant genug sein, so ist einiges zu Tun. Das Schöne daran: Alles ist da, muss nur verwendet werden!

Das Tutorial zeigt, wie die einzelnen Schichten miteinander richtig kombiniert sein können, und auf was zu achten ist um nicht in einer konfigurativen Sackgasse zu landen.

Durchgeführt wird das Tutorial in der Cloud.

Über den Referenten:

Bertram Dorn ist schon lange für Sun und noch länger mit Sun unterwegs, und widmet sich in seiner Tätigkeit im ProfessionalService Bereich den zeitgesteuterten Problemen. Sei es nun daß Dinge zeitkritisch Installiert / zum laufen gebracht werden sollen, oder eben nach der Installation für die Anwender nicht schnell genug sind. Auch sind derartige Problemstellunge nur handhabbar, wenn zumindes ein Überblick über den kompletten Stapel an Technologien, welche vereint worden sind möglich ist. Und so sieht sich Bertram Dorn mehr als Spezialist der Tiefe UND Breite denn als tiefer Speziealist. Das die Möglich sein muss und ist, daraus besteht ein Teil der "Mission"

DTrace für Einsteiger
von Thomas Nau
Dienstag, 25.05.2010 14:00-18:00

Im Falle von Performance-Engpässen, entweder des Gesamtsystems oder einzelner Anwendungen, denken viele Systemadministratoren und Entwickler in erster Linie an CPUs, Caches oder Compiler-Optionen. Dabei vernachlässigen sie häufig die Einflüsse des Solaris Kernels ebenso wie mögliche Wechselwirkungen zwischen den parallel laufenden Anwendungen auf dem System.

Diese Sichtweise geht vor allem auf das Fehlen einfach zu bedienender Werkzeuge zurück, die dynamisch beide Bereiche, Anwendung und Kernel, abdecken können und die bedenkenlos auch im produktiven Umfeld einsetzbar sind.

Das Tutorial wird Einsteigern neben einer Einführung in Standard- Tools wie etwa "iostat" oder "busstat" insbesondere die Möglichkeiten von DTrace nahe bringen, die eine deutlich detailliertere Sicht auf mögliche Problemzonen erlauben. Der Schwerpunkt wird hierbei auf der Analyse des Gesamtsystems liegen jedoch nicht ohne auch anwendungsnahe Szenarien in Betracht zu ziehen.

Eine Vielzahl von Beispielen und Live-Demonstrationen erlauben insbesondere Neulingen die Teilnahme. DTrace-Vorkenntnisse sind nicht erforderlich, jedoch sind Grundkenntnisse in Solaris von Nutzen.

Über die Referenten:

Mit mehr als 25 Jahren an Erfahrung zählt Thomas Nau zu den alten Hasen im Hard- und Software Umfeld.

Nach seinem Diplom-Abschluss in Physik an der Universität Ulm 1991 arbeitete er mehrere Jahre im Universitäts-Klinikum bevor er an das Rechenzentrum der Universität wechselte. Sein Fokus liegt sein vielen Jahren in erster Linie im Bereich Betriebssysteme, vornehmlich UNIX im Allgemeinen und Solaris im Speziellen.

Nicht nur die Mitgliedschaft in den Solaris 9 und Solaris 10 Platin-Beta Programmen, sondern insbesondere auch die Teilnahme am "OpenSolaris Pilot Programm", der OpenSolaris Gruppe der ersten Stunde, garantierten ihm das notwendige Know-How um an der Spitze der technologischen Entwicklung von Solaris tätig zu sein.

Nach einigen Jahren als stellvertretender Leiter des Universitäts- Rechenzentrums ist Thomas Nau seit 2002 Leiter der "Abteilung Infrastruktur" am "Kommunikations- und Informationszentrum" der Ulmer Universität. Derzeit zeichnet die Abteilung für den reibungslosen Betrieb mehrerer campusweiter Netze, sowie einer Telefonanlage mit 14.000 Anschlüssen verantwortlich. Integraler Bestandteil sind daneben auch der Betrieb zentraler Ressourcen wie Mail, File- und Directory-Dienste sowie insbesondere auch deren kontinuierliche Fortentwicklung.

Neben seiner Familie und seiner Arbeit arbeitet er gelegentlich als Autor, EU-Consultant oder Tutor. Neben seinem Faible für asiatisches Essen praktiziert er seit einigen Jahren aktiv Shaolin Kung Fu.

Fileserver mit OpenSolaris
von Jörg Möllenkamp
Mittwoch, 26.05.2010 10:00-18:00

OpenSolaris verfügt über sämtliche Funktionen, um einen Fileserver zur Verfügung zu stellen: NFS, iSCSI, in-Kernel CIFS, Virenscanner-Integration. Dazu bietet es ein Filesystem mit Funktionen wie garantierter Datenvalidität, Snapshots (auf die auch einfach zugriffen werden kann), Deduplizierung und vielen weiteren Features - eben ZFS. Dieses Tutorial will zeigen, wie man die Features zu einem sehr leistungsfähigen Fileserver verbindet.

Voraussetzung für die Teilnahme ist ein Notebook, auf dem zu mindestens eine VM unter Virtualbox laufen kann. Eine Windows VM (oder der Einsatz von Windows als Hostbetriebssystem) ist hilfreich.

Über den Referenten:

Jörg Möllenkamp ist Pricipal Field Technologist bei Sun Microsystems. Er arbeitet in der Hamburger Geschäftsstelle des Unternehmens. Zudem führt er mit c0t0d0s0.org eines der reichweitenstärksten Blogs zum Thema Sun und Solaris 10 und ist Mitbegründer der Hamburger (Open)Solaris User Group.

RT: vom Setup bis zum ersten Workflow
von Torsten Brumm und Björn Schulz
Mittwoch, 26.05.2010 10:00-18:00

Das eintägige Tutorium "RT vom Setup bis zum ersten Workflow" richtet sich sowohl an Einsteiger als auch an fortgeschrittene RT-Administratoren und setzt sich zum Ziel, die Einrichtung und den Umgang des beliebten Open-Source-Ticketsystems anschaulich zu erklären. Die Teilnehmer sollten bereits Erfahrung mit der Installation von Programmen unter Linux mitbringen aber auch rudimentäre Kenntnisse im Umgang mit Perl und CPAN haben.

Im Laufe des Workshops wird die Grundinstallation des RT "from scratch" sowie aller wichtigen Module erklärt und durchgeführt, um die Basis für die Einrichtung unterschiedlicher Workflows zu schaffen.

Themen im Detail - Ablauf:

  • Grundlagen Request Tracker
  • Features des Request Tracker
  • Funktionsweise des Request Tracker
  • Erweiterungen für den Request Tracker
  • Grundlagen Installation
  • Grundlegende Vorbereitung des Linux-Systems
  • Installation der benötigen Perl-Abhängigkeiten
  • Installation Request Tracker
  • Grundlegendes, initiales Setup des RT
  • Grundlegende Einrichtung des Webservers/Mailservers
  • Grundlagen Entwicklung
  • Einführung in die Entwicklung / Steuerung des RT
  • Objekte im RT
  • Scripte, Templates und Module
  • Eigene RT/Perl-Module
  • Eigene Web-Module im RT
  • Workflows
  • Grundlagen für Workflows
  • Aufbau eines simplen Approval-Prozesses
  • Aufbau eines komplexen Prozesses für Incident und Change Management

Die Inhalte werden als Vortrag vermittelt und durch praktische, nachvollziehbare Übungen für die Teilnehmer am eigenen Rechner vertieft.

Hardwarevorraussetzungen: Die Teilnehmer sollten einen Rechner mit einer aktuellen Linux-Distribution dabei haben oder alternativ SUN Virtual Box installiert haben. Eine vorbereitete VM wird rechtzeitig zu der Veranstaltung bereit stehen.

Über die Referenten:

Björn Schulz: RT Admin bei der DESY, seit 2000 für den Betrieb des User Helpdesk und die Weiterentwicklung des RT mit verantwortlich. Björn Schulz betreut etwa 400 User im täglichen Einsatz und Umgang mit dem Request Tracker.

Torsten Brumm: RT Admin/Developer bei Kuehne+Nagel AG, seit 2001 verantwortlich für den Betrieb, den Support und die Weiterentwicklung des RT bei Kuehne+Nagel. Torsten Brumm betreut weltweit mehr als 60.000 User zusammen mit einem Kollegen im täglichen Einsatz und Umgang mit dem RT und ist verantwortlich für die Entwicklung und Implementierung diverser interner Geschäftsprozesse auf Basis des RT.

Keynote: Das Internet in Deutschland - Ein alter Hut? Das frühe Internet als Katalysator für Open-Source-Software
von Claus Kalle
Donnerstag, 27.05.2010 9:45-10:30

Heute ist es in aller Munde - das Internet mit seiner amorphen, weltweit präsenten Infrastruktur als Basis für viele intelligente Netzdienste und nicht mehr umkehrbare Entwicklungen. Doch das war nicht immer so - wie es doch dazu kam, schildert dieser Vortrag.
   Es handelt sich weitgehend um eine Reprise des gleichnamigen Vortrags des Autors im Rahmen der Wizards of OS 1 Konferenz, Berlin Sommer 1999.

Über unseren Keynote-Speaker:

Claus Kalle wurde am 13. März 1957 in Köln geboren, ist verheiratet und hat vier Kinder.
   Er erhielt sein Diplom nach dem Studium der Physik an der Universität zu Köln im Jahre 1984. Danach setzte er seine Arbeit am regionalen Rechenzentrum der Universität zu Köln (RRZK) als Mitarbeiter in der Betriebssystemgruppe fort. Mit der Einführung der Internet-Technik 1986 bekam er intensiven Kontakt zu Unix. Seit 1989 leitet er die Abteilung Systeme am RRZK. Anfang der 90-er Jahre war er aktiv als Leiter der WiN-IP-Arbeitsgruppe des DFN-Vereins mit der Verbeitung der TCP/IP-Protokolle im DFN-Umfeld engagiert. Gegen Ende des Jahrtausends war er in verschiedenen Positionen im Vorstand der German Unix User Group (GUUG) aktiv und für das Programm des Frühjahrsfachgesprächs verantwortlich.
   Heute ist der Einsatz und Betrieb von sehr leistungsfähigen Unix-Serversystemen in einer heterogenen, offenen Rechenzentrumsumgebung mit einer Mainframe-losen Infrastruktur als infrastrukturelle Dienstleistung für eine sehr große Universität eine tägliche Herausforderung. In den letzten Jahren sind Hochverfügbarkeit, Datenhaltungskonzepte und Ressourcen-Virtualisierung zu seinen bevorzugten Arbeitsbereichen geworden.

Security-Infrastruktur für WLAN mit Open Source-Mitteln
von Mark Pröhl    fällt leider aus
Donnerstag, 27.05.2010 11:00-11:45

Mittels FreeRADIUS, OpenLDAP und OpenCA ist es möglich, eine WLAN Security Infrastruktur aufzubauen, die aktuellen Sicherheitsstandards genügt. Im Einzelnen gehen wir darauf ein, wie Sie eine auf OpenCA basierende PKI nutzen können, um Zertifikate für die WLAN-Clients zu verteilen. Darüber hinaus zeigen wir ihnen, wie Sie FreeRADIUS und OpenLDAP verwenden können, um den Zugriff auf das WLAN-Netzwerk zu steuern.

Über die Referenten:

Mark Pröhl ist Senior Consultant für Identity & Access Management bei der science + computing ag

Samba Status-Report
von Volker Lendecke
Donnerstag, 27.05.2010 11:00-11:45

Das Samba-Projekt hat in den letzten Monaten erhebliche Verbesserungen in den folgenden Bereichen erfahren:

  • Clustering: Hier ist massiv an der Stabilität von Samba und ctdb gearbeitet worden
  • AD-Controller: Das Samba4-Projekt hat an Fahrt aufgenommen, in den Bereichen Verzeichnisreplikation und Directory Services sind viele Verbesserungen eingeflossen
  • winbind: Der winbind ist intern erheblich verbessert worden, mehr Aufrufe sind jetzt nicht mehr blockierend.
Der Vortrag wird einen Überblick über den aktuellen Stand der Entwicklung in diesen und anderen Bereichen geben

Über den Referenten:

Volker Lendecke ist Mitglied des Samba Teams und Mitgründer der SerNet GmbH in Göttingen

Sichere Webportale: Wie stell ich's an?
von Dirk Wetter
Donnerstag, 27.05.2010 11:45-12:30

Webapplikationen haben seit langem Kriminellen Geld in die Taschen gespielt. Einerseits direkt durch gehackte Webanwendungen und der "Verwertung" der abgegriffenen Daten. Andererseits indirekt durch das Verteilen von Malware via Drive-By-Downloads auf Client-PCs via Lücken im Browser (IE), Flash Player oder PDFs.

Vielen Betreibern nicht-statischer Webseiten ist auf der anderen Seite nicht klar, welches Fass sie aufgemacht haben, als sie ihre Webapplikationen ausgerollt haben. Häufig war Sicherheit weder beim Softwaredesign ein Kriterium, noch sind viele Portale zuverlässig getestet in puncto Sicherheit.

Wie man den Deckel wieder auf das Fass bekommt soll dieser Vortrag zeigen. Um dies richtig anzugehen, ist Technik ein Punkt. Wichtig ist aber auch für ein funktionierendes Sicherheitsmanagement auf nicht-technischer Ebene folgende Implikationen zu verstehen und sie nachhaltig zu beseitigen:

  • Dilemma der heutigen Softwareentwicklung
  • Dilemma des Security-Testings in Webapplikationen
  • Dilemma des Denkens mit einem Stückchen Technik (z.B. WAF) bekomm ich's halt nötigenfalls sicher

Basierend auf Best Practice Verfahren werden technische Maßnahmen sowie Testwerkzeuge zum Auditieren von Webapplikationen vorgestellt und organisatorische Randbedingungen diskutiert, die für ein sicheren Betrieb eines Portals sinnvoll sind.

Über den Referenten:

Das Thema IT-Sicherheit in technischer und organisatorischer Hinsicht gehören seit knapp 15 Jahren zu dem Verantwortungsbereich von Dirk Wetter. Seit 2003 ist er mit seiner Firma Dr. Wetter IT-Consulting Berater für internationale Kunden im Bereich IT-Sicherheit, führte zahlreiche Security-Audits für große Kunden durch und half beratend beim Aufbau von Webportalen.

Er hat viele Fachbeiträge in Print- und Onlinemedien veröffentlicht, ist im Vorstand des GUUG e.V., engagiert sich dort und ist aktiv im Open Web Application Security Project (OWASP).

CTDB - Cluster-Manager für Samba
von Michael Adam
Donnerstag, 27.05.2010 11:45-12:30

CTDB ist die geclusterte Variante von Sambas interner TDB Datenbank. Dadurch, dass Samba in den TDBs laufzeitrelevante Daten wie Locking- und Session-Informationen abspeichert, sie also zur Interprozesskommunikation verwendet, ist CTDB im Wesentlichen die Zusatzkomponente, die es erlaubt, Samba als aktiv-aktiv-Cluster auf einem Cluster-Dateisystem zu betreiben. Über diese Basisfunktionalität hinaus ist die CTDB-Software heute eine komplette Cluster-Suite mit Management- und Monitoring-Funktionalitäten für eine Reihe von Diensten -- neben Samba etwa auch NFS, Apache.

Auf der Samba-Seite werden einige Cluster-Erweiterungen zur Anbindung an CTDB benötigt. Ab der Version 3.3.0 ist Samba komplett Cluster-Fähig. Die neuesten Features werden in speziellen clustered-Samba-Branches entwickelt und getestet und werden mit etwas Verzögerung in die Standard-Samba-Versionen eingearbeitet.

Dieser Vortrag beschreibt zunächst die grundlegenden Probleme beim Betrieb von Samba im Cluster und die Funktionsweise von CTDB, die es erlaubt, einen skalierbaren all-active Samba-Cluster aufzusetzten. Es wird die Konfiguration von CTDB und Samba erläutert. Im Weiteren wird auf die neueren Entwicklungen eingegangen, etwa die Infrastruktur für einen Datenbank-Konsistenzcheck und die Neu-Implementierung von Transaktionen für persistente Datenbanken mittels eines globalen Lock-Mechanismus -- die ürsprüngliche Implementierung der Transaktionen hatte sich im intensiven Testing als racy erwiesen.

Über den Referenten:

Michael Adam ist Diplom-Mathematiker und arbeitet als Consultant und Software-Entwickler bei der SerNet GmbH in Göttingen. Er ist Mitglied im internationalen Samba-Entwickler-Team und entwickelt auch an der CTDB-Software mit.

Network Forensics
von Thorsten Dahm
Donnerstag, 27.05.2010 14:00-14:45

In diesem Vortrag gebe ich einen Überblick über das Thema Network Forensics.

Seit Jahren wird viel über Security und das Absichern eines Firmennetzwerks gesprochen. Sehr wenig wird jedoch über den worst case gesprochen: was tun wenn doch einmal etwas passiert?

Ich gebe einige Tips wie man sich auf eine solche Situation vorbereiten kann, und wie man sie am besten meistert.

Aufgrund jahrelanger Erfahrung möchte ich darüber erzählen was man tun kann wenn alle Sicherheitsmaßnahmen versagt haben und wie man den Einbruch möglichst schnell entdeckt und den Schaden klein halten kann.

Ich möchte keine Empfehlung für einen bestimmten Hersteller geben, sondern wesentlich nützlichere eigene Erfahrungen und Tips weitergeben. Ich werde am Anfang ein wenig auf individuelle Attacken eingehen, um danach Vorsorgemaßnahmen vorzustellen.

Über den Referenten:

Thorsten Dahm arbeitet seit Jahren im Netzwerkbereich. In den letzten Jahren lag der Schwerpunkt auf Design & Security. Er kennt sowohl Carrier-Netze als auch große Enterprise-Netze. Die meiste Zeit seines Berufslebens war er im ISP- bzw. Internet-Umfeld tätig. Seit 3 Jahren arbeitet er für Google in Irland. Hauptsächlich arbeitet er dort im Bereich der Netzwerksicherheit und IPv6. Die Aufgaben reichen hierbei von Design über Änderungen am produktiven Netzwerk bis hin zum Audit des Netzwerks.

Lustre in der Administrations-Praxis
von Daniel Kobras
Donnerstag, 27.05.2010 14:00-14:45

Das quelloffene, parallele Dateisystem Lustre eröffnet Administratoren neue Freiheiten bei Aufbau und Einsatz ihrer Speichersysteme. Es winken nahezu unbeschränkt skalierbare Kapazität und Bandbreite - und eine steile Lernkurve. Denn das über zahlreiche Server verteilt arbeitende Dateisystem verfügt auch über ebenso viele potentielle Fehlerquellen, die sich dem Uninitiierten nur selten intuitiv erschließen.

Der Vortrag zeigt den Umgang mit Lustre in der tagtäglichen Administrations-Praxis, erläutert mögliche Konzepte für Sicherung und Datenexport und beschreibt Stolpersteine auf dem Weg zur perfekt integrierten Lustre-Installation.

Über den Referenten:

Daniel Kobras ist als Systems Engineer bei der Tübinger science+computing ag beschäftigt. Dort arbeitet er unter anderem an skalierbaren Speicherlösungen für Kunden der Automobilindustrie.

Anycast DNS
von Sebastian Hagedorn
Donnerstag, 27.05.2010 14:45-15:30

Bei klassischem Betrieb von DNS-Servern kommt es zu Timeouts, wenn der an erster Stelle eingetragene Server ausfällt bzw. nicht erreichbar ist. Vorgestellt wird ein Ansatz um DNS-Server per Anycast zu betreiben. Das führt zu besserer Verfügbarkeit und ermöglicht Lastverteilung auf eine beliebige Anzahl von Servern ohne besondere Konfiguration auf Clientseite. Verwendet wird Quagga als OSPF-Router und BIND 9 als DNS-Server.

Über den Referenten:

Sebastian Hagedorn ist seit 2001 Wissenschaftlicher Mitarbeiter in der Netzwerkabteilung des RRZK und betreut dort die Netzbasisdienste wie DNS und DHCP, aber vor allem die zentralen Mailserver der Universität. Davor absolvierte er ein Studium der Germanistik, Anglistik und Philosophie mit Abschluss Magister an der Universität zu Köln.

Seine ersten Unix-Erfahrungen machte er ab 1989 mit Sinix, später mit Sun OS, Solaris, AIX, Mac OS X und natürlich Linux.

GPFS - Das Cloud Filesystem
von Frank Kraemer
Donnerstag, 27.05.2010 14:45-15:30

Das IBM General Parallel Filesystem (GPFS) ist ein paralleles Filesystem, dass im IBM Forschungszentrum in Almaden Anfang der 90 Jahre entwickelt wurden. Ursprünglich primär für die Speicherung von Multimedia Daten konzipiert, hat es sich im Laufe der vergangen Jahre zu einem der stabilsten und performantesten parallelen Filesysteme überhaupt entwickelt und steht unter Linux, AIX und Windows 2008 Server Betriebssystemen zur Verfügung. Viele große Linux Cluster Systeme im Technisch-Wissenschaftlichen Umfeld arbeiten seit vielen Jahren mit GPFS. Aber auch im Bereich der kommerziellen Anwendungen gibt es viele Installationen die sehr interessant sind. Seit kurzer Zeit wird GPFS auch als technisches Fundament für Cloud Speicherlösungen verwendet und ist damit die Basis für viele neue und spannende Anwendungen. Der Vortrag bietet eine technische Übersicht zu den aktuellen Entwicklungen von GPFS v3.3 und beschreibt die Herausforderungen im Bereich von Systems Management, Automation, WAN Support, Backup und Recovery.

Über den Referenten:

Frank Kraemer arbeitet für IBM als Systems Architekt. Zu seinen Aufgaben gehört die technische Beratung von Kunden im Bereich von Industrie, Automotive, Medien und Telekommunikation.

Weitergabe und Speicherung von IP-Adressen - wann und wie ist das rechtmäßig?
von Christoph Wegener
Donnerstag, 27.05.2010 16:00-16:45

Im Alltag eines Administrators werden rund um den Betrieb von Web- und E-Mail-Servern in vielerlei Hinsicht IP-Adressen gespeichert oder sogar an Dritte übermittelt. Häufig übersehen oder gar wissentlich übergangen wird dabei die inzwischen kaum mehr umstrittene Tatsache, dass es sich bei IP-Adressen um personenbezogene Daten handelt, die unter die Regeln des Datenschutzes fallen. Aber welche konkreten technischen und rechtlichen Konsequenzen hat diese Einordnung, insbesondere wenn die Daten an Dritte weitergegeben werden?

Der Vortrag erläutert zunächst, warum es sich bei IP-Adressen um personenbezogene Daten handelt und welche Gesetze und Regelungen hier einschlägig sind. Anschließend werden verschiedene Fallbeispiele vorgestellt und jeweils diskutiert, welche Folgen die konsequente Umsetzung der datenschutzrechtlichen Vorschriften auf die alltägliche Administration haben kann. Abschließend werden zudem entsprechende Ersatzverfahren diskutiert, die zwar den datenschutzrechtlichen Anforderungen genügen, aber zum Teil wiederum neue Probleme mit sich bringen.

Über die Referenten:

Christoph Wegener, CISA, CISM, ist promovierter Physiker und seit 1999 mit der wecon.it-consulting freiberuflich in den Themen IT-Sicherheit, Datenschutz und Open Source aktiv. Er ist Autor zahlreicher Fachbeiträge, Fachlektor bzw. -gutachter, Mitglied verschiedener Programmkomitees und engagiert sich vielfältig in der Ausbildung im Bereich der IT-Sicherheit.

Seit Anfang 2005 ist er zudem am Europäischen Kompetenzzentrum für Sicherheit in der Informationstechnik (eurobits) in Bochum tätig. Darüber hinaus ist Herr Wegener Gründungsmitglied der Arbeitsgruppe Identitätsschutz im Internet (a-i3) und dort, sowie in der German Unix User Group (GUUG), Mitglied des Vorstands.

Smart ITSM
von Dennis Blümer
Donnerstag, 27.05.2010 16:00-16:45

Mit Smart ITSM werden großartige Open-Source Werkzeuge für die System- und Serviceverwaltung zu einer einzigartigen Lösung. Basierend auf der Dokumentations- und CMDB-Lösung i-doit können bereits heute Prozesse zur Überwachung (Nagios®), dem Helpdesk (Request Tracker) oder der Inventarisierung (OCS, hInventory) eine gemeinsame, konsolidierte Sicht auf die Unternehmens-IT liefern.

Darüber hinaus gibt es aber noch eine Vielzahl weiterer freier Werkzeuge für die IT- und Systemverwaltung, die in ihrer spezifischen Disziplin mit meist ungetrübter Perfektion glänzen. Die aber erst im Zusammenspiel ihr volles Potential entfalten können. Darum geht es auf dieser Plattform, das ist der Inhalt von Smart ITSM. Hilfestellungen für Bestehendes, Diskussion über Zukünftiges und Entwicklung neuer Schnittstellen. Um aus diesen "Einzelkämpfern" eine orchestrierte ITSM-Lösung zu schaffen, die den betrieblichen Anforderungen gerecht wird und einen bedarfsorientierten Einsatz erlaubt.

Bei all dem bildet i-doit das zentrale Daten-Repository der Smart ITSM-Lösung. Die Anwendung bietet neben der ITIL®-konformen Dokumentation und Erfassung von IT-Assets und ihren Beziehungen die Möglichkeit, diese Daten anderen Prozessen zur Verfügung zu stellen, bzw. entsprechende Daten von diesen zu empfangen und zuzuordnen.

Der Vortrag zeigt das Zusammenspiel von i-doit mit verschiedenen anderen ITSM-Komponenten am Beispiel von Request Tracker, Nagios und OCS Inventory NG.

Über die Referenten:

Dennis Blümer, geb. 19.11.1980, hat an der Technischen Universität Dortmund Informatik studiert und 2008 als Diplom-Informatiker abgeschlossen. Neben dem Studium war er bereits als Anwendungsentwickler in verschiedenen Bereichen tätig. Seit Mai 2008 entwickelt er bei der Firma synetics GmbH vornehmlich an i-doit und seiner Schnittstellen.

Selbst schlau sein - SmartMeter im Selbstbau und Selbstversuch
von Klaus J. Müller
Donnerstag, 27.05.2010 16:45-17:30

Seit dem 1.1.2010 müssen Stromversorger Ihren Kunden für Neubauten sogenannte “intelligente Stromzähler” anbieten. Der Kunde soll dadurch seinen Stromverbrauch analysieren und optimieren können. Die dabei anfallenden Daten (“Stromverbrauchsprofil”) erlauben einen sehr detallierten Einblick in den Tagesablauf des Nutzers (“wann geht er in's Bett?”, “wann kocht er?”, “wie oft verwendet er seine Spülmaschine?”, “verändert sich sein Verhalten?”, ...). Darum sollten die Daten ausschließlich für den Nutzer selbst zur Verfügung stehen - und das geht nur, wenn man sich den “SmartMeter” selbst baut. Mit einem Materialeinsatz von ca. EUR 100, etwas Geschick und Zeit lässt sich das mit Hilfe eines Standard-µC-Moduls aufbauen. Ein Einblick in Selbstbau und Selbstversuch.

Über die Referenten:

Dipl.-Ing. (FH) Klaus J. Müller ist seit 2000 freiberuflich für verschiedene Industrieunternehmen sowie als Lehrbeauftragter auf dem Gebiet der Internet-Sicherheit tätig. Seine Tätigkeitsschwerpunkte sind System- und Netzwerksicherheit, Sicherheitscoaching.

NagiBot - Chatten mit Nagios
von Robin Schröder
Donnerstag, 27.05.2010 16:45-17:30

NagiBot ist eine in Perl geschriebene Nagios-Anbindung an einen Jabber-Server. Daten werden aus einer Named Pipe gelesen und in einen Conference Room oder an eine Liste von Jabber-Nutzern geschrieben. Als Alleinstellungsmerkmal gegenüber zahlreichen anderen Nagios-Jabber-Lösungen bietet NagiBot die Möglichkeit, mit Nagios zu chatten. Man kann z.B. nach dem Status des Nagios-Systems fragen, sich aufgetretene Probleme anzeigen lassen und diese bestätigen ("Acknowledge").

NagiBot wird zwar speziell für Nagios entwickelt, ist aber grundsätzlich auch für andere Lösungen einsetzbar. Die Named Pipe kann einfach zum Absetzen von Nachrichten genutzt werden.

Im Anschluss an den Vortrag wird die Installation, Konfiguration und Funktionsweise von NagiBot in Verbindung mit einem Nagios-Server praktisch gezeigt.

Über den Referenten:

Robin Schröder ist Fachinformatiker für Systemintegration. Er ist derzeit beschäftigt in der Abteilung "IT-Systeme, Software-Integration" der Verwaltung der Ruhr-Universität Bochum. Dort administriert er zahlreiche Linux-, Solaris- und Windows-Systeme und überwacht den Applikationsbetrieb mit verschiedenen Open Source-Tools.

Softwareverwaltung für Administratoren von Rechnerparks mit pkgin, pkg_comp etc
von Ignatios Souvatzis
Donnerstag, 27.05.2010 17:30-18:15

Ursprünglich für NetBSD entwickelt und bald auch auf eine Reihe anderer Betriebssysteme portiert, ist pkgsrc als Rahmen zur Übersetzung und Installation von Drittsoftware nicht nur für Einzelanwender, sondern auch für Administratoren von (besonders heterogenen) Rechnerparks eine gute Wahl. Letztere möchten gern neue Versionen zerstörungsfrei kompilieren und getrennt installieren, ohne (bis auf die Installationsphase) den Normalbetrieb zu unterbrechen.

Der Sprecher stellt vor, wie er das mit Hilfe von “pkg_comp”, “pkg_chk” und weiterer Tools kompilierseitig und von “pkgin” installationsseitig gelöst hat.

Besonders auf letzteres Werkzeug wird im Vortrag näher eingegangen, da es noch relativ neu ist. Es verwaltet Paketabhängigkeiten, verfügbare und installierte Pakete in einer (SQlite3-)Datenbank sowie einen Cache von binären Paketarchiven, so dass ein Upgrade mit minimalem Zeitaufwand und minimaler Betriebsunterbrechung stattfinden kann.

Für viele Architekturen sind inzwischen signierte offizielle Binärpakete vorhanden. Trotzdem ist es vielfach attraktiv, selbst zu kompilieren; sei es, dass man sich offenhalten will, in die tatsächlich genutzten Sourcen hineinzuschauen, sei es, dass man Optionen setzen will, die nicht die Grundeinstellung sind.

Für diesen Fall erlaubt pkg_comp das einfache Erzeugen einer chroot-Umgebung für das Bauen. Das funktioniert recht gut auch für das Bauen von Paketen für die 32bit-Maschinen auf amd64.

Mit Hilfe von pkg_chk können dann die benötigten Pakete - nach einer Aktualisierung des Sourcebaums - neu gebaut werden, wobei unveränderte Pakete aus dem vorhandenen lokalen Binärarchiv nachinstalliert werden; die nötigen Schritte (und ein Skript) zur Erzeugung der Binärpakete und der Metainformationsdatei “pkg_summary”, die von pkgin benötigt wird, runden das Verfahren ab.

Die vorgestellten Lösungen werden vom Autor auf NetBSD (verschiedene Architekturen) und Solaris beruflich und privat eingesetzt.

Über die Referenten:

Ignatios Souvatzis ist “Systemprogrammierer” (in Wirklichkeit eine Kombination eines Systemadministrators, eines Bandoperators, eines Kernelhackers und eines Benutzerberaters) in der Abteilung V des Instituts für Informatik der Universität Bonn. Er glaubt, den ersten WWW- Server an seiner Universität - jedenfalls aber in der Informatik - eingerichtet zu haben und weiß rückblickend nicht, ob er es nicht bedauern sollte.

Er ist außerdem ein NetBSD-Entwickler und war dort hauptsächlich für einige Gerätetreiber, das neue ARP-Subsystem und den Amiga-Port verantwortlich.

Er schrieb Beiträge über Unix-Anwendungen und -Administration für verschiedene Zeitschriften und ist Co-Autor je eines Buches über FreeBSD- und NetBSD- Systemadministration.

Unix lernte er in seinem zweiten Studienjahr in einer kleinen Softwarefirma auf einem Z8000- System kennen. Später kamen - neben diversen Nicht-Unizes - Ultrix auf DECstation 2100 bis 5000/260, ConvexOS auf Convex C1, AIX 2.2.1 (IBM RT), SunOS 4 und SunOS 5.x/Solaris 8-10 (Sparc) dazu.

Request Tracker(RT): Integration des RT in den täglichen Arbeitsprozess
von Torsten Brumm und Björn Schulz
Donnerstag, 27.05.2010 17:30-18:15

Request Tracker ist ein modulares OpenSource Ticket/Workflow System welches von Jesse Vincent (BestPractical Solutions/Perl/Cpan) entwickelt und von vielen Top 50 Firmen bis hin zu Non Profit Organisationen weltweit genutzt wird.

Anhand einiger Beispiele wird die Einsatzmöglichkeit und Vielfältigkeit des Tools für den täglichen Arbeitsablauf und die Integration in bestehende Systeme aufgeführt.

Es werden grundlegende User/Helpdesk Support Prozesse auf Basis des RT erklärt wie auch die Umsetzung grosser Workflows innerhalb der grössten RT Installation weltweit bei Kuehne+Nagel als Verbindung diverser Open- als auch ClosedSource Tools (sowie verschiedenste Kommunikationsprotokolle) erläutert.

Beispiele:

  • Helpdesk: Ticket Bearbeitung (Knowledgebase, Assets) (Zusammenspiel der Ticket Verarbeitung und der Knowledgebase sowie der verfügbaren Asset Verwaltung)
  • Workflow: - Airfreight Import Prozess / Anti Terror Screening (Erklärung der Umsetzung nicht IT bezogener Prozesse für die Unterstützung der Logistik Mitarbeiter)
  • Software Entwicklung / ITIL Umsetzung (Beschreibung und Umsetzung eines Software Entwicklungsprozesses samt Anbindung an die ITIL Umgebung auf Basis RT)

Weitere Informationen können einem bereits durchführten Vortrag bei der GUUG Hamburg (http://www.guug.de/lokal/hamburg/) entnommen werden.

Über die Referenten:

Björn Schulz: RT-Admin bei der DESY, seit 2000 für den Betrieb des User Helpdesk und die Weiterentwicklung des RT mit verantwortlich. Björn Schulz betreut etwa 400 User im täglichen Einsatz und Umgang mit dem Request Tracker.

Torsten Brumm: RT Admin/Developer bei Kuehne+Nagel AG, seit 2001 verantwortlich für den Betrieb, den Support und die Weiterentwicklung des RT bei Kuehne+Nagel. Torsten Brumm betreut weltweit mehr als 60.000 User zusammen mit einem Kollegen im täglichen Einsatz und Umgang mit dem RT und ist verantwortlich für die Entwicklung und Implementierung diverser interner Geschäftsprozesse auf Basis des RT.

Gesellschaftliche Auswirkungen der IT, WEB 2.0, Anforderungen an einen CTO
von Matthias Pfützner
Freitag, 28.05.2010 9:15-10:10

Frank Schirrmacher hat mit seinem Buch "Payback" eine sehr lebendige Debatte und/oder Diskussion im Feuilleton und darüber hinaus über den "Digital Divide" ausgelöst. Auch wir alle erleben es täglich, daß selbst Freunde und Bekannte (und nicht nur die "Eltern-Generation") nicht mehr verstehen, wovon oder worüber wir sprechen. Darüber hinaus, und auf einem ganz anderen Segment, müssen heute technische Leiter in Firmen sich mit neuen Technologien und den daraus abzuleitenden Konsequenzen befassen.

Dieser Vortrag möchte Einsichten in Schirrmachers Argumente bringen, und versuchen, anhand der Debatte klarzumachen. welche Anforderungen an die Gesellschaft, als auch die für die technische Entwicklung der Geschellschaft verantwortlichen Personen daraus abzuleiten sein könnten.

Über den Referenten:

Matthias Pfützner ist ein Solution Architect in der deutschen Systems Business Unit der Sun Microsystems GmbH. Seine Schwerpunkte liegen in der Beratung rund um Themen des Rechenzentrums, mit Schwerpunkten auf Cloud Computing, Virtualisierung, Provisionierung und Hochverfügbarkeit. Als Principal Field Technologist und Systems Infrastructure Ambassador umspannen seine Verantwortlichkeiten Deutschland und Europa aber auch ganz Sun Microsystems.

Matthias Pfützner ist der Lead Architect vieler Kundenprojekte, unter anderem bei Lufthansa, T-Systems und T-Mobile.

Matthias Pfützner arbeitet seit Februar 1998 bei Sun Microsystems in verschiedenen Rollen und bei vielfältigsten Kunden, wie ESOC, Deutsche Bank, Commerzbank, BASF und DaimlerChrysler.

Virtuelle Hüte
von Florian Brand
Freitag, 28.05.2010 9:15-10:00

In Red Hat Enterprise Linux 5.4 wurde die Virtualisierung deutlich erweitert: Mit KVM (Kernel Virtual Machine) wird ein neuer Hypervisor supportet, der auch die Basis für die neue Managementlösung für Virtuelle Umbgebungen bildet.

Dieser Vortrag beleuchtet die Unterschiede zwischen KVM und XEN und geht näher auf die spezifischen Features von KVM ein: - Hypervisor als normaler Linux Prozess: Bei anderen Virtualisierungslösungen sind virtuelle Systeme nur über spezifische Tools managebar. Bei KVM ist jede Virtuelle Maschine ein eigener Prozesss und kann über normale Tools (nice, ionice, tasksets..) gemanaget werden.

  • Hardware Management Spezielle Treiber im Gastsystem (VirtIO) ermöglichen eine deutlich verbesserte Performance gegenüber emulierten Standardgeräten. Das Gastsystem muss ansonsten nicht an die Virtualisierung angepasst werden
  • Kernel Same Page Merging Neuere Linuxkernel sind in der Lage Identische Speicherseiten zu deduplizieren. KVM nutzt dieses Feature um den Speicherverbrauch deutlich zu reduzieren
  • Virtualisierung und Sicherheit Virtualisierung ermöglicht neue Angriffsvektoren. Mittels sVirt, eine Erweiterung für SELinux kann dieses Risiko deutlich reduziert werden
  • Red Hat Enterprise Virtualization RHEV ist eine Managementlösung für virtuelle Server und Desktops. Der Vortrag stellt die Features der ersten Version kurz vor und gibt einen Ausblick in die Zukunft.
  • SPICE Desktop Virtualisierung benötigt leistungsfähige Remote Desktop Protokolle. Das Open Source Protokoll SPICE ist für Multimedia und niedrige Latenzzeiten optimiert
.

Über den Referenten:

Florian Brand ist seit über 10 Jahren bei Red Hat als Trainer und Kursautor beschäftigt. Bisher hat er in über 25 Ländern Schulungen und Vorträge zu den verschiedensten Administrationsthemen gehalten. Die Zertifizerung zum Red Hat Certified Architect (RHCA) schloss er als erster weltweit ab.

Vor seiner Zeit bei Red Hat studierte er Physik an der Universität Würzburg. In der "Analogen Welt" entspannt sich Florian beim Tauchen und Gitarrenspiel.

Open Source im professionellen Einsatz: Linux auf 80000 Desktops
von Harald Milz    fällt leider aus
Freitag, 28.05.2010 10:30-11:15

Linux auf dem Desktop ist seit Jahren ein Thema, das von vielen Unternehmensanwendern eher links liegen gelassen wird. Die "Leuchtturm"-Projekte finden nahezu ausnahmslos in der öffentlichen Verwaltung statt -- Landeshauptstadt München (LiMuX), Stadt Wien, Mexico City, um nur einige zu nennen. Von großen Desktop-Migrationsprojekten in Unternehmen ist nur wenig bekannt. Dieser Beitrag beschreibt eines der größten nicht-öffentlichen Desktop-Migrationsprojekte in Europa. Der Kunde (ein Unternehmen der Finanzbranche) hat entschieden, in den nächsten vier Jahren bis zu 80000 Arbeitsplatzsysteme von Microsoft Windows nach Linux zu migrieren. In dem Beitrag wird es vor allem darum gehen, das Umfeld zu beschreiben, in dem sich das Migrationsprojekt bewegt, die Aufgabenstellung zu skizzieren und auszuleuchten, wie mit welchen Problemstellungen umgegangen wurde, um zu einer betreibbaren Lösung zu kommen. Einige der Detailprobleme umfassen Authentifizierung, Drucker- und Shareanbindung an das weiterhin bestehende Windows-Netzwerk, Integration kundenspezifischer Anwendungen, Virtualisierung, Softwareverteilung und nicht zuletzt Support- und Betriebsthemen.

Über den Referenten:

Harald Milz ist IT-Architekt Linux / Open Source bei der Millenux GmbH. In seiner Arbeit beschäftigt er sich seit 17 Jahren mit allen Themen rund um Linux und Open Source, als Fachjournalist, Systems Engineer und Consultant. Linux auf dem Desktop und Virtualisierung stellen aktuelle Arbeitsschwerpunkte dar.

Modellierung virtueller Netzwerke für Xen/KVM
von Thomas Groß
Freitag, 28.05.2010 10:30-11:15

In Virtualisierungsservern und -Clustern können nicht nur einfach virtuelle Maschinen sondern auch mehrere Netzwerke für komplexe IT-Infrastrukturen abgebildet werden. Dazu werden virtuelle Maschinen an verschiedene Bridges gebunden. Beim Umzug von virtuellen Maschinen sowie bei der Clusterplanung müssen diese Abhängigkeiten berücksichtigt werden. Die vorgestellte Lösung ist Bestandteil des LAX Frameworks zur Administration von IT-Infrastrukturen und ergänzt die bereits vorhandenen Techniken für das Management virtueller Maschinen. Die Software basiert auf den Technologien LVM. iSCSI, XEN, KVM, OpenSSH und KDE und wird mittels openSUSE oder SLES11 implementiert. Es stehen sowohl Kommando-Tools (Bash-/Python/Perl-Scripte) als auch KDE(Kommander)-basierte GUI-Werkzeuge zur Verfügung. Die Software unterliegt der GPL.

Über den Referenten:

Thomas Groß ist Geschäftsführer der Firma teegee. Er hat an der TU Chemnitz Informationstechnik studiert und ist seit 1990 selbständig. Schwerpunkte seiner Arbeit sind linuxbasierte IT-Infrastruktur sowie System- und Netzwerkadminstration. In seiner Freizeit widmet er sich seinen Kindern, Bergtouren, Laufen oder Skifahren. Bei den Offline-Medien bevorzugt er Bücher wie von J.K. Rowling, J. R. R. Tolkien oder Walter Moers die er leider schon alle gelesen hat.

FAI - Ein Projekt wird 10 Jahre alt
von Thomas Lange
Freitag, 28.05.2010 11:15-12:00

Ende 1999 wurde Version 1.0 der Software FAI (Fully Automatic Installation) veröffentlicht. 10 Jahre später wird das Projekt immer noch aktiv weiterentwickelt und hat sich einen festen Platz in der Systemadministration geschaffen.

FAI begann als automatisierter Netzwerkinstaller für Debian, der schon von Anfang an ein eigenes Klassenkonzept beinhaltete. Mit den Jahren sind viele Erweiterungen eingeflossen, sodass FAI mittlerweile auch das ganze Konfigurationsmanagement übernehmen kann und nicht mehr auf eine bestimmte Linux Distribution festgelegt ist. Ebenso können neben realer Hardware auch virtuelle Rechner installiert und konfiguriert werden und unterschiedliche Installationsmedien genutzt werden.

Der Vortrag gibt einen kurzen Rückblick auf 10 Jahre Entwicklung des Projekts und zeigt die neuesten Features der aktuellen FAI Version 3.3.5.

Über den Referenten:

Thomas Lange hat ein Diplom in Informatik und ist seit über 18 Jahren Systemadministrator am Institut für Informatik der Universität zu Köln. Große Teile seiner Arbeit werden automatisch von Shell- und Perlskripten verrichtet und erledigen die Installation und Administration von Debian Arbeitsplatzrechnern. Seit 1999 entwickelt er die vollautomatische Installation für Linux. Seit 2000 ist er außerdem Debian Entwickler und bezeichnet sich als "Infrastruktur Architekt".

Er gab mehrere Vorträge und Tutorials über FAI auf verschiedenen Konferenzen wie z.B. Linux-Kongress, LinuxTag, LCA, SANE, FOSDEM, SUCON, CeBIT, FrOSCon, DebConf, UKUUG und bei einigen lokalen Linux Treffen.

FreeBSD Netzwerk Virtualisierung (Jails V2)
von Dirk Meyer
Freitag, 28.05.2010 11:15-12:00

Das Jail in FreeBSD wurde erheblich erweitert. Hier werden die neuen Funktionen und deren Anwendung vorgestellt. Insbesondere die Netzwerk Virtualisierung wird an Bedeutung gewinnen.

Was sind Jails und warum sollte man sie einsetzen. Es gibt praktische Beispiele zur Trennung von Diensten und deren Verwaltung. Mit Jails V2 kann man jetzt mehre IP's pro Jail haben, und auch IPv6 innerhalb von Jails verwenden.

Eine gibt eine kurze Übersicht über die Systemwerkzeuge für Jails. Dann folgt das Einrichten und Überwachen von Jails mit SNMP.

Mit der Einrichtung der Netzwerk Virtualisierung geht es in neue Anwendungsfelder. Netzwerkkarten können exklusiv einem Jail zugewiesen werden, dieses Jail hat dann einen eignen Netzwerk-Stack und damit auch eine eigene Routing Tabelle. Damit ist es möglich mehrfache Uplinks, DSL oder Tunnel zu verwenden ohne dass dieses miteinander oder mit dem Hauptsystem in Konflikt kommen. Auch mehrfache VPNs lassen sich so komplett abbilden.

Dann zur Vorstellung des IMUNES Netzwerk Simulators, der es erlaubt ganze Netzwerke unter FreeBSD zu simulieren. Hier wird die Vielseitigkeit dieses Tools an einigen Beispielen demonstriert. Es können Kapazitäten, Latenzen, Paketverluste, Routing und vieles mehr direkt erprobt werden. Im Gegensatz zu anderen Simulationen kann man einen Shell oder auch andere Programme auf den Knoten des Netzwerkes starten und direkt das Netzwerk benutzen.

Zum Abschluß wird ein Ausblick auf die aktuellen Entwicklungen für Jails und Netzwerk Virtualisierung gegeben. Hier sind zu nennen die Hierarchical Jails, FreeVPS, CPU and RAM Limits.

Über den Referenten:

Dirk Meyer ist Diplom Informatiker (FH) und ist seit 20 Jahren mit den Schwerpunkten Unix, Netzwerk und Sicherheit aktiv. Er ist langjähriges Mitglied der German Unix User Group und hat die Linux User Group in Kassel mit gegründet. Seit 2001 ist er Commiter im FreeBSD Projekt und in 2008 hat er die BSDA Zertifizierung der BSD Certification Group erlangt. Er ist sowohl freiberuflich als auch als Leiter Entwicklung und Support bei der Servator Consulting GmbH tätig.

Ressource-Management in Linux mit Control Groups (cgroups)
von Daniel Gollub
Freitag, 28.05.2010 13:30-14:15

Control Groups sind seit 2.6.24 im Linux Kernel und Bestandteil von aktuellen GNU/Linux Distributionen. Control Groups erlaubt Prozesse in Gruppen zu fassen und deren Eigenschaften mit Hilfe von Control Groups Subsystemen zu manipulieren und stellt in GNU/Linux eine neue einheitliche Möglichkeit Systemressourcen gezielt an Prozesse zu verteilen. Der Vortrag gibt eine Kurzeinführung zu dem Thema, lüftet das Buzzword cgroups und was dahinter steckt und erklärt, welche Möglichkeiten existieren. Ressourcenverwaltung in GNU/Linux wird bei immer weiter wachsenden Systemressourcen und deren neuen Funktionen (NUMA, ...) immer wichtiger.

Über den Referenten:

Daniel Gollub ist bei der B1 Systems als FOSS Entwickler taetig und kuemmert sich um die Analyse von Kernel-Dumps die Support-Kunden der B1 zur Analyse schicken. Nach seiner Ausbildung bei SuSE war Daniel primaer als Realtime Kernel Entwickler taetig.

Virtuelle Netzwerke in OpenSolaris und Solaris Zonen
von Ulrich Gräf
Freitag, 28.05.2010 13:30-14:15

Die für OpenSolaris und Solaris zur Verfügung stehenden Virtualisierungsmethoden unterstützen jeweils verschiedene Mechanismen zur Modellierung des Netzwerks. Für die Virtualisierung mit Zonen sind in OpenSolaris bereits neue Technologien im Rahmen des Projekts Crossbow verfügbar.

Im Rahmen des Projekts Crossbow ist es möglich virtuelle Netzwerk-Interfaces zu kreieren, die wie physikalische Netzwerk-Interfaces benutzt werden können. Insbesondere lassen sie sich exklusiv zu Zonen zuordnen.

Sie können als Teil eines physikalischen Netzwerk-Interfaces realisiert werden, wobei der Netzwerk-Verkehr zwischen den virtuellen Netzwerk Interfaces getrennt bleibt. Virtuelle Netzwerk-Interfaces können auch als Port an einem virtuellen Netzwerkswitch kreiert werden, der keine direkte Verbindung zu Netzwerken außerhalb des Rechners hat. Damit lassen sich beliebige Netzwerkstrukturen zwischen Zonen konfigurieren.

Ein weiteres Element im Projekt Crossbow ist die Möglichkeit der Konfiguration der Menge des Netzwerkverkehrs über virtuelle Netzwerk-Interfaces, wodurch auf einfache Art und Weise den Anforderungen für Applikationen entsprochen werden kann.

Die Möglichkeiten dieser Konfigurationen wird in dem Vortrag inklusive entsprechender Kommandos vorgestellt.

Ein Teil von Projekt Crossbow wurde bereits in Solaris 10 im Rahmen von exclusive-IP Zonen implementiert. Mit Beispielen wird erläutert, wie man in Solaris 10 bereits Netzwerkkonfigurationen mit fast beliebiger Topologie erstellen kann.

Über den Referenten:

Ulrich Gräf als Senior SE bei Sun Microsystems Deutschland GmbH tätig. Seine Spezialgebiete sind Solaris / OpenSolaris, Performance und Architekturen.

Nach dem Informatik-Studium an der TH Darmstadt (heute TU Darmstadt) war Ulrich Gräf an verschiedenen Instituten der TH Darmstadt für Ausbildung und verschiedene Projekte tätig. Seit 1992 ist er Mitarbeiter von Sun Microsystems. Dort war er im Presales für die Finanzindustrie und im Benchmark Zentrum tätig. Augenblicklich beschäftigt er sich hauptsächlich mit Betriebsystem und Performance Themen und der Kommunikation bezüglich dieser Themen zwischen Endkunde, Vertrieb und Sun Engineering.

OpenVZ Container für Linux
von Erkan Yanar
Freitag, 28.05.2010 14:15-15:00

Für Linux gibt es mehrere Containerlösungen OpenVZ ist die gegenwärtig populärste Lösung und steckt hinter den meisten Anbietern von VServern. Der Vortrag führt in die Grundlegende Theorie und Praxis von OpenVZ ein. Neben dem Umreißen des Einsatzzwecks - gerade in Abgrenzung zu Para/Voll-virtualisierungslösungen wird der Zuhörer - wenn er denn aufpasst :) - am Ende der Vortrags seine ersten Container verwalten können und hoffentlich von der Einfachheit der Lösung überzeugt sein.

Über den Referenten:

Der Autor ist sein den späten 90ern hauptsächlich unter Linux unterwegs. Gegenwärtig hat er als DBA in einem großen Unternehmen mit verschiedenen Virtualisierungslösungen (Xen, VMware ESX, Solaris Zonen und eben OpenVZ zu tun.)

Der tiefe Sprung in die kalten, kurzen Zeiten
von Bertram Dorn
Freitag, 28.05.2010 14:15-15:00

Fragen wie:

  • "Wo kommen die 10ms Delay her?"
  • "Warum 'hakt' das wenn wir doch genug CPU-Power Haben?"
  • "Wieso greifen die CPU Limits nicht so wie sie sollen?"
werden immer häufiger gestellt. Auch arbeiten wir mit heutigen Systemen teilweise in Zeitbereichen, welche sich nur schwer vorstellen lassen. So sind früher Sekunden/Milli-Sekunden als Masseinheit normal gewesen. Heutzutage werden auch gerne Zeitbereiche in den Microsekunden / Nanosekunden diskutiert. Dies hat auch Auswirkungen auf den Betrieb und die Diskussionen mit den Anwendungen. CPU-Zyclen stehen in Giga-Hertz Bereich zur Verfügung, und doch tut die Anwendung nicht so wie sie soll? Daher sollen mit Blick auf die aktuellen Zeitskalen den Algorithmen wie
  • Scheduler
  • Speicher-Management
  • Queues im Netzwerkstack
'mal unter die Haube' gesehen werden, um Effekte besser einschätzen zu können, und den Diskussionen mit den Anwendungen gewappnet zu sein.

Über den Referenten:

Bertram Dorn ist schon lange für Sun und noch länger mit Sun unterwegs, und widmet sich in seiner Tätigkeit im ProfessionalService Bereich den zeitgesteuterten Problemen. Sei es nun daß Dinge zeitkritisch Installiert / zum laufen gebracht werden sollen, oder eben nach der Installation für die Anwender nicht schnell genug sind. Auch sind derartige Problemstellunge nur handhabbar, wenn zumindes ein Überblick über den kompletten Stapel an Technologien, welche vereint worden sind, möglich ist. Und so sieht sich Bertram Dorn mehr als Spezialist der Tiefe UND Breite denn als tiefer Speziealist. Dass die Möglich sein muss und ist, daraus besteht ein Teil der "Mission"

Was ist neu in Apache httpd 2.3/2.4?
von Sascha Kersken
Freitag, 28.05.2010 15:30-16:15

Der Apache-Webserver ist seit 15 Jahren die Nummer Eins. Mit Version 2.4 (zz. noch 2.3-alpha) steht bald wieder ein größeres Update an. Der Vortrag stellt die Neuerungen anhand konkreter Konfigurationsbeispiele vor - u.a. flexiblere Zugriffs- Kontrolle mit den neuen <Require*>-Containern, zur Laufzeit ladbare MPM oder mod_lua.
Über den Referenten:

Sascha Kersken kam 1983 zum ersten Mal mit einem Computer in Berührung und hatte später das Glück, dieses langjährige Hobby zu seinem Beruf machen zu können. Er arbeitet als PHP-Entwickler bei der papaya Software GmbH in Köln an dem gleichnamigen Open Source-CMS. Außerdem ist er Fachbuchautor, Dozent und IT-Berater mit den Schwerpunkten Unix-Serveranwendungen und Webentwicklung. Zu seinen zahlreichen Veröffentlichungen gehören das "IT-Handbuch für Fachinformatiker" und "Apache 2" (Galileo Press) sowie "Praktischer Einstieg in MySQL mit PHP" (O"Reilly Verlag); außerdem hat er eine Reihe englischsprachiger Fachbücher übersetzt bzw. mitübersetzt.

ZFS - Übersicht und Best Practices
von Franz Haberhauer
Freitag, 28.05.2010 15:30-16:15

Seit über vier Jahren bietet Solaris mit ZFS ein Dateisystem, das einerseits Volumemanagement integriert, sich vor allem aber durch seine Integrität auszeichnet, die durch Transaktionskonzepte und eine konsequente Nutzung von Prüfsummen sichergestellt wird. Integrierte Snapshots, Kompression, ein umfassendes Konzept für Quotas sind Beispiele für die umfangreiche Funktionalität, die zudem ständig erweitert wird - so ist in OpenSolaris seit kurzem Deduplication verfügbar. Die Möglichkeit ZFS auch für das Root-Filesystem zu nutzen eröffnet elegante Möglichkeiten insbesondere für Betriebssystem-Upgrades.

Bei der Entwicklung von ZFS war ein Ziel, die Notwendigkeit von Tuning-Massnahmen zu minimieren - daher werden Einstellungen und Algorithmen in ZFS gelegentlich auch an die Erfahrungen im Feld angepasst. Deswegen sollten ältere Tuning-Hinweise auch immer wieder hinterfragt werden. Konfigurationsentscheidungen haben aber durchaus Einfuss auf die Performance und einige Lasten - insbesondere Datenbanken - können von geeigneten Einstellungen profitieren.

Täglich bis zu 50-100 Postings allein im OpenSolaris-Forum zfs-discuss zeigen das große Interesse an dieser Technologie.

Der Vortrag gibt eine kurze Einführung in ZFS und den aktuellen Stand der Entwicklung. Aus jahrelanger Erfahrung mit ZFS werden danach Hinweise zur Konfiguration gegeben und "Best Practices" vorgestellt sowie einige häufiger gestellte Fragen zur Performance diskutiert.

Über den Referenten:

Franz Haberhauer ist Cheftechnologe und Principal Engineer bei der Sun Microsystems GmbH in der Systems Line of Business. Seit über 17 Jahren unterstützt er Kunden bei der Einführung neuer Technologien in und rund um Solaris.

Raus aus der Anti-Spam Steinzeit!
von Patrick Koetter
Freitag, 28.05.2010 16:15-17:00

Wir leben in der Anti-Spam Steinzeit! Alles was unsere Programme von selbst sagen können ist "Böse Mail" oder "Hmmm?". Das ist schlecht, denn je mehr Methoden wir einführen um andere als Böse zu erkennen, desto wahrscheinlicher wird es, dass auch wir als Böse (v)erkannt werden.

Das Anti-Spam-Vokabular muss erweitert werden! DKIM und ADSP sind Standards mit denen Mailer eine (gute) Reputation aufbauen und so den Wortschatz der Anti-Spam Applikationen um das Wort "Gut" bereichern können.

Der Vortrag stellt die Methoden vor und zeigt anhand des kommenden Standards ARF wie DKIM-Reputation schon heute effektiv genutzt werden kann.

Über den Referenten:

Patrick Ben Koetter ist Co-Autor von "Postfix - Einrichtung, Betrieb und Wartung". Als Mail-Consultant berät er mittelständische und Großunternehmen bei Architektur- und Technologie-Entscheidungen für Systeme von 10 bis 10.000.000 Usern.

Deduplication - Verfahren, Wahrscheinlichkeiten, Nutzen
von Jörg Möllenkamp
Freitag, 28.05.2010 16:15-17:00

Mit ZFS beinhaltet erstmals ein Filesystem Deduplikation. Es ist davon auszugehen, das ZFS damit nicht auf Dauer allein bleiben wird. Doch wie funktioniert Deduplikation? Warum ist Deduplikation ein Spiel mit den Wahrscheinlichkeiten? Welchen Nutzen habe ich davon? Wie Nutze ich es? Welche anderen Deduplikationsverfahren gibt es? Wann sollte ich es einsetzen? Wann kann ich es einsetzen? Wie kann ich die Notwendigikeit zur Deduplikation umgehen? Diese und mehr Fragen will dieser Vortrag beantworten.

Über den Referenten:

Jörg Möllenkamp ist Pricipal Field Technologist bei Sun Microsystems. Er arbeitet in der Hamburger Geschäftsstelle des Unternehmens. Zudem führt er mit c0t0d0s0.org eines der reichweitenstärksten Blogs zum Thema Sun und Solaris 10 und ist Mitbegründer der Hamburger (Open)Solaris User Group.