Plattformübergreifende Dateidienste sicher anbieten von Daniel Kobras und Michael Weiser
|
Dienstag, 26.2.2013 10:00-18:00 und Mittwoch, 27.2.2013 10:00-18:00
|
Das Tutorium behandelt die Implementierung sicherer Dateidienste
für Unix-, Linux- und Windows-Clients. Es wendet sich an
Administratoren, die in ihren Umgebungen Dateidienste über CIFS oder
NFS anbieten und nun die Sicherheit dieser Services erhöhen
möchten. Dazu werden folgende Szenarien betrachtet:
1. Infrastruktur Active Directory: Dieses Szenario geht aus von
einer bestehenden Infrastruktur basierend auf Active Directory, in der
Dateidienste über CIFS und NFSv3 angeboten werden. Das Ziel ist die
Migration auf NFSv4 mit GSS als Security Flavor. Die Teilnehmer lernen
hier den Aufbau eines kerberisierten NFSv4-Dienstes mit Anbindung an
das Active Directory.
2. Open-Source-Infrastruktur mit OpenLDAP und Samba: Die
Ausgangslage in diesem Szenario ist eine reine
Open-Source-Infrastruktur mit OpenLDAP und einer Samba-3-Domäne. Als
Dateidienste existieren auch hier bereits CIFS und NFSv3. Das Ziel ist
ebenfalls die Ablösung von NFSv3 durch sicheres NFSv4. Während das
Active Directory aus Szenario-1 bereits eine vollständige
Kerberos-Infrastruktur beinhaltet, soll diese hier mit möglichst
geringem Aufwand erst noch aufgebaut werden. Dazu lernen die
Teilnehmer, wie sich die Samba-3-Domäne mit Hilfe der
Kerberos-Implementierung Heimdal ohne Migrationsaufwand zu einer
Kerberos Realm erweitern lässt.
3. Neue Infrastruktur mit OpenAFS: Im dritten Szenario verzichten
die Teilnehmer auf CIFS und NFS, um statt dessen eine alternative
Lösung mit OpenAFS aufzubauen. Damit eröffnet sich die Möglichkeit
eines einheitlichen Dateidienstes für Unix-, Linux- und
Windows-Clients. Verglichen mit Szenario-1 und 2 entsteht hier ein
höherer Migrationsaufwand. Die Kerberos-Infrastruktur aus Szenario-1
oder 2 lässt sich jedoch auch für OpenAFS verwenden. Die Sicherheit
der einzelnen Varianten unterscheidet sich hinsichtlich der Kriterien
Daten-Integrität, -Vertraulichkeit und Authentisierung. Zusammen mit
den Teilnehmern werden die einzelnen Lösungen im Verlauf des Workshops
darauf hin analysiert und bewertet.
Voraussetzungen: Grundlegendes Know-How in der
Linux-Netzwerkadministration. Grundkenntnisse zu Kerberos, LDAP, Samba
und NFS sind empfehlenswert.
Mitgebrachte Rechner sollten folgende Voraussetzungen erfüllen:
- frisch installiertes, nicht produktiv genutztes Linux einer
aktuellen Distribution, das weitreichend umkonfiguriert werden
kann.
- Debian 6 empfohlen, aktuelle Ubuntu, OpenSuSE und Fedora
möglich
- abweichende Distributionen auf eigene Gefahr des Teilnehmers
(gegebenenfalls Übersetzen fehlender Software nötig, z.B. Heimdal KDC
unter Fedora – wir unterstützen dabei)
- Möglichkeit zum Nachinstallieren von Distributionssoftware
(Installations-CDs oder Online-Repositories via Netzwerk)
- optional ein frisch installiertes, nicht produktiv genutztes
Windows XP, Vista oder 7 (Professional/Ultimate, keine Home
Edition)
- Je eines oder auch beide Systeme können virtualisiert laufen. Sie
benötigen dann direkten Zugriff auf das Netzwerk (bridged mode).
- Auf Anfrage stellen wir virtuelle Maschinen mit Debian 6 und
Windows 7 Ultimate zur Verfügung. Hierfür ist ein aktueller,
installierter und funktionsfähiger VMware Player, Server oder
Workstation mitzubringen und der Umgang damit zu beherrschen.
|
Über die Referenten:
Daniel Kobras ist als Senior Systems Engineer bei der Tübinger
science+computing ag beschäftigt. Dort arbeitet er unter anderem an
skalierbaren Speicherlösungen für Kunden der Automobilindustrie.
Michael Weiser begleitet seit 2004 bei der science+computing ag
Projekte und Workshops zu den Themen LDAP, Kerberos und AD-Integration
sowie High-Performance-Computing.
|
|
OpenNMS: Make the net work :) von Alexander Finger
|
Dienstag, 26.2.2013 10:00-18:00
|
OpenNMS (Open Network Management System) ist das älteste, freie,
„große“ Netzwerkmanagement-System. OpenNMS überwacht Server, Router,
Switche, Drucker, Getränkeautomaten, Wetterstationen. Die Erfassung
von Daten kann über „klassische“ Protokolle (SNMP, JMX) und
alternative Wege (http(s), JDBC, ..) erfolgen. Der Fantasie und
Kreativität sind kaum Grenzen gesetzt ;)
Als Trap-Sink und Endpunkt für Syslog-Nachrichten kann OpenNMS die
gesammelten und empfangenen Daten graphisch darstellen, analysieren
und entscheiden, ob ein Zustand die Aufmerksamkeit eines Menschen
verlangt oder nicht („Alarm!“). Alarme können von OpenNMS über die
mitgelieferten Wege (XMPP, Mail, http) oder beliebige Erweiterungen
(bash, perl, php, python..) an den Admin gebracht werden. Die
Möglichkeit, Nodes in eine oder mehrere Kategorien einzuteilen und
diese Kategorien in Filterregeln zu nutzen erlaubt es OpenNMS, diese
Informationen sehr fein zu sortieren – damit hat die Überflutung der
von Admins mit nicht mehr gelesenen Alarmen ein Ende.
Die Reporting-Funktionen erlauben dem System die
Kunden-/Managementgerechte Aufbereitung der gemessenen Werte,
Echtzeit-Informationen zeigt OpenNMS in Kartenform an.
Umsysteme (CMDBs) können OpenNMS mit Daten füttern oder
(Ticketingsysteme) von OpenNMS gefüttert werden. Die wichtigsten
Funktionen sind über eine REST-Schnittstelle verfügbar.
Die Entwicklung von OpenNMS treiben größtenteils Unternehmen
voran, die es als Ersatz für die Big-Player im Netzwerk-Management
einsetzen. Die von diesen Unternehmen durchgeführten Anpassungen
fliessen vollständig in das Open-Source-Produkt ein – es gibt von
OpenNMS keine “Enterprise”-Version.
In den letzten Jahren hat OpenNMS sich stark weiterentwickelt – die
komplett in Java geschriebene Applikation ist auch ohne
Java-Kenntnisse installier-, benutz- und erweiterbar. Der
Ressourcenhunger der Anwendung ist gering, einige hundert Nodes können
noch von einer virtuellen Maschine aus überwacht werden.
OpenNMS ist ein ausgereiftes, mächtiges und flexibles Werkzeug um
sämtliche Dinge zu messen und managen, die über das Netz ausgelesen
werden können.
Am Ende des Tutorials können die Teilnehmer OpenNMS installieren,
Nodes hinzufügen und Notifications einrichten. Je nach Geschwindigkeit
gehen wir weiter in die Konfiguration von SNMP oder
Syslog-Notifications ein.
|
Über den Referenten:
Alexander Finger hat OpenNMS bei einem europäischen
Internet-Dienstleister eingeführt, um über 60.000 Geräte in ganz
Europa zu überwachen. Im Rahmen dieses Projektes wurde die
Zusammenarbeit mit OpenNMS so intensiv, dass er Mitglied des
Projekt-Teams („Order of the green polo“) wurde. Gemeinsam mit Ronny
Trommer und Klaus Thielking-Riechert hat er das Buch zum Einstieg in
OpenNMS (Netzwerkmanagement
mit OpenNMS) geschrieben. Heute unterstützt er das OpenNMS-Projekt
mit Beratungsdienstleistungen und hilft, OpenNMS in Europa bekannter
zu machen.
Er arbeitet für einen großen Schweizer IT-Dienstleister als
Berater und führt freiberuflich Trainings zu OpenNMS und dem Request
Tracker durch.
|
|
Wireshark – Anwendungsmöglicheiten und Erweiterungen von Martin Kaiser
|
Dienstag, 26.2.2013 10:00-18:00
|
Wireshark ist ein mächtiges Werkzeug, um alle möglichen
Kommunikationsprotokolle zu analysieren, vermutlich hat jeder
FFG-Teilnehmer bereits damit gearbeitet.
Dieses Tutorium gibt einen Überblick über die Features und
Konfigurationsmöglichkeiten von Wireshark und zeigt auch weniger
offensichtliche Anwendungsmöglichkeiten auf. Außerdem werden die kürzlich
hinzugegekommenen Funktionen vorgestellt und über die aktuelle Entwicklung
berichtet. Es wird auch gezeigt, wie einfach man Unterstützung für ein neues
Protokoll hinzufügen kann. Und nicht zuletzt ist ausreichend Zeit eingeplant
für Fragen zu Wireshark und für Anregungen, was an Wireshark fehlt oder
verbessert werden könnte.
Die Teilnehmer sollten einen Rechner mit der aktuellen Wireshark Version
1.8 mitbringen. Und natürlich Fragen und Anregungen. Wer möchte,
bringt noch die Spezifikation und Logfiles eines Protokolls mit, das
Wireshark noch nicht unterstützt.
Geplante Themen des Tutoriums sind:
-
Grundlegende Funktionen
- GUI-Oberfläche
- Überblick über die Kommandozeilen-Tools
-
Architektur
- Wie arbeitet Wireshark? Aus welchen Komponenten besteht es?
-
Konfigurationsmöglichkeiten
- „Wireshark muss nicht als Root laufen“
- Display Filter, Capture Filter
- Columns, Preferences, Coloring rules, ...
-
Neue Features der aktuellen Wireshark-Version 1.8
- pcapng-Dateiformat
- Kommentare für Captures und Pakete
- Logging auf mehreren Interfaces
-
Anwendungsbeispiele
- Smartcard-Initialisierung
- Sendersuchlauf beim digitalen Fernsehen
- Analyse eines Verschlüsselungsprotokolls
-
Wie kann ich wireshark erweitern?
- Unterstützung für ein neues Protokoll
- Unterstützung für ein neues Dateiformat
- Plugin-Schnittstelle für binäre Erweiterungen (und warum man seine Erweiterungen trotzdem als Open Source veröffentlichen sollte)
- Ausblick auf künftige Versionen
- Fragen, Diskussion
|
Über den Referenten:
Martin Kaiser ist Mitglied des Wireshark Core Teams und arbeitet an
der Weiterentwicklung von Wireshark mit.
Als Softwareentwickler bei Panasonic Europe im Bereich Digitales
Fernsehen standardisiert und implementiert er Pay-TV Protokolle wie
DVB-CI und CI+, die Bestandteil aller aktuellen TV-Geräte sind. Bei der
Suche nach geeigneten Analyse-Tools wurde er auf Wireshark aufmerksam
und war begeistert davon, wie gut sich Wireshark selbst für Aufgaben
verwenden lässt, für die es nie gedacht war.
Nach seinem Studium der Elektrotechnik an der Universität Karlsruhe war
er zunächst bei einem großen Internetprovider beschäftigt, wo er für die
Konzeption und Administration von IP-Netzen und Unix-Servern
verantwortlich war.
|
|
ISO 2700x und IT-Grundschutz mit dem OpenSource-Tool „verinice“ von Alexander Koderman
|
Dienstag, 26.2.2013 10:00-18:00
|
Das eintägige Tutorium befähigt die Teilnehmer, die wichtigen Komponenten eines
Managementsystems für Informationssicherheit (ISMS) nach dem internationalen
Standard ISO 27001 sowie der deutschen Erweiterung BSI IT-Grundschutz zu
verstehen und mit Hilfe des freien Tools „verinice“ wesentliche notwendige
Schritte zur Implementierung selbst durchzuführen, u.a.:
- Definition des Geltungsbereichs
- IS-Policy / ISMS-Policy (Abgrenzung)
- Anwendbarkeit der Standard-Controls / Maßnahmen
- Selbst-Audit zur Einschätzung des Zustands der IS
- Inventar der Informationswerte
- Durchführen einer Risikobewertung
- Risikobehandlung
- Erstellen von Referenzdokumenten
Die Inhalte werden jeweils erst fachlich vorgestellt und
anschließend mit Spaß am Gerät umgesetzt.
Die Teilnehmer müssen einen eigenen Rechner (Linux / Windows /
MacOS X) mitbringen, um an den praktischen Übungen teilzunehmen.
|
Über den Referenten:
Alexander Koderman ist Leiter der Abteilung „Certifications &
Audits“ bei der SerNet GmbH in Berlin.
Er ist CISA, lizenzierter BSI
IT-Grundschutz Auditor und ISO 27001 Lead Auditor. Er verfügt über
langjährige Erfahrung in der Prüfung und Umsetzung von
IS-Managementsystemen in Organisationen jeder Größenordnung. Als
Projektleiter ist er für die fachliche Weiterentwicklung von verinice
verantwortlich, dem OpenSource Tool für IS-Management und
Auditierung.
|
|
Monitoring mit Zabbix – erfolgreich und schnell ein- oder umsteigen von Thorsten Kramm
|
Mittwoch, 27.2.2013 10:00-18:00
|
Zabbix ist eine Enterprise Opensource Monitoringlösung, die alle
Bereiche von komplexen EDV-Systemen überwacht. Im Tutorium lernen die
Teilnehmer den schnellen Einstieg.
- Einsatzgebiete und Leistungsfähigkeit von Zabbix
- Installation
- Daten Sammeln: Item Einrichten
- Daten auswerten: Trigger einrichten
- Daten visualisieren, Graphen auswerten
- Alarmieren: Action und Media einrichten
Nach dem Tutorium kennen die Teilnehmer die Leistungsfähigkeit von
Zabbix und können erste Überwachungen anlegen. Viele
Best-Practice-Beispiele runden das Tutorium ab.
|
Über den Referenten:
Thorsten Kramm ist Systemadministrator und Consultant mit den
Schwerpunkten Monitoring mit Zabbix, Monitoring großer Systeme, Webhosting,
PHP und MySQL sowie Autor des deutschen
Zabbix Wikis.
|
|
Metasploit Kung Fu für Systemadministratoren von Michael Messner Ausgebucht
|
Mittwoch, 27.2.2013 10:00-18:00
|
Bei Metasploit handelt es sich um ein so genanntes Exploiting oder
Pentesting Framework. Die Betonung liegt an dieser Stelle ganz klar
auf Framework. Neben den typischen Exploits die in Metasploit
integriert sind, unterstützt es nicht ausschließlich den Pentester
sondern ebenso den Sicherheitsforscher mit unterschiedlichsten
weiteren Möglichkeiten zur Erkennung und Analyse bekannter wie auch
unbekannter Schwachstellen in IT Systemumgebungen.
Speziell durch den Open Source Charakter von Metasploit erfreut es
sich im IT-Security Bereich großer Beliebtheit und Verbreitung.
Der Workshop wird Pentesting und Vulnerabilityscanning bzw. deren
Unterschiede darstellen. Es werden kurz die am Markt vorhandenen
Pentesting Frameworks vorgestellt um direkt im Anschluss Informationen
zur Entstehung und zum Funktionsumfang von Metasploit zu zeigen. Neben
dem fortschrittlichen Meterpreter Payload werden die unterschiedlichen
Oberflächen und Funktionsweisen betrachtet.
Im Detail:
- Einführung in Pentesting und Backtrack
- Einführung in Exploiting Frameworks
- Einführung in das Metasploit Framework
- Anwendung des Metasploit Frameworks anhand von typischen Angriffsszenarien
- Pass the Hash
- von Cross Site Scripting zur vollständigen Infiltration
- Umgehung aktueller Sicherheitsmaßnahmen
- Metasploit Community Edt und Metasploit Pro
Um die Funktionalität bzw. die Möglichkeiten von Metasploit etwas
besser darzustellen werden mehrere Angriffsszenarien betrachtet. Unter
anderem wird über einen Client-Side Angriff Zugriff zum internen
Netzwerk erlangt.
Über diesen ersten Zugriff ist es möglich weitere interne Systeme
anzugreifen und erfolgreich zu kompromittieren. Es kommt dabei zu
einer Eskalation der Berechtigungen von einem nicht privilegierten
User zum Administrator der Windows Domäne.
Zum Abschluss werden Möglichkeiten vorgestellt wie diese offensiven
Sicherheitsmaßnahmen im eigenen IT-Security Prozess integriert und
umgesetzt werden können. Dabei kommt es zur Vorstellung von Metasploit
Pro welches mit einer graphischen Oberfläche und umfangreichen
Automatisierungsmechanismen den Administrator und Pentester bei seiner
täglichen Arbeit unterstützt.
|
Über den Referenten:
Michael Messner ist IT Security Consultant bei der Integralis
Deutschland GmbH und führt regelmäßig Sicherheitsüberprüfungen
namhafter deutscher Unternehmen und Konzerne durch. Die dabei
aufgedeckten Schwachstellen dienen den Unternehmen als Grundlage für
die Verbesserung ihrer technischen sowie organisatorischen
Sicherheit.
Er hat ein umfassendes, deutschsprachiges Buch zum Metasploit
Framework herausgeben (Metasploit:
Das Handbuch zum Penetration-Testing-Framework). Neben diesen Tätigkeiten ist
er zudem Trainer im Metasploit Bereich und führt die Trainings
„Pentesting mit dem Metasploit Framework“ und das „Metasploit Expert
Training“ durch. Dabei handelt es sich um Intensiv-Workshops mit
umfangreichen Hands On Aufgaben im Labor.
|
|
Wie setze ich neuste IT-Technologie in einer HA Umgebung um? von Dirk Reuper
|
Mittwoch, 27.2.2013 10:00-18:00
|
Neue Hardware für DC wird vermehrt in Blade-Technologie angeboten. Damit
muss man neue Überlegungen im Bereich SAN, LAN, OS und Infrastruktur bringen
weil die vorhandenen Konzepte nicht mehr passen.
In dem Tutorium wird eingegangen auf:
- HA-Mission Critical – was gehört dazu
- Wirtschaftlichkeitsbetrachtung
- Infrastruktur (RZ, Standortstrategie, Strom und Abwärme, Netzwerk- und SAN-Anbindung)
- BLADE-Hardware (Ansätze und Marktrends)
- Server (Virtualisierung, Clustering mit UNIX und LINUX unter
verschiedensten Vorgaben, wichtige OS Filesysteme)
- Storage (virtualisierter Speicher – Arten und Einsatz, Mirroring mit OS und
„storage based“)
- LAN (V-LAN , Redundanz, Problematik Interconnect: Bandbreite, Latenz, Admin-LAN,
Produktiv-LAN)
- SAN (vermaschte Systeme, dynamisches Wachstum)
- Desaster-Recovery, Sicherheit, Verfügbarkeit
Der Teilnehmer erhält Ratschläge und Hinweise für den Umgang mit dem
immer wichtigeren Thema Hochverfügbarkeit. Dieser Vortrag basiert auf
praktischen Umsetzungen der letzten 6 Jahre. Fallbeispiele untermauern
die Theorie.
|
Über den Referenten:
Dirk Reuper hat nach seinem Studium an der FH FFM sich der IT
zugewandt. Er sammelte Erfahrung als IT-Leiter , CAD-Systems-Manager,
Systemingenieur und Consultanten bei Endkunde, Fachhandel und
Distribution. Er verfügt somit über breites Wissen und ist seit 2001
umfangreich zertifiziert. Seit 6 Jahren ist er im Bereich RZ Betrieb
mit HA-MC Anforderung tätig, seit 2011 bei einem großen
Transportunternehmen in FFM.
|
|
anykey0x von Tim Becker und Matthias Krauß Ausgebucht
|
Mittwoch, 27.2.2013 10:00-18:00
|
In dem Tutorium wird auf die Entwicklung von Hardware in Theorie und Praxis
eingegangen. Jeder Teilnehmer baut ein ARM Cortex M3 basiertes
Development Board zusammen, dabei werden praktische
Fähigkeiten, insbesondere das Verarbeiten von SMD Bauelementen,
vermittelt. Das Board besteht aus grob 20 verschiedenen Elementen – im
Wesentlichen das Allernötigste, um den Betrieb des Prozessors und der
USB Verbindung zu ermöglichen. Begleitend zu dem praktischen Teil
erläutern wir etappenweise jede Bauteilgruppe, so dass am Ende nicht nur
ein fertiges Board mit nach Hause genommen werden kann, sondern auch ein
etwas tieferes Verständnis, wie das Board en detail funktioniert.
Im zweiten Teil wird ein Einstieg in die Software Entwicklung für diese
Plattform vermittelt.
Das Tutorium ist mehr als eine unterhaltsame Bastelstunde: Einerseits
lässt sich das Board später als Peripheriegerät für beliebigige Mess-
und Steueraufgaben verwenden, andererseits bietet es mit seiner aktuellen
und übersichtlichen Embedded-Architektur Einsichten in
Low-Level-Programmierung, die auf Desktop-Systemen und Servern
aufgrund ihrer Komplexität nur noch schwer zugänglich sind.
Die Teilnehmer sollten ein grundsätzliches Interesse an Hardware
bzw. SMD Löttechnik mitbringen, etwas Fingerspitzengefühl ist
hilfreich.
Wir arbeiten mit recht kleinen Werkstücken, Brillenträger sollten
geeignete Sehhilfen mitbringen. Uhrmacherlupen werden zur Verfügung
gestellt. Damit das fertige Board direkt in den Programmierübungen
praktisch genutzt werden kann, ist es sinnvoll, einen Laptop und ein
Micro-USB-Kabel mitzubringen.
|
Über die Referenten:
Tim Becker ist freiberuflicher Berater mit Schwerpunkt elektronischer
Zahlungsverkehr. Gemeinsam mit Matthias betreut er das
Anykey0x.de Projekt.
Matthias Krauß ist Informatiker. Nach einigen Stationen in mehreren
Forschungseinrichtungen mit dem Schwerpunkt HCI arbeitet er nun
als freiberuflicher Berater in den Bereichen Interaktion, Medien und
Embedded-Systeme.
|
|
MySQL HA: Galera in the house von Erkan Yanar
|
Donnerstag, 28.2.2013 10:45-11:30
|
Mit einem relativ geringem Aufwand macht das Galera-Plugin für MySQL
aus der MySQL-Installation einen HA-Cluster.
Am Anfang des Vortrages werden die bis sonst eingesetzten 'HA'
Lösungen (DRBD, MySQL Cluster, Replikation, MMM, MHA) vorgestellt und
kategorisiert um zu zeigen wo Galera die wohl beste Alternative
ist. Und das wo, Galera keine eigene Infrastruktur braucht, Sondern – vereinfacht –
ein Hook in MySQL ist und via MySQL bedient wird.
Nach dem Vortrag werden die gängigen Implementierungen für ein HA
vom MySQL bekannst sein und wohl ein großes Interesse an Galera
herrschen.
|
Über den Referenten:
Erkan Yanar ist schon seit dem letztem Jahrtausend LinuxNerd und
hält gerne und regelmäßig Vorträge. Derzeit ist er Senior DBA bei
einem großem Telekomunikationsunternehmen.
|
|
Ich habe eine WAF – Hilfe, sie loggt! von Christian Bockermann
|
Donnerstag, 28.2.2013 10:45-11:30
|
Web-Server stehen unter ständigem Beschuss – immer erreichbar und für die
Welt verfügbar sind sie häufig ein leichtes Ziel für Angreifer. In den
letzten Jahren hat die Anzahl der (automatisierten) Angriffe auf Web-Seiten
stetig zugenommen.
Der Einsatz von Web-Application Firewalls ist eine Möglichkeit einen großen Teil
der Angriffe wirksam zu erkennen und erfolgreich zu verteidigen. Das Open-Source
Projekt ModSecurity stellt eine effiziente
WAF für die Integration in den Apache oder den NGinx Web-Server bereit.
Sobald eine WAF in Betrieb genommen wurde beginnt jedoch die Arbeit erst – der
Web-Server beginnt Alarm-Meldungen, Audit-Log Einträge und allerlei Informationen
über die erkannten Angriffe zu protokollieren. Ohne eine intelligente Sichtung,
Präsentation und automatische Filterung dieser Log-Daten ist der Betrieb einer
jedoch WAF sinnlos. Zu groß ist die Gefahr in der schieren Menge der False-Positives
unterzugehen oder wichtige Informationen über erkannte Angriffe zu übersehen.
Mit der AuditConsole stellt eine frei verfügbare Management-Console für die zentrale
Verwaltung von Log-Daten der ModSecurity Web-Application Firewall bereit.
Sie ermöglicht das Speichern und Indizieren der komplexen Audit-Daten in einer
Datenbank und ermöglicht eine Verarbeitung der Daten über ein einfaches Regel-System.
Dies erlaubt zeitnahe Filterung der Daten, automatische E-mail-Benachrichtigungen
und einfache Intrusion-Response Mechanismen. Zudem bietet die AuditConsole die
Erstellung von Reports, die Ausführung von Archivierungsjobs und die Definition
von benutzerdefinierten Filtern.
Neben einer Aufbereitung der Alarm-Meldungen bietet die AuditConsole einen
integrierten RBL-Server, Multi-User Views für die Daten, sowie eine Integration
in bestehende Authentifizierungssysteme (OpenID, LDAP, Kerberos). Hiermit ist sie
auch mandantenfähig und kann sogar in komplexen Hostingumgebungen eingesetzt werden.
Innerhalb der letzten Jahre hat sich die AuditConsole zur Standard-Console für
ModSecurity Log-Daten entwickelt und wird selbst auf www.modsecurity.org zum Logging
eingesetzt.
Der Vortrag gibt einen Überblick über die Verwendung der ModSecurity Web-Application
Firewall und die Integration der AuditConsole zu einem effizienten Log-Monitoring
für Web-Server.
|
Über den Referenten:
Christian Bockermann ist wissenschaftlicher Mitarbeiter an der
TU Dortmund
und Open-Source Entwickler der
AuditConsole sowie einer
Reihe von weiteren Tools um das ModSecurity Projekt.
Neben der Entwicklung von Open-Source Werkzeugen beschäftigt er sich in seinem
Forschungsumfeld mit Daten-Stromalgorithmen und maschinellen Lernverfahren für
eine (künstlich) intelligente Analyse der immer größer werdenden Berge an
Log-Daten.
|
|
PDF Debugging (vorwiegend) auf der Kommandozeile von Kurt Pfeifle
|
Donnerstag, 28.2.2013 10:45-11:30
|
Der Vortrag demonstriert einige der Top-10-Probleme (Reihung nach der
subjektiven Erfahrung des Autors), die bei PDF-Dateien in der Praxis
auftreten können. Dazu gehören unter anderem:
- Darstellung von Schriften auf dem Bildschirm oder im Druckbild
- Darstellung von transparenten Grafik-Elementen im Druckbild
- Extraktion von Text-Stellen oder ganzen Texten
- Konvertierung von RGB- oder CMYK-Schwarz oder Grau nach „echtem“ Schwarz/Grau
- Extraktion von Bildern
- Reduzierung der Dateigröße
- Erkennung gescannter Seiten
- Skalierung von PDF-Seiten
- Ungewollte Änderungen bei eingebetteten Bildern (Farbraum, Auflösung)
- Linearisierung („Web-Optimierung“) von PDFs
Er führt außerdem einige mehr und auch weniger bekannte
Kommandozeilen-Tools vor, die man zum Analysieren und Reparieren dieser
Problembereiche verwenden kann:
- qpdf
- pdftk
- pdfinfo
- pdffonts
- pdfimages
- pdfunite
- pdfwalker
- pdf-parser.py
- pdfid.py
- diverse 'podofo'-Tools
- mubusy
- origami
- Ghostscript (mit wenig bekannten, aber sehr nützlichen Kommandozeilen-Parametern)
Dieser Vortrag wird nicht viele Folien zeigen – stattdessen wird er
gelingen (oder scheitern) wegen seines großen Anteils an live vorgeführten
Beispielen.
|
Über den Referenten:
Kurt Pfeifle ist IT-Freelancer und verdient einen Teil seines
Lebensunterhalts dadurch, dass er sich bei IT-Projekten um die Themen
Netzwerkdrucken, Datenkonvertierungen und PDF-Debugging kümmert. Er
führt derzeit die „All-time Top-Scorer-Liste“ derjenigen
Stackoverflow-Mitglieder an, die bei den Themen
[CUPS],
[PDF],
[Ghostscript] und
[ImageMagick] aktiv sind.
|
|
Oracle Migration – Hürden und Best Practices in einer hochverfügbaren Umgebung von Andrea Held
|
Donnerstag, 28.2.2013 11:30-12:15
|
Die Anforderungen an die Verfügbarkeit von Systemen
steigen. Gleichzeitig steigt jedoch auch die Komplexität der Systeme:
Die Anzahl der Schnittstellen, involvierte Hard- und
Software-Komponenten und so fort. Der Vortrag beschreibt die Migration
eines hochverfügbaren Datenbanksystems eines Großunternehmens, Grundlagen
zur Architektur-Entscheidung, die Umsetzung sowie Hürden und Best
Practices.
- Anforderungen:
- Plattform-Wechsel: Von Solaris nach Suse SLES
- Release-Wechsel: Von Oracle 11.0.1.0.7 nach 11.2.0.3
- Zeichensatz-Wechsel: Von WE8ISO8859P1 nach UTF 8
- Architektur-Wechsel: Von Oracle RAC nach Active Data Guard
- Minimierung der Downtime
- Wie kriegt man das unter einen Hut?
- Migrationsoptionen / Vor- und Nachteile:
- Duplicate Database, Cloning
- Oracle Streams
- Golden Gate
- Transportable Tablespaces
- Export / Import
- Data Pump
- Die eigentliche Umsetzung:
- Fragen und Antworten / Diskussion
|
Über die Referentin:
Andrea Held arbeitet als Oracle Administratorin und technische
Architektin in Kunden-Projekten für mittelständische und große
Unternehmen im deutschprachigen Raum. Mit einigen weiteren Kollegen
gehört sie dem Netzwerk „Oranerds“ an, in dem sich unabhängige
Datenbank-„nerds“ austauschen.
Sie ist Leiterin der Frankfurter
Datenbanktage, einer Konferenz rund
um den Einsatz von Datenbankmanagementsystemen, und Autorin von
Büchern zu Oracle-Datenbanken. Artikel in den Fachzeitschriften IX
(Heise-Verlag), Linux Magazin (Linux New Media), XML Magazin und „Der
Entwickler“ (Software- und Support-Verlag).
|
|
Admins schlagen zurück: SSH-Angreifern mit Honeypots über die Schulter schauen von Andreas Bunten und Torsten Voss
|
Donnerstag, 28.2.2013 11:30-12:15
|
Wenn man ein UNIX-basiertes System am Internet betreibt, sieht man
viele SSH-Anmeldeversuche von fremden Systemen. Verbindet man
versehentlich ein Test-System mit schwachem Root-Passwort mit dem
Netz, findet man schnell heraus, dass die Anmeldeversuche keine
Versehen sind, sondern konkrete Angriffe.
Bären fängt man mit Honig. Hacker kann man mit sogenannten
Honeypot-Systemen anlocken, die Sicherheitslücken lediglich
vortäuschen. Die Autoren verwendeten über mehrere Jahre hinweg drei
verschiedene Typen von Honeypots, um mehr über die SSH-Hacker
herauszufinden: Welche Werkzeuge werden benutzt, wie wird vorgegangen
und von wo kommen die Angreifer? Und vor allem: Wie kann man sich
effektiver schützen?
Aktuell wird gegen SSH-Angriffe vor allem mit Hilfe von Sperren auf
IP-Basis vorgegangen. Die zu sperrende IP-Adresse ist entweder lokal
durch vielfache Anmeldeversuche aufgefallen oder die Adresse wurde
innerhalb einer Community als Angreifer gemeldet
(z.B. DenyH0st). Dieser Ansatz ist einfach und effektiv.
Die Analyse mehrerer tausend Angriffe ergab allerdings, dass
praktisch alle angreifenden Systeme selbst kompromittiert wurden und
dass ein Teil dieser Systeme regelmäßig die eigene IP-Adresse
wechselt. Diese Angriffe können nicht mit IP-basierten Sperrlisten
gestoppt werden.
Die Autoren schlagen daher alternative Merkmale vor anhand derer
Angreifer frühzeitig erkannt werden können. Zum einen können die
gängigen Angriffswerkzeuge teilweise schon beim Aufbau der
SSH-Verbindung erkannt werden noch bevor ein Authentifikationsversuch
stattfindet. Weiterhin können bekannte angreifende Systeme anhand
ihres Dienste-Profils wiedererkannt werden. Die verschiedenen Merkmale
werden statistisch verglichen und der IP-Wechsel der angreifenden
Systeme im Allgemeinen untersucht.
Der Vortrag stellt die Ergebnisse und Rückschlüsse vor, die aus dem
mehrjährigen Betrieb von Honeypots gezogen werden konnten. Es wird
erläutert, wie die Angreifer im Detail vorgehen und was passiert,
sobald sie Zugang zu einem System erlangt haben. Schließlich werden
neue Methoden vorgestellt, um die angreifenden Systeme effektiver zu
erkennen und so die eigenen Server besser zu schützen. Die Autoren
möchten weiterhin mit dem Publikum diskutieren, ob die vorgeschlagenen
Schutzmaßnahmen – wie z.B. Port Scans gegen unbekannte Systeme von
denen Anmelde-Versuche kommen – zur Angriffsabwehr praktikabel oder zu
invasiv sind.
|
Über die Referenten:
Andreas Bunten war seit 1996 als UNIX Administrator tätig und 8
Jahre lang Mitglied des Incident Response Team des DFN-CERT. Seit 2009
berät er im Competence Center Security die Kunden der
Controlware GmbH
zur Reaktion auf und Vermeidung von Sicherheitsvorfällen.
Torsten Voss studierte technische Informatik und arbeitet rund 7
Jahre beim DFN-CERT im Incident
Response Team des Deutschen Forschungsnetzes. Sein Schwerpunkt ist
die Aufklärung von Sicherheitsvorfällen.
|
|
strace – für BASH-Versteher von Harald König
|
Donnerstag, 28.2.2013 11:30-12:15
|
Nachdem der Autor beim
letzten FFG
strace und system calls im
allgemeinen vorgestellt hat, konzentriert sich dieser Vortrag nun auf
das Treiben und Verstehen der UN*X-Shells am Beispiel der BASH.
Mit Hilfe von strace kann man endlich mal beobachten und damit dann
hoffentlich auch verstehen (oder zumindest glauben;-), wie wildcards,
quoting, I/O redirection, piping usw. in der Shell funktionieren und
warum man nicht
echo "Hello GUUG"
tippen muss (sollte? ;-).
|
Über den Referenten:
Harald König hat Physik in Tübingen studiert, und arbeitet seit
1985/96 mit VMS und TeX, seit ~1987 mit UN*X und mit Linux seit Ende
1992 (kernel 0.98.4). Er hat den Support für XFree86 S3-Treiber von
1993 bis 2001 geleistet.
Seit 2001 arbeitet er bei
science + computing ag in Tübingen in der
Software-Entwicklung und -Consulting im Linux-Umfeld von
technisch-wissenschaftlichen Umfeld von Embedded-Portierungen,
technischen Problemen und X11/Kernel-Debugging und -Anpassungen und
mit vielen kleinen Shell-Helferlein.
|
|
Puppet, klar. Und dann? von Thomas Gelf
|
Donnerstag, 28.2.2013 13:45-14:30
|
Um wenige OpenSource-Produkte entstand es in letzter Zeit ein
solcher Hype wie um Puppet. Hat ein Tool zum Konfigurationsmanagement
diese ganze Aufregung wirklich verdient? Hat der klassische Sysadmin
damit endgültig ausgedient? Müssen wir alle unsere SSH-Logins abgeben?
Die absolute Kontrolle mit den Jungs im Development teilen? Oder sie
gar völlig abgeben?
Nach den ersten eigenen Gehversuchen mit Puppet stellen sich dann
schon die nächsten Fragen: wofür will man Puppet nutzen, wofür besser
nicht? Ist Puppet das neue Paketmanagement? Müssen wir jetzt alle Ruby
lernen? Braucht man heutzutage tatsächlich eine Message Queue zur
Serveradministration? Skaliert das alles? Und ist es überhaupt sicher?
Wie bringt man alsdann diesen neuen Alien im eigenen stetig
wachsenden Software-Fuhrpark dazu, sich mit den anderen Kameraden
anzufreunden? Soll Puppet das Monitoring-System mit Leben befüllen?
Oder die CMDB? Oder doch besser andersrum? Und ist 42 wirklich die
Antwort?
Der Referent ist Puppet-Trainer und -Berater, aber dennoch kein
Puppet-Evangelist. Er versucht mit seiner Präsentation Puppet
möglichst neutral als das zu betrachten, was es ist: ein Tool, das
seinen Job machen muss. Wie dieser am Ende aussieht, muss jeder für
sich selbst herausfinden. Der Vortrag will versuchen, eine kleine
Hilfe dabei zu sein.
|
Über den Referenten:
Thomas Gelf ist als Senior Consultant und (Puppet-)Trainer für die
Nürnberger Netways GmbH immer auf Achse.
Erfahren in Architektur und
Umsetzung von skalierbaren und hochverfügbaren Plattformen mit ebenso
breitem wie tiefgehenden Wissen schreibt er wenn es der straffe
Zeitplan erlaubt gerne Fachartikel und hält Vorträge und Workshops auf
unterschiedlichsten Konferenzen.
In seiner Freizeit lässt ihn seine Arbeit nicht los, er entwickelt
gerne und liefert unterschiedlichsten OSS-Projekten Feedback und
Patches. Aufgewachsen an der Südtiroler Weinstraße lernte er aber sehr
früh, dass tiefe kühle Kellerräume neben Datacentern auch noch andere
Schätze beherbergen können.
|
|
DNS Rate Limiting von Matthijs Mekking
|
Donnerstag, 28.2.2013 13:45-14:30
|
The DNS has recently seen many reflection amplification attacks in the
wild. Reflection attacks are attacks where the IP source address in
UDP packets are forged and server responses are redirected to the
victim. Through amplification, the miscreant is able to increase the
traffic volume in an attack. The result is a denial of service, where
the network bandwidth is used in such an extent that it is dropping
packets, including legitimate traffic.
More and more DNS reflection amplification attacks on authoritative
servers have been reported. These attacks will cause the DNS operator
to use more bandwidth, and effectively may cost money. Not only that,
the server is liable as it is part of the denial of service attack,
and thus this problem cannot be ignored by the DNS operators.
What are the characteristics of these attacks and how can they be
alleviated? Network filtering seems to work in some cases, but is
considered to be a too naive solution. DNS response rate limiting is
seen as the way to combat reflection attacks, where the high volume of
DNS response streams are being blocked.
This talk explains DNS reflection amplification attacks and how
they can be mitigated. It will explain how DNS response rate limiting
works and how you, as an operator of a name server, can use this to
reduce the bandwidth and damage caused to the victims of the attacks.
|
Über den Referenten:
Matthijs Mekking is a software developer at
NLnet Labs, a
foundation that focuses on providing open-source software and
open-source standards that can enhance the open, secure, and
innovative nature of the Internet for all.
He is actively involved in the developments of several DNS
projects, such as NSD and OpenDNSSEC. Because of that, Mekking got
involved in the DNS community and became an active participant within
the IETF.
Matthijs Mekking was born in the eighties and lives in Nijmegen,
where he studied Computer Science. He graduated in 2007 by researching
Shim6, an IPv6 host-based multi-homing protocol.
|
|
TacNET – Grafische Verwaltung komplexer virtueller KVM Netze von Ralf Spenneberg
|
Donnerstag, 28.2.2013 13:45-14:30
|
Schulungen eigener Mitarbeiter und auch in Schulungszentren leiden
häufig an fehlender Praxisnähe. Für uns stellte sich die einfache
Problematik, dass für eine effiziente Schulung bei vielen Themen,
komplexere Setups erforderlich sind. Diese lassen sich nicht einfach
mit einem System je Teilnehmer realisieren. Hier ist eine
Virtualisierung sinnvoll. Leider unterstützt jedoch keine vorhandene
Virt-Verwaltung die speziellen Ansprüche im Rahmen einer
Schulung. Daher haben wir mit Unterstützung des BSI die nun unter
GPLv3 veröffentlichte Software TacNET entwickelt.
TacNET erlaubt die Definition virtueller Netzwerke mit mehrere
virtuellen Hosts, Routern, Switches und Firewalls. TacNET bezeichnet
diese Definitionen als Module. TacNET stellt dann diese Module
mehrfach, je Schulungsteilnehmer einmal, zur Verfügung. Dabei werden
die virtuellen Netze grafisch visualisiert und der Dozent kann zur
Laufzeit die Vernetzung der virtuellen Systeme ändern, Switches
hinzufügen und die Leistungsdaten zur Laufzeit ändern. Auch ist ein
Konsolenzugriff auf jedes virtuelle System über TacNET möglich.
Ein besonderes Feature ist aber auch die Möglichkeit einzelne
Systeme oder alle virtuellen Umgebungen aller Teilnehmer in den
Ausgangszustand zu versetzen. Somit müssen die Systeme nicht vor jeder
Schulung neu aufgesetzt werden.
Um auch für komplexe Szenarien gewappnet zu sein, ist TacNET in der
Lage die virtuellen Netze auf mehrere physikalische Systeme zu
verteilen.
Für die Einbindung nicht-virtualisierbarer Systeme besteht die
Möglichkeit auch physikalische Systeme direkt an beliebiger Stelle in
das virtuelle Netz einzubinden.
Die Teilnehmer arbeiten strikt voneinander getrennt in ihren
eigenen Netzen. Die Anbindung der Teilnehmer an der
Virtualisierungsplattform erfolgt über einen VLAN-fähigen Switch.
Grundsätzlich ist TacNET aber auch zu anderen Zwecken
einsetzbar. So können Softwareupdates in komplexen Umgebungen einfach
getestet werden. Da TacNET mehrere unterschiedliche „Module“ verwalten
kann, können unterschiedliche Szenarien definiert und bei Bedarf
aktiviert werden. Die definierten Systeme befinden sich dann immer in
einem definierten Ausgangszustand und können einfach zurückgesetzt
werden, wenn ein Test fehlschlägt.
TacNET nutzt die Libvirt-Bibliothek und die
KVM-Virtualisierung. Die Verwaltung erfolgt über einen Web-Browser. Im
Rahmen der Implementierung haben wir einige Fehler in den Libvirt- und
Netcf-Bibliotheken behoben und beide Bibliotheken auch
erweitert. Sämtliche Änderungen sind Upstream. Im Moment arbeiten wir
noch an der Möglichkeit, über TacNET den pcap-Netzwerkmitschnitt jeder
virtuellen Netzwerkkarte in Wireshark als Live-Mitschnitt zur
Verfügung zu stellen. Dies erfordert jedoch noch eine Erweiterung der
Libvirt-Bibliothek.
|
Über den Referenten:
Ralf Spenneberg berät und schult seit 1999 Unternehmen bei dem
Einsatz von Open-Source-Software in sicherheitskritischen
Umgebungen.
|
|
Ansible – Verteilen, konfigurieren, machen von Philipp Grau
|
Donnerstag, 28.2.2013 14:30-15:15
|
Installation, Pflege und Wartung des Betriebssystems,
Anwendungs-Installation und Konfiguration. In diesem Tätigkeiten
finden sich viele Entwickler, System-Administratoren und DevOps
wieder. Neben den großen bekannte Konfigurations-Management-Werkzeugen
(Cfengine, Puppet, Bcfg2) und den SSH-Wrappern (Cluster-ssh und
Distributed Shell) gibt es einen neuen Ansatz, der versucht das eine
Werkzeug für die genannten Aufgaben zu sein: Ansible.
Entwickelt von Michel DeHaan (Mitentwickler bei Func und Puppet)
stellt Ansible einen einfaches Werkzeug (ohne den Einsatz von Agenten
und Daemonen) bereit, Server und Software zu „orchestrieren“.
Ansible ist in Python implementiert, die Konfigurationsdateien
werden in einer einfachen Syntax erstellt (YAML) und die
Netzwerkkommunikation erfolgt über SSH. Grundsätzlich ist Ansible für
Linuxsysteme entworfen, an den Client stellt es geringe Anforderungen
und auch der Server braucht nur geringe Resourcen.
Durch Modularisierung wird die Wiederverwendung von Konfigurationen
unterstützt. Steuerung der Abläufe durch Gruppierung der Systeme in
der Gruppen, aber auch durch auf dem Zielsystem gewonnenen
Informationen (Ähnlich Facter) erleichtern das
Konfigurations-Management. Sogenannte Playbooks steuern und gruppieren
die Aufgaben. Daneben sind auch typische One-Shot/On-All-Aufgaben
einfach mit Ansible zu bewältigen. Auch die Integration in
Test-Umgebungen z.B. mit Vagrant gelingt leicht und erlaubt das Testen
und Entwickeln von Playbooks.
Der Vortrag soll einen Überblick über die Möglichkeiten von Ansible
geben. Neben dem Kommandozeilen-Einsatz, der Verwendung von
Regelwerken (Playbooks) wird auf die Erweiterbarkeit und das
Projekt-Umfeld eingegangen.
|
Über den Referenten:
Philipp Grau lebt und arbeitet in Berlin. Er ist an der
Zentraleinrichtung für
Datenverarbeitung (ZEDAT) an der Freien
Universität Berlin beschäftigt, wo die Administration von
Linux/Unix-Servern zu seinen Aufgaben gehört.
Neben älteren Sun-Systemen, Linux-Servern, der
Virtualisierungs-Infrastruktur und einigen Storage-Systemen, die seine
Aufmerksamkeit fordern, ist die Suche nach Werkzeugen, die ihm helfen
würden, sich selber überflüssig zu machen, sein Steckenpferd.
Mittlerweile fast 20 Jahre Systemadministator, fasziniert ihn dieses
Gebiet immer noch.
|
|
Home Network Horror Stories von Michael Messner
|
Donnerstag, 28.2.2013 14:30-15:15
|
Aktuelle Unternehmensnetzwerke werden mit unterschiedlichsten
Sicherheitsmechanismen immer besser geschützt. Der Mitarbeiter soll
aber gerade im heutigen Umfeld möglichst flexibel arbeiten können. Um
dies zu erreichen nutzt er sein Arbeitsmittel, wie das Notebook, von
unterwegs ebenso wie auch zuhause im Home Office. Bei dem Heimnetzwerk
des Mitarbeiters handelt es sich für das Unternehmen um eine nicht
kontrollierbare Netzwerkumgebung wie jede andere
Netzwerkumgebung.
Während im Unternehmensnetzwerk typischerweise eine
Fülle unterschiedlichster Sicherheitseinrichtungen aktiv sind, fehlen
diese allerdings im Netzwerk zuhause. Aber gerade dort befinden sich
mittlerweile eine Fülle unterschiedlichster netzwerkfähiger Geräte wie
Internet Router, WLAN Access Points, Multi Media Center, Print Server
und viele mehr.
Diese Geräte können gravierende Sicherheitslücken
aufweisen die einem Angreifer die Möglichkeit weiterer Angriffe erst
eröffnen. Im Rahmen dieses Talks wird diese Problematik dargestellt
und es wird ein Auszug erkannter Schwachstellen in unterschiedlichen
Home Network Devices vorgestellt.
|
Über den Referenten:
Michael Messner ist IT Security Consultant bei der Integralis
Deutschland GmbH und führt regelmäßig Sicherheitsüberprüfungen
namhafter deutscher Unternehmen und Konzerne durch. Die dabei
aufgedeckten Schwachstellen dienen den Unternehmen als Grundlage für
die Verbesserung ihrer technischen sowie organisatorischen
Sicherheit.
Er hat ein umfassendes, deutschsprachiges Buch zum Metasploit
Framework herausgeben (Metasploit:
Das Handbuch zum Penetration-Testing-Framework). Neben diesen Tätigkeiten ist
er zudem Trainer im Metasploit Bereich und führt die Trainings
„Pentesting mit dem Metasploit Framework“ und das „Metasploit Expert
Training“ durch. Dabei handelt es sich um Intensiv-Workshops mit
umfangreichen Hands On Aufgaben im Labor.
|
|
Alternativen zur klassischen Virtualisierung von Oliver Rath
|
Donnerstag, 28.2.2013 14:30-15:15
|
Seit Jahren tobt der Hype um virtuelle Maschinen und deren
Infrastruktur. Die Big Player drängen in den Markt und verkaufen einen
virtuellen Overkill, und das auch noch in der sogenannten Cloud. Das Management
feiert, der Anwender darf es auslöffeln.
Man bezahlt eine Maschine als Guckloch zum Server, auch Client
genannt, den Server, die Lizenzen für Client, Server-OS,
Virtualisierungslösung, die virtualisierten OSe. Warum
eigentlich?
Der Vorteil sind standardisierte Maschinen, die man schnell clonen
kann. Weiterhin kann man von überall darauf zugreifen, solange man
Internet hat.
Nachteile sind die hohen Kosten für die Mehrfachanschaffung von
Client Server, Lizenzen und die v.a. Geschwindigkeitsprobleme, die bei
Remotezugriffen auftreten.
Doch braucht man für die o.g. Vorteile wirklich Virtualisierung?
Sicher, es gibt sinnvolle Anwendungsgebiete, wie z.B. in Entwicklung
und Test, doch lohnt der Overkill an Hard- und Software für den
Alltagsgebrauch?
In diesem Vortrag werden Alternativen aufgezeigt, wie die Vorteile
von virtualisierten Umgebungen mit denen herkömmlicher Systeme durch
Verwendung von freien Techniken wie iSCSI, AoE, PXE, rDesktop, Spice
etc. ohne Virtualisierung und ohne den entsprechenden
Overhead (für Linux und MS-Windows) kombiniert werden können.
|
Über den Referenten:
Oliver Rath hat Mathematik und informatik an der TU München
studiert und beschäftigt sich seit 1997 mit freier Betriebssystemen
wie FreeBSD und Linux. Aktuell entwickelt er hauptberuflich für die
GreenUnit UG Management-Backends
in C++, C# und diversen Skriptsprachen.
|
|
Aktuelle Entwicklungen bei Icinga und ein Ausblick auf Icinga2 von Bernd Erk
|
Donnerstag, 28.2.2013 15:45-16:30
|
Zum Zeitpunkt der Konferenz wird Icinga die Version 1.9 finalisieren,
die neben verbessertem Reporting und Performance des Webinterfaces
viele kleine Neuerungen mit sich bringen wird. Neben einem Überblick
über den aktuellen Projektstatus wird ein Ausblick auf Icinga2, einer
kompatiblen Neuentwicklung des bisherigen Cores, und eine Live-Demo der
verfügbaren Features den Vortrag abrunden.
|
Über den Referenten:
Bernd Erk ist bei dem Nürnberger Open Source und Systems Management
Spezialisten NETWAYS GmbH als Managing
Director tätig. Zuvor war er
bei der Quelle Schickedanz AG & Co. als Systemspezialist tätig,
wobei sein Tätigkeitsschwerpunkt auf Solaris, HPUX, sowie
Oracle-Datenbanken lag. Anschließend arbeitete Bernd knappe acht Jahre
als Business Unit Manager für ise-informatik und beschäftigte sich
dort hauptsächlich mit Oracle-Datenbanken und serviceorientierten
Architekturen. Im Icinga Projekt ist er u. a. für Projektmanagement
und Präsentation verantwortlich.
|
|
Best of Audit 2012 oder „IT-Sicherheit? Evaluieren wir gerade.“ von Alexander Koderman
|
Donnerstag, 28.2.2013 15:45-16:30
|
Zunehmend nehmen gesetzliche, vertragliche und regulatorische
Vorgaben Einfluss auf den IT-Betrieb. Kunden oder Wirtschaftsprüfer
schicken Auditoren zu ihren Dienstleistern um einen ordnungsgemäßen
und sicheren IT-Betrieb und das Vorhandensein eines
Sicherheitskonzepts zu hinterfragen. Der Vortrag zählt die wichtigsten
Regularien auf, beschreibt die notwendige Tiefe und zu erwartende
Aufwände bei der Umsetzung und nennt die „best of audit“ – die
Dauerbrenner der Prüfpraxis.
|
Über den Referenten:
Alexander Koderman ist lizenzierter IT-Grundschutz Auditor, CISA,
ISO 27001 Lead Auditor und Leiter der Abteilung „Certs & Audits“ bei
der SerNet GmbH in Berlin. Er leitet
Audits in Organisationen von 10 bis 100.000 Mitarbeitern. Als Projektleiter
ist er für die Entwicklung von verinice, dem Open Source Tool für IS-Management
und Auditierung, verantwortlich.
|
|
Sicheres und unabhängiges Datensharing mit ownCloud von Christian Schneemann
|
Donnerstag, 28.2.2013 15:45-16:30
|
Speicherplatz in der „Cloud“ wird immer beliebter. Nicht nur für
Unternehmen und virtuelle Systeme, sondern auch für Endanwender
bzw. Userdaten. Vorteile wie Backup, Daten teilen, usw. werden von
unterschiedlichen Unternehmen und Community-Projekten angeboten.
Dieser Vortrag zeigt, wie man mit Hilfe der freien Software
ownCloud diese Dienste auf einfache Art und Weise selbst aufsetzen
bzw. betreiben kann und somit selbst Herr über seine Daten bleibt. Ist
es doch für viele Unternehmen und Anwender eine wichtige
Voraussetzung, dass die Daten nicht in anderen Ländern oder fremden
Rechenzentren liegen. Das Selbe gilt bei der Verschlüsselung von
z. B. abgelegten Daten.
Für ownCloud sprechen auch die zahlreichen unterstützten Endgeräte
wie Linux, Microsoft, Android und iOS. Ganz gleich, ob es um die
gemeinsame Arbeit an einem Dokument, Terminkoordination oder schlicht
die gemeinsam Nutzung von Daten geht: In diesem Vortrag wird live
gezeigt, wie man von verschiedenen Geräten und Plattformen auf seine
Daten zugreifen und diese mit Anderen teilen kann. Auch im Hinblick
auf Sicherheitsaspekte und den Schutz der eigenen Privatsphäre erfährt
der Zuhörer, welche individuellen Möglichkeiten ihm und seinem
Unternehmen dank Community- und Corporate-Sparten bei ownCloud und
Partnern wie B1 Systems zur Verfügung stehen.
|
Über den Referenten:
Christian Schneemann ist Linux/Open Source Consultant und Trainer bei
der B1 Systems GmbH. Seine
Arbeitsschwerpunkte sind Monitoring und der Open
Build Service. Mit Nagios arbeitet er seit 7 Jahren und ist im openSUSE
Projekt als Maintainer an den Paketen von Nagios und Addons beteiligt.
|
|
Netzmanagement mit HIRN von Robin Schröder
|
Donnerstag, 28.2.2013 16:30-17:15
|
Die Ruhr-Universität Bochum ist seit Jahren vollvernetzt. Das
Hochschulinterne Rechnernetz (HIRN) erstreckt sich über den Campus
sowie einige von der Universität in der Stadt angemietete Gebäude und
wächst ständig. Jeder der mehr als 60.000 Netzwerkanschlussports in
Benutzerzugriff befindet sich in einem von über 900 VLANs und ist
durch das Network Operation Center managebar. Dabei wird Hardware von
zur Zeit drei verschiedenen Herstellern eingesetzt. Das Management
erfolgt mit einer selbst entwickelten Software, die über Jahre
gewachsen ist und auch Benutzern zahlreiche Möglichkeiten bietet, per
Web-Interface auf ihre Netzkonfiguration Einfluss zu nehmen.
In diesem Vortrag wird aus der Praxis berichtet. Zum Beispiel: Wie
werden Geräte verschiedener Hersteller mit einer einzigen Software
„Hersteller-Transparent“ gemanaged? Wie wird die Dokumentation aktuell
gehalten? Was passiert, wenn man „von Hand“ an den Geräten
konfiguriert? Was sind typische Fallstricke?
|
Über den Referenten:
Robin Schröder arbeitet als Fachinformatiker im Network Operation
Center der Ruhr-Universität Bochum. Zu seinen Aufgaben zählen die
Campusweite Netz-Konfiguration, die Administration von dynamischen
Routingprotokollen, Troubleshooting, Monitoring, die Entwicklung von
Software für den Eigenbedarf sowie die Einführung von IPv6 auf dem
Campus. Er administriert zahlreiche Unix-, Linux-, und Solaris-Systeme
und überwacht den Netz- und Applikationsbetrieb mit verschiedenen
Open-Source-Tools. Mit Computern, Linux und Netzwerken beschäftigt er
sich bereits seit 1995.
|
|
IPv6 und Datenschutz – eine technische und juristische Bewertung von Christoph Wegener und Joerg Heidrich
|
Donnerstag, 28.2.2013 16:30-17:15
|
In der öffentlichen Diskussion steht der „neue“ Protokollstandard
IPv6 häufig für einen Verlust der Privatsphäre. Dass diese Besorgnis
nicht unbegründet ist und durch das neue Adresssystem tatsächlich
bislang zum Teil nicht wahrgenommene Herausforderungen für den
Datenschutz entstehen, zeigt dieser Vortrag. Dies gilt insbesondere
auch für die Frage, ob es sich bei IP-Adressen um personenbezogene
Daten handelt, die bei der Nutzung von IPv6 technisch und vor allem
juristisch noch einmal neu bewertet werden muss.
Nach einer Einführung in die datenschutzrechtlichen Grundlagen geht
der Vortrag zunächst auf die Neuerungen in Bezug auf „IPv6 und
Datenschutz“ ein. Danach zeigt der Vortrag, welche Konsequenzen mit
einem datenschutzgerechten Einsatz von IPv6, aber auch IPv4 verbunden
sein können.
|
Über die Referenten:
Dr. Christoph Wegener (CISA, CISM, CRISC, GDDcert, CCSK) ist seit
1999 als freiberuflicher Berater mit der wecon.it-consulting in den
Bereichen Informationssicherheit, Datenschutz und Open Source aktiv
und arbeitet zudem am Horst Görtz Institut für IT-Sicherheit (HGI) an
der Ruhr-Universität Bochum. Herr Dr. Wegener ist Autor zahlreicher
Fachbeiträge, Sprecher auf nationalen und internationalen Konferenzen
und engagiert sich in der Ausbildung im Bereich der
Informationssicherheit. Darüber hinaus ist er Mitglied des Beirats der
Zeitschrift „Datenschutz und Datensicherheit – DuD“, Gründungsmitglied
der Arbeitsgruppe Identitätsschutz im Internet (a-i3) und des German
Chapters der Cloud Security Alliance (CSA) und dort, sowie in der
German Unix User Group (GUUG), Mitglied des Vorstands.
Rechtsanwalt Joerg Heidrich, Fachanwalt für IT-Recht, ist seit 2001
als Justiziar und Datenschutzbeauftragter des Heise Zeitschriften
Verlags (c't, iX, Technology Review, heise online) und Rechtsanwalt
für den Bereich der neuen Medien in Hannover tätig. Nach dem Studium
der Rechtswissenschaften in Köln und Concord, NH, USA, beschäftigt er
sich seit über fünfzehn Jahren mit den Problemen des Internet- und
Medienrechts. Heidrich ist Autor zahlreicher Fachbeiträge zu
rechtlichen Aspekten der IT-Sicherheit sowie regelmäßig als Referent
in diesem Bereich tätig. Seit 2007 ist er als Fachanwalt für IT-Recht
zugelassen. Zudem ist er einer der Herausgeber der Loseblattsammlung
Heise Online-Recht.
|
|
Die eigene Cloud mit OpenStack Folsom von Martin Gerhard Loschwitz
|
Donnerstag, 28.2.2013 16:30-17:15
|
OpenStack ist die vielversprechendste Lösung für Unternehmen, die eine eigene Cloud aufbauen wollen. Die Umgebung bietet alles nötige, damit die Wolke kein Luftschloss bleibt: Nova kümmert sich um die Verwaltung der Ressourcen und um das Starten neuer virtueller Instanzen, Glance verwaltet Betriebssystem-Images und Swift bietet objekt-basiertes Storage. Das OpenStack-Dashboard namens Horizon ist die Schaltzentrale für Admins und bietet außerdem Zugriff auf die OpenStack-Benutzerverwaltung ("Keystone"). Seit der OpenStack-"Folsom"-Release kümmert sich obendrein Quantum um eine vollständig virtuelle Netzwerk-Umgebung und Cinder bietet virtuellen Maschinen Block-basierten Speicher an.
Im Zusammenspiel sind all diese Komponenten im Zusammenspiel ein überaus mächtiges Werkzeug, mit dem sich in wenigen Mausklicks neue virtuelle Instanzen starten und stoppen lassen. Firmen profitieren dadurch von allen Vorteilen der Virtualisierung: Weniger Blech im Rechenzentrum, weniger Stromverbrauch und sinnvollere Nutzung der vorhandenen Hardware.
Der Vortrag beginnt mit einer kurzen Einführung zum Thema Cloud Computing. Im Anschluss stellt er die einzelnen OpenStack-Komponenten anhand der brandneuen Version "Essex" im Detail vor und vermittelt einen Überblick über die OpenStack-Cloud im Eigenbau. Dabei kommen auch Themen zur Sprache, die im Cloud-Kontext gern in Vergessenheit geraten: Wie lässt sich die Wolke gegen Ausfälle schützen? Wie aufwendig ist es, eigene Betriebssystem-Images zu erstellen? Und wie lassen sich Abläufe mit Hilfe der Rechenwolke bestmöglich automatisieren?
Die Präsentation richtet sich somit insbesondere an Admins und IT-Planer von Unternehmen, die die Anschaffung einer eigenen Cloud erwägen und erfahren wollen, welche Möglichkeiten OpenStack bietet.
|
Über den Referenten:
Martin Gerhard Loschwitz hatte seine erste Begegnung mit Linux im Alter von 9 Jahren und ist seither ein enthusiastischer Verfechter des freien Betriebssystems. Seit 2003 ist er als Entwickler Mitglied des Debian-Projekts für freie Software und zeichnet dort mittlerweile für die Pflege des Linux-HA-Clusterstacks verantwortlich. Er ist Autor zahlreicher Publikationen in einschlägigen Fachzeitschriften und hat sich in den letzten Jahren vor allem als HA-Spezialist einen Namen gemacht. Mittlerweile arbeitet er für hastexo und beschäftigt sich dort seit einigen Monaten intensiv mit OpenStack. Er beteiligt sich außerdem an der Integration von OpenStack in Ubuntu und kennt deshalb die Eigenheiten der Lösung sehr gut.
|
|
System- und Netzwerküberwachung mit Zabbix von Stefan Gazdag
|
Donnerstag, 28.2.2013 17:15-18:00
|
Inzwischen hat sich die Live-Überwachung von Systemen und
Netzwerken in vielen Firmen etabliert. Viele Administratoren vertrauen
dabei aufgrund ihrer bisherigen Erfahrung auf alte Bekannte, wie dem
Noch-Platzhirsch Nagios oder entsprechende Forks wie Icinga. Dabei
gibt es viele davon unabhängige Entwicklungen, vor allem auch aus dem
Open-Source-Bereich, mit welchen sich Systeme und Netze äußerst
komfortabel überwachen lassen, beispielsweise Zabbix und Zenoss.
Anhand des Monitoring-Projektes Zabbix soll
dargelegt werden, wie auch mit anderen Produkten hervorragende
Ergebnisse erreicht werden können, welche neuen Aspekte sie für das
Monitoring bieten und wie sie für bestimmte Szenarien teils besser
geeignet sind, als die derzeit meistgenutzten Tools.
Zabbix bietet nach nunmehr über zehn Jahren Entwicklungsarbeit und
Praxiserfahrung eine sehr stabile und anwenderfreundliche
Monitoring-Lösung. Bedient wird die Software vor allem über eine
ansprechende Web-GUI. Neben den typischen Standardtests wie Ping- oder
SSH-Checks und SNMP-Überwachung, überzeugen vor allem die
zuverlässigen Agenten, über die man auch mit eigenen Checks und
Skripten eine sehr umfassende und angepasste Überwachung der Systeme
ermöglichen kann. Gesammelte Daten werden auf den zuständigen Servern
in einer Datenbank vereint, dort über Bedingungen ausgewertet und zum
Beispiel bei Überschreiten von Grenzwerten einer vorgegebenen
Warnstufe zugeordnet. Selbstverständlich bietet das Tool auch
Möglichkeiten zur Eskalation von Problemen und zur Benachrichtigung
abseits der Web-Oberfläche. Des Weiteren wartet Zabbix beispielsweise
mit grundlegenden Visualisierungsmöglichkeiten für die erhaltenen
Daten und überwachten Netze auf.
Die Zuhörer sollen durch den Vortrag Einblick in die Möglichkeiten,
geeignete Einsatzszenarien und Praxis von Zabbix erhalten.
|
Über den Referenten:
Stefan Gazdag studiert Informatik (Master) an der HaW
Ingolstadt. Mit dem Thema Monitoring kam er das erste Mal im Rahmen
eines Praktikums bei der genua mbH während seines Bachelor-Studiums in
Berührung. Seitdem hat ihn die Thematik nicht mehr losgelassen,
weshalb auch seine Bachelorarbeit in den Bereich des System
Monitorings führte.
|
|
Die größten IPv6-Marketinglügen hinterfragt von Marc Haber
|
Donnerstag, 28.2.2013 17:15-18:00
|
IPv6 wird kommen, das ist seit fünfzehn Jahren keine Frage mehr. Die
Frage ist eher, wann es kommt, und wie es kommt. Während viele
IPv6-Anwender und -Fans das klassische IPv4 schon als „legacy IP“
bezeichnen und die Aktivierung von IPv6 gerne als „ganz einfach, geht
alles automatisch“ beschreiben, wird Marc Haber in diesem Vortrag
schwerpunktmäßig auf den „Spaß“ eingehen, den der Systemadministrator
bei der Aktivierung von IPv6 haben wird.
Der Vortrag beginnt mit einer Kurzeinführung in IPv6, wird aber
versuchen, keine all zu große Überschneidung zu Jens Links zu
vergangenen Frühjahrsfachgesprächen gehaltenen Vorträgen über IPv6 zu
erreichen.
Zu den Herausforderungen, die man bei der Systemadministration in
einem IPv6-Netzwerk haben kann, zählt vor allen Dingen die in die
Jahre gekommene Programmierschnittstelle des TCP/IP-Stacks, die auf
zur Laufzeit veränderliche Netzwerkkonfiguration wie hinzukommende
und wegfallende IP-Adressen nicht eingerichtet ist.
Der Vortrag wird eine Reihe der üblichen Aussagen über IPv6 in der
Praxis kritisch hinterfragen und erläutern, warum es eben doch nicht
so einfach ist („Renumbering ist einfach? Klar, wenn der einzig
relevante Netzwerkdienst ping ist“).
Ein weiterer Abschnitt des Vortrags wird sich dem Privacy-Bereich
widmen und den Umgang mit den IPv6 Privacy Extensions behandeln – und
warum sie alleine keine universelle Lösung sind.
Seinen Abschluss findet der Vortrag in einem kurzen Ausblick über die
Dinge, die mit IPv4 noch gehen, aber mit IPv6 – beispielsweise
aufgrund der längeren Adressen – nicht mehr realistisch sind.
|
Über den Referenten:
Marc Haber, Jahrgang 1969, macht seit 1986 professionell IT und
kümmert sich seit fünfzehn Jahren um unixoide Systeme. Er ist
freiberuflicher IT-Berater und berät Unternehmen und sonstige
Organisationen rund um Netzwerk, Linux, Infrastruktur und Security.
Marc ist Debian Developer und publiziert von Zeit zu Zeit.
Er setzt für seine eigenen Systeme erst seit 2006 auf IPv6 und weiß
durch eine Erfahrungen mit IPv6 in kontrollierten und weniger
kontrollierten Umgebungen, an welchen Stellen man mit IPv6 gewaltig
umdenken muss und warum ein Projekt zu Einführung von IPv6 fast immer
komplexer ist als man es erwartet hat.
|
|
Aufbau einer IaaS-Umgebung mit OpenStack von Christian Berendt
|
Donnerstag, 28.2.2013 17:15-18:00
|
OpenStack Compute ist eine Software zum Verwalten und Provisionieren
virtueller Maschinen. Als Teilprojekt von OpenStack hat es sich in den
letzten 2 Jahren seit der Veröffentlichung rasant entwickelt und
verbreitet.
In diesem Vortrag wird der Aufbau und die Konfiguration von
OpenStack Compute (nova) beschrieben. Welche Abhänigkeiten existieren,
worauf muss geachtet werden? Wie funktioniert das Starten von VMs? All
dies wird im Vortrag anschaulich beantwortet. Zusätzlich werden
Hinweise zur Nutzung gegeben und auf welche kleinen Fallstricke man
achten muss.
|
Über den Referenten:
Christian Berendt ist bei der B1 Systems GmbH
als Berater und
Entwickler für Linux und unterschiedliche Unix-Derivate
beschäftigt.
Derzeitig ist er als Solution Architect fuer den Bereich „Cloud
Computing“ zuständig, beschäftigt sich aber gerne auch mit Loesungen
zum Configuration und System Management.
Wenn er nicht gerade Incidents bearbeitet, Changes durchführt oder
an internen Projekten arbeitet, beschäftigt er sich mit
Software-Entwicklung, künstlicher Intelligenz, Microcontrollern und
vielem mehr.
|
|
ctdb performance bottlenecks and how to solve them von Volker Lendecke
|
Freitag, 1.3.2013 9:15-10:00
|
ctdb is the clustering component of the Samba project. Using ctdb,
Samba is able to provide SMB locking semantics on top of a cluster
file system. Clustered Samba is successfully deployed in a lot of
small and large installations.
The ctdb architecture is based on the Samba internal "Trivial
Database" tdb and provides a distributed lock manager for Samba.
Recent large installations have shown some performance bottlenecks
that are not easy to overcome in the current ctdb architecture. Two
main performance problems are:
- The completely async nature of lock requests shows potential for
locks bouncing back and forth in the cluster without being useable by
Samba itself.
- A single ctdb process works on every node in a non-threaded
fashion. This was appropriate with 4 or 8 cores on a cluster
node. With more cores per node there is a growing disbalance, Samba
on 64 cores easily outperforms the single ctdb process.
This talk will present a precise description of the ctdb
architecture and the problems inherent in it.
This talk also will present an architecture for a new distributed
lock manager for Samba that will remove all bottlenecks that are
visible now and provide room for scaling up to more nodes and more
cores per node than it is possible now.
|
Über den Referenten:
Volker Lendecke ist Mitglied des internationalen
Samba-Entwicklerteams und Mitgründer der SerNet GmbH
in Göttingen.
|
|
Best Practice für stressfreie Mailserver von Peer Heinlein
|
Freitag, 1.3.2013 9:15-10:00
|
Ein Mailserver ist ein sensibles Geschöpf: Auch wenn oberflächlich
alles läuft, d.h. Mails akzeptiert und versandt werden, lauern im
Detail viele kleine Fallstricke und Hakeleien. Hier entscheidet sich,
ob der Mailverkehr sauber und reibungslos läuft, in der Annahme die
Spreu vom Weizen getrennt wird und ob im Versand die Kommunikation mit
anderen Mailservern problemlos klappt.
Dieser Vortrag ist keine Einführung in die eigene Spamfilterung,
sondern beleuchtet vielmehr, was man alles beachten muß, um nicht von
anderen Spamfiltern geblockt zu werden oder um unter jeder Spamwelle
erneut zusammenzubrechen. Anders als bei anderen Servern ist es nicht
möglich, einen Mailserver einfach nur durch Learning-by-doing
aufzusetzen. Denn nur weil etwas erstmal funktioniert heißt das noch
lange nicht, dass es optimal und bestmöglichst funktioniert.
Wer durch Trial-and-Error versucht herauszufinden, wie seine
Konfiguration auszusehen hat, muß zwangsläufig scheitern – oder er
hat einen SEHR langen und mühsamen Weg vor sich, der immer wieder von
unzustellbaren und problematischen Mails geprägt ist.
Der Vortrag beleuchtet wertvolles Hintergrundwissen zu Mailservern
und gibt klare Anweisung zur Best Practice bei Syntax-Prüfungen
(hilfreich!), DNS-Einstellungen (heikel!), Reverse-Lookups (wichtig!),
Loadbalancern (überflüssig!), Fail-Over-Szenarien (einfach!),
Resource-Einstellungen (überlebenswichtig!) und vielen anderen
Möglichkeiten – aber eben auch Unmöglichkeiten, denn mit einigen
fixen Spamschutz-Ideen wird aufgeräumt und nachgewiesen, dass man sie
besser nicht einsetzen sollte.
|
Über den Referenten:
Peer Heinlein betreut mit seinem Unternehmen
Heinlein Support die
Linux-IT mehrerer Hundert Kunden. Er selbst ist seit 1992 auf
Maildienste spezialisiert, hat das „Postfix-Buch“ geschrieben und ist
für die Mailserver, Spam- und Virenabwehr verschiedener ISPs,
Rechenzentren und Unternehmen verantwortlich. Jährlich besuchen viele
Hundert Administratoren seine Konferenzen und Linux-Akademie in
Berlin.
|
|
Samba 4.0: Active Directory - und viel mehr... von Michael Adam
|
Freitag, 1.3.2013 10:00-10:45
|
Lange haben die Anwender auf das Release von "Samba4" gewartet, auf
die Implementierung eines Active Directory Servers in Samba. Mit der
Version 4.0 (Stand Oktober 2012: 4.0.0rc3) ist der AD-Server für Linux
endlich verfügbar! Aber Samba 4.0 ist kein reines Active Directory
Release: Die Enwickler haben in einem mehrere Jahre dauernden Prozess
die zuvor getrennten Samba-Enwicklungszweige Samba4 (AD) und Samba3
(den als Version 3.X bekannten produktiven Fileserver)
zusammengeführt. Damit ist Samba 4.0 zwar die erste Version, die als
größte Neuerung den Active Directory Server enthält, aber auch die
direkte Fortführung der Samba 3.X Fileserver-Serie.
Der Active Directory Server ist dank des neuen integrierten
DNS-Servers komplett autark und bedarf keiner externer kompliziert
anzubindender Komponenten mehr. Einfache Domänen sind mit dem
mitgeliferten provision Kommando kinderleicht aufzusetzen.
Aber auch als Fileserver-Release muss sich Samba 4.0 nicht
verstecken. Nachdem Samba 3.6 grundlegende Unterstützung für Version
2.0 des SMB-Protokolls bereitstellte, wird dies mit Samba 4.0 mit der
Unterstützung von so genannten "durable file handles" vervollständigt,
geöffneten Dateien, die gegen kurze Netzwerkausfälle gefeit
sind. Weiter liefert Samba 4.0 bereits die meisten Features von SMB
2.1 und grundlegende Unterstützung von SMB 3.0, das mit Windows 8
grade erst das Licht der Welt erblickt hat. Weitere Elemente von SMB 3
sind in Entwicklung für Samba 4.1.
Dieser Vortrag beschreibt das Konstrukt, durch das Samba 4.0 die
Vereinigung des Active Directory Servers mit dem smbd-Fileserver
bewerkstelligt. Es wird auf die Neuerungen in der Konfiguration
gegenüber Samba 3 eingegangen, und die unterstützten Setups werden
beschrieben. Ebenso wird auf die Neuerungen im Fileserver-Bereich
eingegangen, speziell die Erweiterungen des SMB-Protokolls von SMB 2.0
über 2.1 zu den Cluster-Featurs von SMB 3.0.
|
Über den Referenten:
Michael Adam ist Diplom-Mathematiker und leitet als
Software-Entwickler und Consultant die Samba-Abteilung bei der
Göttinger SerNet GmbH. Als
Mitglied im internationalen Samba-Entwickler-Team und entwickelt er
zur Zeit vor allem am SMB-Server und ist auch am Clustering mit der
CTDB-Software beteiligt.
|
|
Strukturiertes Logging mit rsyslog von Rainer Gerhards
|
Freitag, 1.3.2013 10:00-10:45
|
Anfang 2012 haben sich die Entwickler von rsyslog, syslog-ng, auditd
sowie eine Reihe von anderen am Logging interessierten Personen auf
der Fedora Developer Conference getroffen, und „Project Lumberjack“
aus der Taufe gehoben. Ziel des Projekts ist es, auf Basis von offenen
Standards (MITRE CEE, in Entwicklung befindlich) und gemeinsammen
Verständnis eine interoperable Infrastruktur für strukturiertes
Logging zu erstellen. Hierdurch soll es langfristig möglich werden,
unterschiedliche, jedoch inhaltsähnliche, Log-Meldungen gleich zu
verarbeiten. Kurzfristig bietet Projekt Lumberjack neue Möglichkeiten,
log-Informationen eindeutiger und besser verständlich zu übermitteln
und zu verarbeiten. Neben Linux-basierenden Implementierungen stehen
auch bereits unterstützende Implementierungen auf Windows zur
Verfügung.
Im Vortrag wird die Motivation für Project Lumberjack vorgestellt, die
(wenigen) technischen Details die zur Interoperabilität notwendig
sind, sowie neue Features in rsyslog, die das Arbeiten mit Lumberjack
ermöglichen. Dabei wird auch darauf eingegangen, wie Legacy-Meldungen
normalisiert und somit in ein strukturiertes Logging-System übernommen
werden können.
Dieses Thema ist interessant für alle, die Log-Meldungen aus
heterognene Quellen verwalten müssen und nach effzientieren
Möglichkeiten suchen, dies zu tun. Ausserdem ist es von Interesse für
all dejenigen, die sich einen Überblick über neue Entwicklungen im
Logging-Bereich verschaffen möchten, z.B. im Hinblick auf
Infrastruktur-Weichenetzungen für die kommenden Jahre.
|
Über den Referenten:
Rainer Gerhards ist Gründer der Adiscon GmbH,
einem kleinen, aber
feinen IT-Beratungs- und Softwarehaus in der Nähe von Würzburg. Er
gründete das rsyslog-Projekt in 2004 und ist bis heute dessen
Hauptautor. Er entwickelt seit 1981 systemnahe Software auf
verschiedensten Platformen, unter Anderem Mainframes, Windows und
Linux. Darüber hinaus bietet er Consulting im Bereich der
System-Infrastruktur an. Im Laufe der letzten 17 Jahre ist Herr
Gerhards zum anerkannten Logging Experten geworden. Als Mitglied der
IETF syslog-Arbeitsgruppe hat er wesentliche Lösungen zum
Reengineering des syslog-Protokolls beigetragen und ist Autor vom
Basis-RFC5424 sowie einer Reihe anderer RFCs im logging-Bereich. Seit
2010 ist er darüber hinaus Mitglied im Mitre CEE Board, dass sich die
Schaffung eines neuen Standards zur einheitlichen Repräsentierung von
IT-Events (und damit Log-Daten) zum Ziel gesetzt hat. Darüber hinaus
hat er zu den Gründungsvätern von „Projekt Lumberjack“, das sich der
praktischen Umsetzung des CEE-Gedankens verschrieben hat.
|
|
Lustre/ZFS – verteiltes Dateisystem auf neuen Sohlen von Daniel Kobras
|
Freitag, 1.3.2013 11:15-12:00
|
Die Entwicklung moderner Dateisysteme teilt sich aktuell in zwei Strömungen:
Lokale Dateisysteme wie ZFS oder btrfs verbessern Fehlertoleranz und
-erkennung, reduzieren durch Online-Prüfprogramme die nötigen Wartungsfenster
oder erhöhen durch intelligente Algorithmen den Datendurchsatz für kritische
I/O-Zugriffsmuster. Verteilte Dateisysteme wie GPFS oder Lustre setzen auf
Skalierbarkeit, indem sie eine Vielzahl von Fileservern zu einem logischen
System zusammenfassen. In ihren zugrunde liegenden, lokalen Datenspeichern
verwenden sie jedoch vorwiegend noch traditionelle Speichertechniken.
Das vom Lawrence Livermore National Laboratory (LLNL) initiierte Projekt
zfsonlinux.org hat sich zum Ziel gesetzt, beide Welten zu vereinen. Die Data
Management Unit von ZFS modernisiert hier den Unterbau des verteilten
Dateisystems Lustre. Nach etlichen Widrigkeiten technischer und vor allem
nicht-technischer Natur steht das Projekt inzwischen vor dem Abschluss und soll
vollständig in die kommende Version 2.4 des Lustre-Dateisystems integriert
sein. Seine Praxistauglichkeit beweist der Code allerdings bereits seit langem
am Sequoia-Cluster des LLNL, nichts geringerem als dem – Stand Juni 2012 –
weltweit schnellsten Supercomputer.
Der Vortrag beschreibt den Werdegang des zfsonlinux.org-Projekts, erläutert die
technischen Hintergründe, präsentiert erste Erfahrungen aus eigenen Tests und
zeigt auf, warum eine vollwertige Linux-Implementierung für ZFS eigentlich nur
ein (willkommenes) Abfallprodukt des Projekts ist.
|
Über den Referenten:
Daniel Kobras ist als Senior Systems Engineer bei der Tübinger
science+computing ag beschäftigt.
Dort arbeitet er unter anderem an
Speicherlösungen für Kunden der Automobilindustrie.
|
|
Reboot reloaded – Linux-Kernel patchen ohne Reboot! von Udo Seidel
|
Freitag, 1.3.2013 11:15-12:00
|
Änderungen am Linux-Kernel sind keine Seltenheit und eher die
Normalität. Im Falle von Sicherheits-Updates ist es sogar sehr
zeitkritisch, dass der neue Kern auf den Systemen landet und in
Betrieb geht. Im Normalfall erfordert der Austausch auf Kernel-Ebene
einen Neustart des Betriebssystems. Dies ist aber manchmal aus
operativen Gründen nicht wirklich durchführbar. Abhilfe schafft hier
Ksplice, welches ein Patchen des Kernels im laufenden Betrieb
ermöglicht.
Der Vortrag gibt Einblick in die Ansätze des Ksplice, erläutert die
Architektur und veranschaulicht beides in einer Live-Demonstration.
|
Über den Referenten:
Dr. Udo Seidel ist eigentlich Mathe-Physik-Lehrer und seit 1996
Linux-Fan. Nach seiner Promotion hat er als Linux/Unix-Trainer,
Systemadministrator und Senior Solution Engineer gearbeitet. Heute ist
er Leiter eines Linux/Unix-Teams bei der
Amadeus Data Processing GmbH
in Erding.
|
|
Nahtlos skalierbares Storage mit Ceph von Martin Gerhard Loschwitz
|
Freitag, 1.3.2013 12:00-12:45
|
Ceph schickt sich an, das Wesen von Storage-Umgebungen in Rechenzentren grundlegend zu verändern. Denn während konventionelle Speicherlösungen (SANs oder entsprechende Ersatzkonstruktionen) lediglich in die Höhe skalieren (Scale-Up), skaliert Ceph nahtlos in die Breite (Scale-Out). Für Admins bedeutet das ganz konkret: Anstatt in vorhandene Storages neue Platten einzubauen oder schon vorhandene Platten durch größere zu ersetzen, wächst die Storage-Umgebung, indem neue Speicherknoten hinzu kommen. Die Vorteile der Lösung liegen auf der Hand: Weil Standard-Hardware zum Einsatz kommt, entsteht kein Lock-In-Effekt im Hinblick auf einen bestimmten Hersteller. Durch das parallele Lesen von mehreren Storage-Knoten gleichzeitig entsteht gegenüber klassischen Lösungen überdies ein bemerkenswerter Performance-Vorteil. Last but not least ist Hochverfügbarkeit in Ceph eine inhärente Komponente des Gesamtkonzepts -- Replikation passiert im Hintergrund automatisch.
Dieser Vortrag gibt einen Einblick in die grundlegenden Ideen hinter der Ceph Object Store Lösung. Einer kurzen Einführung in das Thema Object Storage per se folgt eine ausführliche Vorstellung von Ceph. Der CRUSH-Algorithmus, den Ceph für sein Data Placement auf den einzelnen Speicherknoten verwendet, ist dabei ebenso Thema wie die eingebauten Hochverfügbarkeitsfunktionen der Lösung. Der Vortrag erläutert ebenfalls, welche Front-Ends für Ceph derzeit existieren (CephFS, RBD, radosgw) und wie diese jeweils arbeiten. Beispielhaft beschreibt die Präsentation, wie die Arbeit mit Ceph im administrativen Alltag aussehen kann. Das Hauptaugenmerk liegt dabei auf der Verwendung von RBD als Backend für Virtualisierungsumgebungen sowie als zentralem Dateispeicher für Netzwerke mit CephFS. Eine Live-Demonstration gehört ebenfalls dazu und rundet das Angebot ab.
|
Über den Referenten:
Martin Gerhard Loschwitz hatte seine erste Begegnung mit Linux im Alter von 9 Jahren und ist seither ein enthusiastischer Maintainer freier Betriebssysteme. Seit 2003 ist er als Entwickler Mitglied des Debian-Projekts und zeichnet sich dort mittlerweile für die Pflege des Linux-HA-Clusterstacks verantwortlich. Er ist Autor zahlreicher Publikationen in einschlägigen Fachzeitschriften und hat sich in den letzten Jahren vor allem als HA-Spezialist einen Namen gemacht. Seit September 2011 arbeitet er für hastexo und beschäftigt sich dort überwiegend mit dem Linux-HA Cluster-Stack, mit Storage-Lösungen auf Grundlage freier Software sowie mit der OpenStack-Cloudumgebung.
|
|
Kernelhänger mit System (oder „Systemüberwachung testen durch Fehlerinjektion“) von Stefan Seyfried und Ralf Lang
|
Freitag, 1.3.2013 12:00-12:45
|
Für einen Kunden wurde eine Verfügbarkeitsüberwachung für virtuelle
Maschinen implementiert mit dem Ziel, diese bei Problemen automatisch
auf demselben oder (falls nicht möglich) auf einem anderen Hypervisor
neu zu starten.
Während der Implementierung stellte sich ziemlich schnell die
Frage, wie man diese am besten untere möglichst realitätsnahen
Bedingungen testen könnte. Die zu überwachende VM einfach abstürzen zu
lassen wurde für zu einfach befunden – schließlich erkennt der
Hypervisor eine Kernel Panic im Gast und dieser verschwindet dann
z.B. aus der Liste der laufenden Gäste.
Eine Lösung des Problems war dann ein Kernelmodul, welches den
Linux Kernel ausreichend „beschädigt“, so dass sich dieser aufhängt
und dadurch den Überwachungsmechanismus auslöst. Dieses Aufhängen kann
in unterschiedlichen Varianten mit verschiedenen Auswirkungen auf das
zu testende System ausgelöst werden.
Der Vortrag stellt kurz die Überwachungslösung und das Kernelmodul
sowie einige andere interessante Methoden, ein Linux-System „kaputt“
zu machen vor.
|
Über die Referenten:
Stefan Seyfried beschäftigt sich seit über 10 Jahren hauptberuflich
mit Linux in allen Varianten. Zunächst war er als Systemadministrator
bei der SUSE Linux GmbH in Nürnberg tätig. 2004 wurde er Entwickler
für mobile Endgeräte, Hardware Enablement und Systemintegration. Dabei
lernte er Probleme in allen Bereichen- vom Bootloader bis zum Desktop-
zu analysieren und zu beseitigen. 2009 war er für die Sphairon Access
Systems als Entwickler für Wireless Technologies tätig und unterstützt
seit 2010 die B1 Systems GmbH
als Consultant und Entwickler. Wenn er keine Server virtualisiert oder
andere kniffligen Probleme löst, kümmert er sich in seiner Freizeit um
Embedded Linux Systeme aller Art.
|
|
Btrfs und ZFS: eine Gegenüberstellung von Dateisystemen der neuen Generation von Lenz Grimmer und Ulrich Gräf
|
Freitag, 1.3.2013 14:00-14:45
|
Linux und Oracle Solaris bieten beide sehr fortschrittliche
Methoden zur Organisation und Speicherung von Daten auf
Festplatten. Auf Linux-Seite bietet das Btrfs-Dateisystem mittlerweile
eine Reihe von sehr interessanten Funktionen, die weit über das
hinausgehen, was die „herkömmlichen“ Linux-Dateisysteme bisher so zu
bieten hatten. Bei Oracle Solaris-Anwendern gewinnt das
ZFS-Dateisystem aufgrund seiner weitreichenden Möglichkeiten mehr und
mehr an Popularität.
Einerseits haben Btrfs und ZFS viele Gemeinsamkeiten; beide
unterstützen sehr große Dateien und Dateisysteme, bieten integrierte
Volume-Management Funktionalität, Dateisystem-Snapshots und
unterstützen die Sicherstellung der Datenintegrität mit Techniken wie
Copy-on-Write, Checksummen und RAID.
Trotz dieser Gemeinsamkeiten werden beide Dateisysteme unabhängig
voneinander entwickelt und unterscheiden sich daduch in vielen Dingen
und Implementierungsdetails. In diesem Vortrag wollen Ulrich Graef und
Lenz Grimmer einige der Gemeinsamkeiten und Unterschiede dieser
Dateisysteme hervorheben und den Zuhörern einen allgemeinen Überblick
über den aktuellen Stand der Entwicklungen geben.
Dabei soll es nicht darum gehen, einen Sieger zu küren oder einen
Flamewar zu entfachen. Beide Systeme werden ohne Wertung
gegenübergestellt – es bleibt dem Zuhörer überlassen, sich für die
jeweils besser geeignete Lösung zu entscheiden.
|
Über die Referenten:
Lenz Grimmer ist bei Oracle als Produktmanager für die Oracle Linux
Distribution tätig. Er war von 2002 bis 2011 im MySQL-Team als Release
Engineer und Community Relations Manager beschäftigt. Davor arbeitete
er vier Jahre bei der SuSE Linux AG in Nürnberg als
Distributions-Entwickler.
Ulrich Gräf ist Systemberater im Bereich Storage und
Solaris-Spezialist bei Oracle und arbeitet seit mehr als 20 Jahren im
Solaris-Umfeld. Nach einer Tätigkeit in der Vertriebsunterstützung in
der Finanz-Branche war er am Aufbau des Benchmark-Zentrums für
Deutschland beteiligt. Seit 2000 betreut er deutschlandweit die Themen
Solaris, Storage, große Architekturen und Performance.
|
|
Linux ARM-Server im Unternehmenseinsatz von Daniel Gollub
|
Freitag, 1.3.2013 14:00-14:45
|
Linux auf ARM kennt fast jeder und haben viele auch im
Smartphone. Aber bald auch auf dem Server im Rechenzentrum?
2013 könnte der Beginn von ARM in Rechenzentren sein. Mit der
ersten ARM System-on-Chip Server Systemen 2012 und initialer Linux
Kernel Unterstützung von Aarch64 (64bit ARM) wird ARM für den
Enterprise Server Bereich langsam aber sicher greifbar. Nach dem Jahr
der Cloud und immer stärker vertretenen Scale-Out Technologien ist der
Bedarf nach vielen und sparsamen Serversystem größer denn je.
Der Vortrag gibt eine Überblick über die aktuellen
Linux-Entwicklungen in Sachen ARM SoC und welche bedeutend sind für
den Server-Bereich. Des Weiteren wird gezeigt, in welchen
Anwendungsfällen ARM-Serversysteme herkömmliche x86-Serversysteme
ersetzen können und in welchen nicht, außerdem eine ARM Server
Landschaft aussehen könnte – bestehend aus knapp 200 Cores auf knapp
50 einzelnen Linux-Systemen in einem Gehäuse, das insgesamt nur wenige
hundert Watt verbraucht. Und schließlich, wie der Portierungsaufwand
von ARM nach x86 deutlich gesenkt werden kann.
|
Über den Referenten:
Daniel Gollub ist bei B1
Systems GmbH als Software-Entwickler in verschiedensten Open
Source Bereichen tätig. Das Spektrum reicht von Linux Kernel
Entwicklung über Toolchain bis hin zu Testautomatisierung und Desktop
Entwicklung. Für B1 Systems sind seine Schwerpunkte bei Linux Kernel
nahen Themen, Debugging sowie Beratung bezüglich Software
Qualitätssicherung. Er ist seit 2005 aktiver Beitragender in
zahlreichen Open Source Projekten. Bis 2009 war er bei SUSE/Novell an
der Entwicklung verschiedener Linux Produkte beteiligt. Seit 2010
beteiligt er sich im Auftrag von B1 Systems an verschiedenen Open
Source Projekten und unterstützt deren Entwicklung. Seine Vorlieben
sind hartnäckigen Software Problemen auf die Schliche zu kommen, sowie
den Ablauf zu Programmen analysieren und beschleunigen. Unter anderem
auch mit Perl.
|
|
Illumos, SmartOS, OpenIndiana: Morgenröte für OpenSolaris oder Sonnenfinsternis? von Volker A. Brandt
|
Freitag, 1.3.2013 14:45-15:30
|
Nach der Übernahme von Sun durch Oracle wurde die
OpenSolaris-Distribution nicht mehr weiter gepflegt, und die als Open
Source durchgeführte Entwicklung findet wieder hinter verschlossenen
Türen statt.
In diese Lücke stieß zunächst Illumos. Ziel der Initiatioren von
Illumos ist eine freie und vollständige Version einer
Solaris-kompatiblen Systemumgebung. Bald entwickelten sich diverse
Distributionen um diesen Kern: OpenIndiana, SmartOS, Belenix,
illumian, OmniOS, StormOS, DilOS und noch diverse weitere.
Dabei reicht die Palette vom Ein-Mann-Hack (Tribblix) bis zum
kommerziell verwendeten Cloud-Provisionierungs-Tool (SmartOS). In
diesem Vortrag werden einige Distributionen näher beleuchtet und ihre
Zielsetzung, die handelnden Personen und die herausragenden Features
dargestellt.
Zum Schluss wird ein wenig darüber philosopiert, was den „Geist“
von OpenSolaris ausgemacht hat, und ob es tatsächlich so etwas wie
einen Nachfolger von OpenSolaris gibt.
|
Über den Referenten:
Volker A. Brandt ist zusammen mit seinem Bruder Inhaber einer
kleinen Firma, die sich auf heterogene
RZ-Infrastruktur mit Schwerpunkt Solaris spezialisiert hat. Er beschäftigt
sich mit Systeminstallationen, Data Center Automation, Paketierung, und
systemnaher Programmierung. Er hat bereits einige Vorträge und
Workshops über Solaris 10 und 11, AI, IPS und verwandte Themen
gehalten und redet gerne, viel und oft über Solaris.
|
|
Web-Performance-Optimierung mit varnish von Stefan Neufeind
|
Freitag, 1.3.2013 16:00-16:45
|
Für heutige Webapplikationen ist es erforderlich eine Vielzahl von
Anfragen in kurzer Zeit zu bearbeiten und/oder eine große Anzahl
gleichzeitiger Verbindungen zu bedienen. Hierbei steht oftmals die
Auslieferung von ganz oder zeitweise statischen Inhalten (zum Beispiel
Bildern und JavaScript) im Vordergrund. Mit den richtigen Mitteln ist
es möglich einen Großteil der Last vom Webserver auf stark optimierte
Caching-Systeme zu verlagern. Eine sehr flexible Lösung stellt hierbei
„varnish“ zu Verfügung.
Praxiserfahrungen zeigen, dass durch effektives Caching bis zu 98%
aller http-Anfragen durch einen vorgeschalteten varnish-Cache bedient
werden können. Die so gewonnenen Ressourcen auf den Backend-Systemen
stehen hierbei der Applikation zur Auslieferung dynamischer Inhalte
zur Verfügung. Anhand von Regeln lässt sich die Last über verschiedene
Backend-Systeme verteilen, individuelle Haltezeiten oder
Abhängigkeiten der Inhalte von bestimmten Client-Merkmalen
realisieren.
Im Vortrag wird der Einsatz von regelbasiertem Caching
inkl. Skripting-Möglichkeiten mit alltäglichen Applikationen wie
z.B. TYPO3 gezeigt. In Verbindung mit dem Content-Management-System
lassen sich Inhalte jederzeit einfach und kurzfristig
bearbeiten. Trotz langer Haltezeiten kann der Cache durch aktive
Benachrichtigungen seitens des CMS über geänderte Inhalte stets
aktuelle Inhalte zur Verfügung stellen. Spezielle Lösungen wie
z.B. Benutzergruppen-abhängiges Caching sind durch Nutzung der Varnish
Configuration Language (VCL) individuell realisierbar.
|
Über den Referenten:
Stefan Neufeind ist Geschäftsführer der
SpeedPartner GmbH, einem
Internet-Service-Provider für kleine/mittelständische Unternehmen. Im
Fokus stehen Realisierung und Betrieb von Web- und Portallösungen
(z.B. mittels TYPO3, Magento und OpenEMM). Hierbei bilden Entwicklung
und Consulting kombiniert mit Domain-/DNS-Diensten und
maßgeschneiderten sowie lastverteilten/redundanten Hosting-Lösungen
aus erster Hand eine ideale Kombination. Für Kunden betreibt
SpeedPartner Portallösungen, die mittels individuell abgestimmtem
Caching von Webinhalten eine Anwendungen beschleunigen,
Applikationsserver entlasten und eine flexible Lastverteilung
ermöglichen.
|
|
Interrupt-Routinen: Mit Störungen umgehen von Karsten Schulz
|
Freitag, 1.3.2013 16:00-16:45
|
Der Arbeitsalltag von Administratoren und Programmierern ist
durchsetzt von Störungen und Unterbrechungen. In der Fachliteratur
wird berichtet, dass im Durchschnitt alle 11 Minuten Störungen am
Arbeitsplatz auftreten. Unser Gehirn benötigt danach bis zu 15
Minuten, um sich wieder in die ursprüngliche Arbeitssituation zurück
zu versetzen. Arbeitsqualität und Effizienz sinken.
Störungen können durch externe Faktoren wie E-Mail, Instant
Messaging, anfragende Kollegen, Kunden und Chefs und durch interne
Faktoren wie Unkonzentriertheit, Hunger, Durst oder Müdigkeit
ausgelöst werden. Manch eine Störung führt zu einer Unterbrechungen
des aktuellen Arbeitsprozesses.
Der Vortragende analysiert die Charakteristiken von Störungen und
erläutert, wie unser Gehirn damit umgeht. Durch das Wissen um die
psychologischen und neurologischen Prozesse können die negativen
Folgen von Störungen gemindert werden.
Neben Tipps zum Umgang mit Unterbrechungen und Störungen gibt der Vortragende
auch Hinweise, wie das eigene Arbeitsumfeld und die Kommunikation im
Team und mit anderen optimiert werden können. Er zeigt außerdem, wie
durch Timeboxing Unterbrechungen gezielt zur Steigerung der
Produktivität und Kreativität eingesetzt werden können. Dazu zieht er
aktuelle Forschungsergebnisse der NASA und praktische Erfahrungen aus
dem Alltag von Administratoren und Programmierern heran.
|
Über den Referenten:
Karsten Schulz leitet das
Linux Systemhaus Schulz
in Dortmund, welches Dienstleistungen
rund um Linux Server, Firewalls, Netzwerke und Open Source
anbietet. Seine weiteren Standbeine sind die Auftragsprogrammierung
von Speziallösungen und die Beratungstätigkeit als externer
Datenschutzbeauftragter. Seit Anfang 2000 ist er zudem als Trainer in
der Erwachsenenbildung aktiv, bildet Anwendungsentwickler aus und
führt Seminare in den Bereichen Softwareentwicklung und
Lifehacker Methoden
durch.
|
|
Managing Loadbalancers on an Enterprise Level von Jan Walzer
|
Freitag, 1.3.2013 16:45-17:30
|
Loadbalancer werden nicht nur zur Lastverteilung, sondern auch zur
Fehlertoleranz einzelner Systeme eingesetzt. Um Ausfälle von kritischer
Infrastruktur bis hin zu ganzen Rechenzentren abzufangen, ist oft auch ein
georedundanter Betrieb nötig. In diesen Anwendungsbereichen setzt 1&1
Tausende von Realservern mit Hunderten von Linux-IPVS-basierten
Loadbalancern ein.
Die bestehenden IPVS-Loadbalancer sind nach unterschiedlichen Kriterien
gewachsen, jeweils mit eigenen Stärken und Schwächen.
Um diese Schwächen zu lösen, Stärken zu bündeln und eine einheitliche,
zuverlässig administrierbare Loadbalancer-Plattform anbieten zu können,
wurde ein internes Framework entwickelt.
An erster Stelle stand dabei eine vereinfachte Konfiguration der Systeme
durch eine abstrakte Beschreibung, das Vermeiden von Redundanzen,
Fehlerprüfungen und starke Automatisierung.
Seit August 2012 ist ein Prototyp im Hause für interne Dienste im Einsatz
und im November ist der Livegang der ersten öffentlichen Dienste geplant.
|
Über den Referenten:
Jan Walzer arbeitet seit 2011 als Systemadministrator bei der 1&1
Internet AG und treibt dort unter anderem die Entwicklung des
genannten Frameworks voran.
Zuvor war er Jahrelang als Netzwerkconsultant im Bereich
Loadbalancing angestellt. Seine ersten Erfahrungen mit Linux sammelte
er privat 1997 und beschäftigte sich seit 2003 auch beruflich
damit.
|
|
Erfolgreich selbständig sein in IT-Projekten oder: Wie frei ist ein Freelancer? von Martina Diel
|
Freitag, 1.3.2013 16:45-17:30
|
Freelancer in der IT, das muss beneidenswert sein. Kein Chef, von
dem man abhängig ist, sich die spannendsten Projekte aussuchen können,
und dann noch einen fünfstelligen Betrag jeden Monat überwiesen
bekommen – das muss das Paradies sein. Oder?
Denn es gibt auch viele Fragen:
- Muss man für so etwas nicht ein ganz bestimmter Typ sein, und woher weiß ich, ob ich das bin?
- Wie komme ich auch als One-man-show an gute Projekte und was sind eigentlich Bodyleaser?
- Wie hoch darf, wie hoch muss mein Honorar sein?
- Welche juristischen Fußangeln sollte ich vermeiden und welchen Fettnäpfchen ausweichen?
- Wie werde ich gut Freund mit dem Finanzamt?
- Wie ist das mit der Haftung, der Scheinselbständigkeit, der Verlängerungsoption und dem Kundenschutz?
- Wie entgehe ich der „Projektfalle“?
- Was ändert sich sonst noch, wenn ich selbständig bin?
Martina Diel klärt in ihrem Vortrag Vorzüge und Nachteile, Chancen
und Probleme des Lebens einer ganz besonderen Species: des
IT-Freelancers. Mit provokanten Thesen und praktischen Beispielen
zeichnet sie ein realistisches Bild von der Selbständigkeit in der
IT-Branche und gibt wertvolle Hinweise für eine erfolgreiche Tätigkeit
als freier Mitarbeiter in IT-Projekten
|
Über die Referentin:
Martina Diel, Jahrgang 1966, ist nach einem
geisteswissenschaftlichen Studium seit Mitte der 90er Jahre als
Consultant, Projektleiterin und Projektmanager vorwiegend in Banken
tätig, seit Mitte der 2000er Jahre als Freelancer. Angeregt durch die
Erfahrungen mit dem Recruiting von freiberuflichen und
festangestellten Mitarbeitern für Projekte gründete sie im Jahr 2006
„Ziele – Wege – Perspektiven“, ein Unternehmen, das sich mit Beratung
und Coaching von Einzelpersonen rund um Bewerbung und Beruf befasst –
der Schwerpunkt liegt dabei auf Kunden aus der IT-Branche. Seit rund
zehn Jahren Jahren ist Martina Diel mit unixoiden Betriebssystemen als
Anwenderin vertraut und arbeitet privat sehr zufrieden mit
debian. 2008 erschien im O'Reilly-Verlag ihr „IT-Karrierehandbuch“,
das mittlerweile in der 3. Auflage erhältlich ist.
|