German Unix User Group (GUUG) Abstracts | Frühjahrsfachgespräch 2016 |
http://www.guug.de/veranstaltungen/ffg2016/abstracts.html 2019-11-10 |
OpenStack in der Praxis von Christoph Arnold |
Dienstag, 23.2.2016 10:00-18:00 und Mittwoch, 24.2.2016 10:00-18:00 |
Das zweitägige Tutorium "OpenStack in der Praxis" richtet sich an alle, die sich genauer mit Cloud Computing und OpenStack befassen wollen. Teilnehmer dieses Tutoriums sollten erfahrene Linux-Systemadministratoren sein, die tiefer in die Praxis von OpenStack einsteigen wollen. Im Verlauf des Tutoriums erfahren die Teilnehmer, wie sie ihre Cloudumgebung von Grund auf selber planen, einrichten und verwalten. Noch bevor die Teilnehmer tief in die Praxis einer OpenStack Umgebung einsteigen, lernen sie die Hintergründe und Grundlagen von OpenStack kennen: Was ist eine Cloud und welche Typen gibt es? Wie kam es zur Entwicklung von OpenStack und wie ist der aktuelle Stand? Welche grundlegenden Komponenten hat eine OpenStack-Umgebung, wie interagieren sie miteinander und welche optionalen Erweiterungen stehen für den späteren Ausbau zur Verfügung? Der eigentliche Aufbau der eigenen Cloud beginnt mit der Installation und Konfiguration von Keystone, dem Identity Service, zur zentralen Authentifizierung. Ist die Authentifizierung eingerichtet, werden die übrigen Komponenten darauf aufbauend konfiguriert. Die Verwaltung von Maschinenimages übernimmt Glance, der Image-Service. Der Compute-Dienst Nova übernimmt dann die Verwaltung der Instanzen. Block Storage kann über den Dienst Cinder bereitgestellt werden. Wie die Instanzen miteinander und der Außenwelt verbunden sind, bestimmt der Netzwerkdienst Neutron. Mit Horizon steht dem Administrator neben der Kommandozeile ein webbasiertes Frontend zur Verwaltung der Cloud zur Verfügung. Heat übernimmt die automatisierte Verwaltung von Infrastruktur-Ressourcen für Cloudanwendungen. Die Ressourcen überwacht und erfasst Ceilometer. Für das Tutorium werden virtuelle Maschinen bereitgestellt, die die benötigte Software enthalten, es ist bitte ein Laptop mitzubringen, der folgende Voraussetzungen erfüllt:
Der grundlegende Umgang mit dem eingesetzten Hypervisor sollte bekannt sein, insbesondere die Einrichtung der virtuellen Maschine sowie der Netzwerkkonfiguration. |
|
Über den Referenten:
Christoph Arnold konzipiert und realisiert Cloudumgebungen mit OpenStack und Hochverfügbarkeitslösungen. Zu seinen Kernthemen gehören Linux Cluster und Cluster-Dateisysteme. Darüber hinaus beschäftigt er sich seit Jahren mit dem Aufbau virtualisierter Umgebungen mit Open-Source-Tools. Er ist seit 2009 als Linux Consultant und Trainer für die B1 Systems GmbH tätig. |
|
Puppet4 – richtig aufsetzen, nutzen und migrieren von Martin Alfke |
Dienstag, 23.2.2016 10:00-18:00 und Mittwoch, 24.2.2016 10:00-18:00 |
Puppet wird bereits von vielen Firmen und Privatpersonen als Konfigurationsmanagement zur Verwaltung von kleinen und großen Infrastrukturen eingesetzt. Viele Systemadministratoren bevorzugen die Software, weil sie nicht programmieren müssen, sondern statt dessen eine Abstraktionssprache (Puppet DSL) verwenden können. Die bestehenden Puppet-Implementierungen sind aber oft auf einem alten Stand und ein Update wird nicht gemacht. Dieses Tutorium richtet sich an Anwender von Puppet, die wissen wollen, wie man eine bestehende Puppet-Infrastruktur auf Puppet 4 aktualisiert und an Interessierte, die die Funktionen der neuen Version 4 kennenlernen wollen. Im Laufe des Tutoriums werden die Teilnehmer bestehenden Puppet-3-Code analysieren und mit Hilfe von Tests herausfinden, ob der Code auch auf Puppet 4 funktioniert. Weiterhin werden sie die Unterschiede zwischen einem Update und einer Migration auf Puppet 4 erfahren. Danach wird auf die neuen Funktionalitäten in Puppet 4 eingegangen. Die Teilnehmer brauchen erweitertes Wissen in der *nix Systemadministration auf LPI-2 Niveau und müssen Erfahrungen im Umgang Puppet haben (Puppet Fundamentals/Practitioner Training oder mindestens drei Monate intensive Arbeit mit Puppet). Der Workshop wird mit Hilfe von virtuellen Maschinen durchgeführt. Jeder Teilnehmer sollte eine von Puppet unterstützte VM mitbringen (zum Beispiel Debian, CentOS, RHEL oder SLES). |
|
Über den Referenten:
Martin Alfke ist Mitgründer und Geschäftsführer der example42 GmbH und langjähriger PuppetLabs Training Partner. Seit Oktober 2015 unterstützt er als erster europäischer PuppetLabs Certified Consultant Groß- und Enterprisekunden im Puppetumfeld. |
|
Plattformübergreifende Dateidienste sicher anbieten von Michael Weiser und Daniel Kobras Abgesagt |
Dienstag, 23.2.2016 10:00-18:00 und Mittwoch, 24.2.2016 10:00-18:00 |
Das Tutorium behandelt die Implementierung sicherer Dateidienste für Unix-, Linux- und Windows-Clients. Es wendet sich an Administratoren, die in ihren Umgebungen Dateidienste über SMB oder NFS anbieten und nun die Sicherheit dieser Services erhöhen möchten. Dazu werden folgende Netzwerkdateisysteme betrachtet: 1. SMB: Hier soll gezeigt werden, wie Linux- und Unix-Systeme SMB nach aktuellem Sicherheits- und Komfortstandard als Client nutzen und mittels Samba lokale Dateisysteme als SMB-Freigaben exportieren. Es werden neue Funktionen und Möglichkeiten der SMB-Protokollversionen 2 und 3 am Beispiel des Windows-internen Dateidienstes sowie des Dateidienstes von Samba4 vorgestellt (aber nicht die Active-Directory-Domänencontrollerfunktionalität). Dabei wird besonders auf sichere und komfortable Authentisierung mit Kerberos eingegangen. Schließlich werden die Möglichkeiten und Stolpersteine des Einbindens in das Client-Dateisystem nach typischer Unix-Semantik (mount) betrachtet. 2. NFSv4: Die aktuelle Version des traditionellen Netzwerkdateisystems für Unix-Systeme wird vorgestellt. Neue Funktionen und abweichende Arbeitsweisen werden erläutert. Auch hier wird besonders auf die Sicherheitsmechanismen und starke Authentisierung mit Kerberos eingegangen. Aktuelle Entwicklungen in Linux, wie GSS-Proxy, die Kernel-Keyring-Infrastruktur und die Rückkehr des NFS-Servers in den Userspace mit NFS-Ganesha, runden den Überblick ab. 3. OpenAFS: Mit AFS eröffnet sich die Möglichkeit eines einheitlichen Dateidienstes für Unix-, Linux- und Windows-Clients. Verglichen mit SMB und NFS entsteht hier ein höherer Migrationsaufwand, da kein vorhandenes lokales Dateisystem exportiert, sondern ein komplett neues erstellt wird. AFS nutzt ebenfalls Kerberos für Authentisierung und Datensicherung. Auch hier wird auf aktuelle Entwicklungen wie die Unterstützung starker Verschlüsselung in OpenAFS eingegangen. Die Sicherheit der einzelnen Varianten unterscheidet sich hinsichtlich der Kriterien Daten-Integrität, -Vertraulichkeit und Authentisierung. Zusammen mit den Teilnehmern werden die einzelnen Lösungen im Verlauf des Workshops daraufhin analysiert und bewertet. Als Infrastruktur dient ein Active Directory, vor allem zur Bereitstellung des Kerberos-Dienstes. Die für das Verständnis notwendigen Grundlagen von Kerberos werden im Workshop eingeführt. Vorkenntnisse zu Kerberos werden nicht benötigt. Voraussetzungen: Grundlegendes Know-How in der Linux-Netzwerkadministration. Grundkenntnisse zu LDAP, Samba und NFS sind empfehlenswert. Mitgebrachte Rechner sollten folgende Voraussetzungen erfüllen:
|
|
Über die Referenten:
Michael Weiser und Daniel Kobras sind als Senior Solution Architects bei der science+computing ag beschäftigt. Dort begleitet Michael Weiser seit 2004 Projekte und Workshops zu den Themen LDAP, Kerberos und AD-Integration sowie High-Performance-Computing. Daniel Kobras arbeitet unter anderem an skalierbaren Speicherlösungen für Kunden der Automobilindustrie. |
|
Ceph für Einsteiger: in einem Tag zum Storage-Cluster von Florian Haas |
Dienstag, 23.2.2016 10:00-18:00 |
Im Tutorial gewinnen Teilnehmer einen tiefen Einblick in die Architektur, das Design und die Implementierung des verteilten Speichersystems Ceph sowie nehmen einen eigenen Ceph-Cluster in Betrieb. Der Workshop behandelt dabei die Themen Ceph-Design und -Architektur, Object Storage und horizontale Skalierbarkeit. Er geht ein auf die unterschiedlichen Komponenten eines Ceph-Speichersystems und deren Installation und Konfiguration. Im Tutorial erfahren die Teilnehmer Details über den Storage-Algorithmus CRUSH und seine Feinabstimmung. Die Teilnehmer gehen weiterhin auf die verschiedenen Clientkomponenten in einem Ceph-System ein: Sie behandeln RBD und CephFS sowie RADOS-Clientbibliotheken und Radosgw. Sie werden im Rahmen des Workshops einen eigenen Ceph-Cluster in Betrieb nehmen. Ceph-Vorkenntnisse sind nicht erforderlich; solides Linux-Grundwissen wird allerdings erwartet. Ebenso notwendig ist ein Laptop, auf dem Teilnehmer aber für diesen Workshop nicht mehr benötigen als einen SSH-Client und einen Webbrowser. |
|
Über den Referenten:
Florian Haas ist seit 2012 in der Ceph-Community aktiv und hat zum Thema bereits auf dem OpenStack Summit, LinuxCon, CloudOpen und linux.conf.au gesprochen. Er leitet hastexo, ein auf Open-Source-Cloud-Technologie spezialisiertes Professional Services-Unternehmen. |
|
Automatisierung mit SaltStack von Thorsten Kramm |
Dienstag, 23.2.2016 10:00-18:00 |
SaltStack (kurz: Salt) ist eine Open-Source-Software zur Automatisierung der Konfiguration von Serversystemen. Mit SaltStack lassen sich beispielsweise Software-Pakete installieren und konfigurieren sowie beliebige Konfigurationsbefehle von einem zentralen Rechner aus auf einer Vielzahl verwalteter Server ausführen. Administratoren legen auf einem Server zentral die Konfiguration anderer Rechner fest, die die Management-Software dann auf den Clients umsetzt. Mit SaltStack verwalten Systemverwalter kleine Umgebungen sowie große Setups mit mehreren tausend Servern. Der große Vorteil von SaltStack ist der einfache Einstieg. Der Workshop geht mit konkreten Übungen auf folgende Aspekte ein. Dazu gehören die Installation von Master und Minion, das Ausführen von Kommandos auf entfernten Systemen und die Differenzierung von Systemen mit Grains. Teilnehmer lernen das Anlegen und Ausrollen von Konfigurationen (Stalt States), diese Salt State zu strukturieren und Konfigurationen dynamisch mit Jinja zu gestalten. Thema ist ebenfalls das Speichern und Verwenden von Variablen mit Pillars. Dies ist ein langer Workshop. Ziel ist es, konkreten und praktischen in Salt und die Systemautomatisierung einzusteigen. Die Teilnehmer benötigen einen Laptop mit SSH-Client. Jeder Teilnehmer bekommt zwei virtuelle Maschinen in der Cloud gestellt, um alle Beispiele konkret umzusetzen. Gute Linuxkenntnisse sowie der sichere Umgang mit der Bash und einem Editor wie dem Vi werden vorausgesetzt. |
|
Über den Referenten:
Thorsten Kramm beschäftigt sich seit 1999 mit IT-Systemen im Unternehmenseinsatz. In verschiedenen Firmen leitete er die IT-Abteilungen. Frustriert über die mangelnde Benutzerfreundlichkeit von CfEngine3 kam er zu SaltStack. Als Berater hat er in vielen Firmen Zabbix eingeführt und große Setups aufgebaut. Thorsten Kramm beschäftigt sich nicht nur mit den technischen Details von IT-Systemen. Sein Augenmerk gilt auch den Softskills und der menschlichen Komponente. Ein System funktioniert nur so gut, wie die Menschen, die es betreiben. Thorsten Kramm gibt Trainings zu den Themen Monitoring, IT-Automatisierung und Kanban in der IT. Er lebt und arbeitet in Berlin. |
|
Continuous Delivery of Continuous Delivery von Gerd Aschemann |
Mittwoch, 24.2.2016 10:00-18:00 |
Viele Organisationen haben in den letzten Jahren eine Plattform für Continuous Integration oder gar Continuous Delivery aufgebaut. Man kann auch die Plattform selbst nach dem Prinzip "Infrastructure as Code" erstellen und kontinuierlich reproduzieren und testen, sie also zum Gegenstand einer Continuous Delivery Strategie machen. Damit lässt sich nicht nur die Funktionsfähigkeit der Plattform permanent prüfen und garantieren, sondern es können auch sehr leicht weitergehende Use Cases abgebildet werden, beispielsweise die Weiterentwicklung oder das Upgrade einer Komponente, die Integration neuer Komponenten und Plugins oder der Austausch einer Komponente. Außerdem lassen sich beispielsweise Mitarbeiter oder Entwickler damit schulen oder komplexe CI-/CD-Prozesse testen, beispielsweise das Release von Komponenten. Im Tutorial wird eine Referenz-Plattform vorgestellt und von den Teilnehmern selbst nachgebaut (Hands-On). Die Plattform besteht aus typischen Open Source-Komponenten, wie sie sich im Java-/Enterprise-Umfeld finden, darunter einem SCM-Manager (Source Code Management mit SVN, Git oder Mercurial), einem Artifact-Repository wie Nexus und Jenkins als Build-Server. Die Qualitätssicherung übernimmt SonarQube. Die Plattform wird als virtuelle Maschine mit Vagrant und Puppet aufgebaut, die Komponenten werden weitgehend als Docker-Container installiert. Das Tutorium stellt zunächst die Komponenten Vagrant, Docker sowie CI/CD-Server (Nexus, Jenkins, SCM-Manager, SonarQube) zum Aufbau der eigenen CI/CD-Plattform vor. Am Ende des Tutorials sollte jeder Teilnehmer mit seiner Variante ein Referenz-Projekt bauen und ausliefern können, beispielsweise auf der Basis von Spring-Boot. Voraussetzung zur Teilnahme sind grundlegende Kenntnisse in der Linux-Administration oder Erfahrungen im DevOps-Bereich (Build-/Konfigurationsmanagement), sowie im Skripting und Versionskontrolle mit SVN oder Git. Technische Voraussetzung ist ein eigener Laptop mit mindestens 4 GByte RAM, 20 GByte Platz auf der Festplatte sowie vorinstalliertem, aktuellem Vagrant und VirtualBox. |
|
Über den Referenten:
Gerd Aschemann ist als freiberuflicher Berater im Java-Umfeld unterwegs. In den letzten Jahren hat er mehrfach für kleine und große Unternehmen Plattformen für Continuous Integration/Delivery aufgebaut. Er berät in grundlegenden Fragen zum Thema Build-, Konfigurations- und Versionsmanagement. Er hat schon mehrere JEE-Projekte als ausführender Software- und Systemarchitekt in die Produktion überführt. Gerd Aschemann hat an der TU Darmstadt Informatik studiert und im Anschluss dort einige Jahre als wissenschaftlicher Mitarbeiter mit dem Schwerpunkt "Management Verteilter Systeme/Konfigurationsmanagement" geforscht. |
|
PDF-KungFoo mit Vim (und ein paar Spezial-Tools) von Kurt Pfeifle |
Mittwoch, 24.2.2016 10:00-18:00 |
PDF-Dateien untersuchen, verstehen, debuggen, analysieren und modifizieren erscheint trivialer als es sich im Detail darstellt. Dabei repräsentiert PDF das zweit-wichtigste Dokumentenformat der heutigen Zeit nach reinem Text. Weil zwar jeder die damit verbundenen Werkzeuge verwendet, aber kaum einmal richtig in sie reinschaut, führt dieses Tutorium etwas hinter die Kulissen. Teilnahmevoraussetzung: Interesse am Thema, kein weiteres Vorwissen erforderlich. Dieses Tutorium gibt Hilfestellungen für Teilnehmer, die mehr über PDFs wissen, lernen und forschen wollen und Interesse daran haben, solche zu analysieren, sezieren, verändern, modifizieren, manipulieren oder zu debuggen. Es besteht aus drei Teilen: In der ersten Stunde schreibt der Vortragende "live am Beamer" eine einfache PDF-Datei nur mit einem Text-Editor -- selbstverständlich mit Vim. Dabei erläutert er Schritt für Schritt die wichtigsten Syntax-Elemente der PDF-"Sprache". Kein Byte bleibt unerklärt! Parallel zum fortschreitenden PDF-Code führt er einige Kommandozeilen-Tools vor. Deren Ausgabe zeigt an, ob und wann der Code die ersten Anzeichen von "PDF-Sein" erkennen lässt. Hand-in-Hand mit dem Fortschreiten dieses "Hello World"-PDF-Dokuments zeigt er relevante Abschnitte der offiziellen PDF-Spezifikation. Seine Lese-Hinweise hierzu werden dem ambitionierten Teilnehmer einen Kickstart verschaffen, um diese ansonsten schwer verdauliche Kost zu bewältigen. Sobald das "Hello, World!"-PDF erfolgreich im PDF-Viewer rendert, geht das Tutorium noch tiefer und fragt, wie Anwender die Seiten-Dimensionen ändern, eine Seite rotieren, die Schriftfarbe ändern oder das Seiten-Bild verzerren. Sie lernen, wie man eine Schrift unsichtbar macht, ein Viereck zeichnet und ein Bild einfügt. Den Abschluss des Abschnitts bildet die Frage, wie sich Schriften einbetten lassen. Der zweite Teil dreht sich dann Real-Life-PDFs: Warum sehen die im Text-Editor so viel anders aus, als das selbst-geschriebene Dokument der ersten Stunde? Welche Tools gibt es, die meine Echte-Welt-PDFs in eine Form überführen, die sich für ein Öffnen im Text-Editor eignet? Welche anderen Werkzeuge gibt es, um PDFs zu analysieren, zu debuggen oder zu manipulieren und zu ändern? Der dritte Teil behandelt als Bonustrack je nach verbliebener Zeit noch Spezialfragen: Warum kann man die Schrift auf PDF-Seiten manchmal klar und deutlich lesen, aber den dargestellten Text trotzdem nicht sauber rauskopieren? Wo und wie kann man Nachrichten in PDFs verstecken? Wo und wie stellen Teilnehmer fest, ob ein PDF-Dokument unbeabsichtigterweise vertrauliche Informationen enthält, die sie besser ganz entfernen? Die Teilnehmer haben die Möglichkeit, dem Referenten vorab Problemstellungen und Fragen mit Beispiel-Dateien zukommen zu lassen, die er im Tutorium beantwortet. Lese-Hinweise: PDF-KungFoo mit Ghostscript & Co. -- Ein E-Book, das ebenfalls zum Thema gehört. Mehrere, vom Autor handgeschriebene PDFs, die unterschiedliche Aspekte der PDF-Syntax demonstrieren Das Tutorium besteht vorwiegend aus Live-Vorführungen. Folien-Vorführungen am Beamer beschränken sich auf ein Minimum. Teilnehmer werden weitere Unterlagen mit Übungs-Blättern sowie Folien in digitaler Form als Tarball erhalten, die sie dann zum Nacharbeiten und Üben zuhause verwenden können. |
|
Über den Referenten:
Kurt Pfeifle ist Freiberufler im IT-Bereich. Er ist spezialisiert auf Themen rund um's Drucken: CUPS, IPP, IPP Everywhere, Druckdaten, Druckdaten-Konvertierungen, PostScript, PDF, AFP, PCL, PJL. Außerdem interessiert er sich brennend für alle Arten von Software, die aus einfachem Markdown-Text andere Dateiformate erzeugen. Pandoc ist dabei augenblicklich sein Favorit; Markdeep ist aber bereits am ersten Tag seiner Veröffentlichung im Oktober 2015 auf den Platz 2 seiner persönlichen Top 10 eingestiegen. |
|
Von Kutschern, Schriftsetzern, Managern und Systemadministratoren von Johann-Peter Hartmann |
Donnerstag, 25.2.2016 9:15-10:15 |
Die großen Consultancies nennen es "Digitale Transformation", Marc Andreessen nennt es "Software eats the World". Eher aus Versehen haben wir IT-ler mit Unix und Internet etwas angestoßen, dass die ganze Wirtschaft - von Handel über Organisationsdesign bis zum Management - durch den Wolf dreht. Mit den Unternehmen schlägt das jetzt wieder auf die Systemadministratoren zurück, und stellt deren Rollen und Positionen in Frage. Im Gegensatz zu den Managern wird es aber vermutlich auch in Zukunft noch relevante Aufgaben für Administratoren geben. | |
Über den Referenten: Johann bezeichnet sich als "Chief Tailwind Officer" und sieht Rückenwind für Kollegen, Teams und das Unternehmen als seine oberste Aufgabe. Er mag tatsächlich seine Arbeit mit den Kollegen sehr und ist dankbar dafür, mit ihnen zusammenarbeiten zu dürfen. | |
IPv6 jenseits der Provider von Benedikt Stockebrand |
Donnerstag, 25.2.2016 10:45-11:30 |
Nachdem die Mehrheit der Internet Service Provider und Content-Anbieter IPv6 inzwischen halbwegs in den Griff bekommen haben, kommen auch Unternehmen immer mehr in Zugzwang. Hier treten ganz neue Probleme in den Vordergrund: Im Netzwerk selbst nehmen Fragen rund um Netztopologien, Micro-Segmentation, das Vermeiden von flächendeckendem Dual-Stacking und die schwindende Verfügbarkeit von echtem IPv4 ohne DS-Lite für Kunden und die mobilen eigenen Mitarbeiter eine ganz neue Qualität an. Sobald das Netzwerk IPv6 unterstützt, werden die Anwendungen zu einem großen Problem. Selbstentwickelte Software wird schnell zu einem schwer kalkulierbaren Kostenfaktor, wenn sie niemand mehr wartet oder sie auf Sprachen oder Libraries aufsetzt, die IPv6 nicht unterstützen. Noch kritischer sind extern eingekaufte Produkte, deren Hersteller -- sofern er nicht längst pleite gemacht hat -- die Unterstützung von IPv6 als bequeme Einnahmequelle missbrauchen. Alternativ setzen sie das Protokoll als Hebel ein, um Kunden zum auf ein neues Produkt zu zwingen und damit auch gleich die Support-Verpflichtungen für Altprodukte loszuwerden. In diesen Fällen kann es passieren, dass sich das Problem auch mit Geld nicht mehr einfach aus der Welt schaffen lässt, weil sich der Hersteller schlicht verweigert. Spätestens, wenn die Support-Anfrage nach IPv6-Unterstützung von der Rechtsabteilung des Herstellers beantwortet wird, darf man allmählich nervös werden. Wenn dann noch eine chronisch überlastete IT nicht unbedingt begeistert auf die Aussicht reagiert, mit IPv6 noch eine zusätzliche und schwer abzuschätzende Baustelle aufgebürdet zu bekommen und das Management typischerweise schon im Vorfeld nach "Planungssicherheit" bei den zu erwartenden Aufwänden verlangt, führt das oft genug dazu, dass IPv6 auf die lange Bank geschoben wird, bis die Probleme unkontrollierbar werden. Wer IPv6 jedoch in Angriff nimmt, bevor akuter Leidensdruck zu zweifelhaften, aber schnellen Workarounds zwingt, oder es sogar als Gelegenheit sieht, aufzuräumen und diverse Probleme an der Wurzel zu lösen, kann immer noch größere Krisen verhindern. Das Vortrag zeigt, mit welchen Problemen Anwender im Enterprise-Umfeld rechnen sollten, wie sie sinnvoll vorgehen und wie sie mit unschönen Überraschungen umgehen. Es basiert auf den Erfahrungen des Autors in den letzten Jahren. |
|
Über den Referenten:
Benedikt Stockebrand beschäftigt sich seit 2003 als Hauptarbeitsschwerpunkt mit dem Deployment und produktiven Betrieb von IPv6. Er ist international als Trainer und Berater mit seiner Firma Stepladder IT Training+Consulting GmbH tätig. Mit seinem Buch "IPv6 in Practice -- A Unixer's Guide to the Next Generation Internet" (Springer 2006) hat er ein Standardwerk zum Thema IPv6 geschaffen, das frühzeitig die operativen Aspekte von IPv6 zum Thema hatte. Seit 2014 ist er einer der Chairs der IPv6 Working Group des RIPE; über die operativen Aspekte von IPv6 hinaus ist er auch innerhalb der IETF im Rahmen seiner Möglichkeiten aktiv. Seit einiger Zeit beschäftigt er sich nebenbei auch mit Crypto-Hardware, und dabei insbesondere der Konstruktion, der Validierung und dem Test von Hardware-Zufallszahlengeneratoren. Dabei kooperiert er unter anderem auch mit dem Cryptech-Projekt, das in Folge der Snowden-Enthüllungen im Umfeld der IETF entstanden ist. |
|
Kernel-Log: Aktuelle Entwicklungen beim Linux-Kernel von Thorsten Leemhuis |
Donnerstag, 25.2.2016 10:45-11:30 |
Der Vortrag gibt einen Überblick über alltagsrelevante Verbesserungen in den beiden neuesten Versionen des Linux-Kernels und dem in Kürze erwarten Linux 4.5. Er beleuchtet ferner einige der entscheidenden Entwicklungen des letzten Jahres und geht auf einige der wichtigsten Techniken ein, an denen die Kernel-Entwickler gerade für das nächste Jahr arbeiten. Der Fokus liegt dabei auf für System- und Netzwerk-Admins wichtige Änderungen -- also bei Bereichen wie Dateisystemen, Netzwerktechniken und Hardware-Unterstützung. |
|
Über den Referenten:
Thorsten Leemhuis schreibt für c't, heise online und heise open das "Kernel-Log", in der er regelmäßig einen Einblick in die Entwicklung des Linux-Kernels liefert. |
|
MARS: Langstrecken-Replikation von Petabytes von Thomas Schöbel-Theuer |
Donnerstag, 25.2.2016 11:30-12:15 |
MARS Light ist eine Block-Layer Daten-Replikation auf Kernel-Ebene für Langstrecken, das echte Georedundanz hoch verfügbar herstellt. Das Projekt ist bei der 1&1 Internet SE auf mehr als 800 Storage-Servern mit insgesamt mehr als 12 PByte Datenvolumen im Einsatz, hat bereits mehr als 4 Millionen Betriebsstunden ohne nennenswerte Störungen absolviert und bereits ein Teil-Phasen-Stromausfall-Desaster erfolgreich kompensiert. Der Vortrag erklärt, weshalb Anwender Langstrecken-Replikation bei mehr als 50km Distanz oder über potentielle Netzwerk-Flaschenhälse unbedingt auf Block-Ebene durchführen sollten. Der Unterschied zwischen DRBD und MARS wird herausgearbeitet und einige neuere Features werden erklärt. |
|
Über den Referenten:
Thomas Schöbel-Theuer war Assistent in der Abteilung Betriebsysteme der Universität Stuttgart sowie Vertretungsprofessor für Betriebsysteme und Datenbanken an der Fachhochschule Bingen. In den 1990er Jahren hat er das Original-Konzept des Dentry Cache für den Linux-Kernel entwickelt. Zurzeit arbeitet er bei der 1&1 Internet in Karlsruhe, vor allem an der Replikation großer Datenmengen. |
|
Neueste Entwicklungen in LVM RAID von Heinz Mauelshagen |
Donnerstag, 25.2.2016 11:30-12:15 |
LVM2 unterstützt seit einer geraumen Weile RAID 1, RAID 4, RAID 5, RAID 6 und eine eingeschränkte Variante von RAID 10 near. Es fällt allerdings noch funktional hinter MD und das Tool Mdadm zurück, obwohl es die Kernel-Komponenten von MD per dm-raid als ein Device-Mapper-Target mitbenutzt. Features wie etwa Takover, Reshape und Verkleinerung bestehender Logical Volumes sind Gegenstand aktueller Entwicklungen in Device-Mapper und LVM2. Der Vortrag gibt eine Übersicht mit Demo der Unterstützung dieser Features in LVM2/Device-Mapper und stellt neue vor, die über die Möglichkeiten von MD hinausgehen. |
|
Über den Referenten:
Heinz Mauelshagen hat in grauer Vorzeit Linux den Logical Volume Manager beigebracht und arbeitet für Red Hat im Dunstkreis von Clustered Storage. |
|
Multi-Context-Firewalling mit Linux und nft von Hendrik Schwartke |
Donnerstag, 25.2.2016 13:45-14:30 |
Linux bietet seit vielen Jahren umfangreiche, stabile und sichere Funktionen zur Filterung von Netzwerkpaketen. Die hiermit realisierbaren Sicherheitslösungen reichen von der Absicherung einzelner Server über die Realisierung einfacher Paketfilter bis hin zu komplexen und hochverfügbaren Firewallsystemen. Die Architektur dieser Funktionen geht jedoch auf das Jahr 2001 zurück und zeigt altersbedingt einige Schwächen. Zu nennen sind hier beispielhaft Performanceprobleme beim Filtern großer Datenmengen (10G+), wenn diese komplexe Filterregeln verwenden. Auch ist mit der bisherigen Lösung Netfilter ein atomares Laden eines umfangreichen Filterwerks nicht möglich. Ein weiteres Argument gegen den Einsatz von Linux als Firewalllösung war bislang oftmals die wenig intuitive Syntax des Regelwerks. Aus diesem Grund wurden die Paketfilterfunktionen des Linux-Kernels als auch die zugehörigen Adminstrationswerkzeuge von Grund auf überarbeitet. Das Ergebnis ist eine zum größten Teil neu implementierte Filterarchitektur innerhalb des Linux-Kernels. Dabei wird nicht mehr jede Regel des Regelwerks durch den Kernel verwaltet und sukzessiv auf jedes Netzwerkpaket anwendet. Stattdessen wird das Regelwerk im User-Space kompiliert und dem Kernel in Form eines Programms übergeben, das auf der Filtersprache des Berkeley Packet Filter (bpf) basiert. Dieses Programm wendet der Kernel auf die eingehenden Netzwerkpakete an und bestimmt so deren weitere Verarbeitung. Dieser Ansatz reduziert nicht nur den Umfang des im Kernel notwendigen Codes, er erlaubt auch wesentlich höhere Datendurchsatzraten im Zusammenhang mit komplexen Regelwerken. Die für den Firewall-Adminstrator viel offensichtlicheren Änderungen betreffen jedoch die zu verwendenden Werkzeuge. Während die bisherige Administration von Filterfunktionen je nach Einsatzgebiet mehrere Werkzeuge (iptables, ip6tables, ebtables, arptables) benötigte, löst sie zukünftig das einzelne Werkzeug nft ab. In diesem Zuge wurde insbesondere die Syntax von Filterregeln mit dem Ziel überarbeitet, intuitive, leicht lesbare und einheitliche Regelwerke zu ermöglichen. Der Vortrag zeigt neben den grundlegenden Eigenschaften der modernen Filterarchitektur auch weiterführende Konzepte. Im Mittelpunkt steht die Frage, wie Admins am Übergang zwischen Netzen effizient filtern, die administrativ und organisatorisch unabhängig sind. Dies kann durch die Virtualisierung der Firewallfunktion mit Hilfe von Namespaces erfolgen. Hiermit können die Administratoren unabhängige Filterwerke für die unterschiedlichen Netzwerke definieren. Der Vortrag demonstriert daher eine Multi-Context-Firewall, die mehrere netzwerkspezifische Regelwerke auf Basis von Linux und nft gleichzeitig implementiert. Das Zielpublikum des Vortrags umfasst in erster Linie Administratoren, die bereits Erfahrungen mit der Administration einer (Linux-) Firewall haben. |
|
Über den Referenten:
Hendrik Schwartke arbeitet seit 2010 als IT-Sicherheitsspezialist für OpenSource Security Ralf Spenneberg. Zu seinen Aufgabengebieten gehören neben der sicherheitstechnischen Analyse von Open-Source-Software das Untersuchen von eingebetteten Systemen. In dieser Funktion war er maßgeblich an der Konzeption des Fuzzing-Frameworks vUSBf zur systematischen Ermittlung von sicherheitskritischen Fehlern in Betriebssystemtreibern beteiligt. Ferner ist er Autor der Sicherheitsanalyse SUSIv8, die im Auftrag des Bundesamtes für Sicherheit in der Informationstechnik entstand und die sich mit den Eigenschaften des Unified Extensible Firmware Interface (UEFI) befasst. Zuvor studierte er an der Fachhochschule Münster, erwarb dort im Jahr 2010 einen Abschluss zum Master of Science im Studiengang Informationstechnik sowie im Jahr 2008 einen Abschluss zum Bachelor of Science im Studiengang Angewandte Informatik. |
|
Samba Status Update von Volker Lendecke |
Donnerstag, 25.2.2016 13:45-14:30 |
Der Vortrag stellt den aktuellen Stand der Samba-Entwicklung dar. Mit Samba 4.2 von März 2015 und 4.3 von September 2015 sind einige wesentliche Verbesserungen hinzugekommen. Dazu zählen beispielsweise Performanceverbesserungen: Die Samba-Basisinfrastruktur TDB und das Samba-interne Messaging haben große Verbesserungen und Umstrukturierungen erfahren. Mit Samba 4.3 ist ein deutlich skalierbareres System für FileChangeNotify hinzugekommen. Ctdb ist nun Teil von Samba. Die Software ist als AD-Mitglied sicherer geworden: Der Winbind verlangt nun signierte Verbindungen zum Domain Controller, um MITM-Angriffe zwischen winbind und Domain Controller zu unterbinden. Die neue Version hat SMB2-Leases eingeführt. Diese und weitere Entwicklungen werden im Vortrag vorgestellt. |
|
Über den Referenten:
Volker Lendecke ist Mitgründer der SerNet GmbH in Göttingen und Mitglied des Samba Teams. |
|
Securing Security with DANE von Patrick Koetter |
Donnerstag, 25.2.2016 14:30-15:15 |
TLS bietet vor und während des Session-Aufbaus Angriffspunkte, um den Client mit dem falschen Server zu verbinden. Im ungünstigsten Fall liefert der Client im guten Glauben die Daten bei einem Angreifer ab. Client-seitiges Certificate Pinning bietet Abhilfe, aber es ist aufwändig in Aufbau und Pflege. Viele meiden Certificate Pinning deshalb. DANE, ein neuer RFC-Standard, löst dieses und andere Probleme. Es spezifiziert ein Framework, über das sich TLS-Policys, sicherheitsrelevante Daten wie etwa Public Keys von PGP oder S/MIME-Zertifikate über einen vertrauenswürdigen Kanal verteilen lassen. |
|
Über den Referenten:
Patrick Koetter ist einer der Ziehväter von DANE. Als Lektor hat er gemeinsam mit Viktor Dukhovni und Wes Hardaker am "SMTP DANE RFC" gearbeitet. Mit seiner Firma sys4 hat er den "DANE Validator" entwickelt, um Administratoren ein Werkzeug zur Qualitätssicherung bei der Implementierung von DANE an die Hand zu geben. Zusammen dem DENIC, dem BSI und dem Heise Verlag hat Patrick Koetter im Sommer 2015 den DNSSEC-Day veranstaltet. Sein Engagement ist einer der Gründe dafür, dass Deutschland heute weltweit bei der Adaption von DANE führt. |
|
NFS oder die Unmöglichkeit zusammenzuarbeiten von Daniel Kobras |
Donnerstag, 25.2.2016 14:30-15:15 |
(Eine Tragödie in 16 Gruppen und vier Versionen unter Mitwirkung falscher Rechte, unerwünschter Masken, armer und reicher ACLs.) Will eine Nutzergruppe ihre Daten zentral speichern und den Zugriff nach Projektteams getrennt verwalten, klingt das nach einer alltäglichen Aufgabe für einen beliebigen Fileserver. Doch wer versucht, die Anforderungen umzusetzen, stößt bald auf eine überraschende Vielzahl an Einschränkungen und Fallstricken. Der Vortrag vergleicht verschiedene Herangehensweisen in Unix-Umgebungen auf Basis des NFS-Protokolls zum Dateiaustausch, beleuchtet kurz diverse Problemstellen in älteren Protokollversionen und zeigt auf, weshalb die Probleme auch mit aktuellen Versionen nicht geringer werden. Spezielles Augenmerk liegt dabei auf der Praxistauglichkeit von NFSv4 ACLs sowie deren Umsetzung in verschiedenen Implementierungen. |
|
Über den Referenten:
Daniel Kobras ist als Senior Solution Architect bei der Tübinger science+computing ag beschäftigt. Zu seinen Schwerpunkten zählen unter anderem die Themen Benutzerverwaltung, sichere Dateidienste und High-Performance Computing. |
|
Æ-DIR – paranoide Benutzerverwaltung für Linux-/Unix-Server mit OpenLDAP von Michael Ströder und Axel Hoffmann |
Donnerstag, 25.2.2016 15:45-16:30 |
Der Vortrag stellt die Architektur und das Vorgehen für eine paranoide Benutzerverwaltung für Linux mit OpenLDAP vor, die in einem Unternehmen für mehr als 9000 Server eingesetzt wird. Besondere Vorkehrungen wurden getroffen, um die Sichtbarkeit von Benutzern, Gruppen und weiteren Ressourcen so weit wie möglich einzuschränken. Der Vortrag beleuchtet auch im anlaufenden Betrieb gemachte Erfahrungen und die Erweiterung mit 2-Faktor-Authentifizierung (OATH/HOTP/yubikey). Der Referent hat ihn bereits auf der CLT2015, GPN15 und der LDAPcon 2015 in Edinburgh gehalten. |
|
Über die Referenten:
Michael Ströder arbeitet seit 16 Jahren als freier Berater mit den Schwerpunkten Verzeichnisdienste (LDAP), User-Management (IAM) und angewandte Verschlüsselung. Axel Hoffmann ist Linux System Administrator bei der 1&1 Mail & Media Development & Technology GmbH in Karlsruhe. Seine Kollegen und er betreuen die Systeme der Webmailer für die Marken GMX, web.de, Mail.com und 1&1. Zuvor studierte er an der Fachhochschule Frankfurt den Master-Studiengang "High Integrity Systems". |
|
Ceph – Aufbau und Anwendung eine objektbasierten Speichersystems von Christian Schubert |
Donnerstag, 25.2.2016 15:45-16:30 |
Der Vortrag benennt Beweggründe für eine objektbasiertes Speichersystem und erklärt, warum RAID nicht immer Spaß macht. Er erläutert Elemente und Funktionsweise des Software-Defined-Storage (SDS) Systems Ceph und stellt zwei Realisierungsbeispiele und Anwendungen vor: Im OSZimt erstrahlt gebrauchte Hardware im neuen Glanz. Beim Einsatz in einem Krankenhaus hat Ceph die Projektkosten um mehr als 30% reduziert. In seinem Praxisbericht begleiten Ups and Downs, Stolpersteine, Hardware-Einsatz und Ausfallsicherheit das Thema. Anwendungsbeispiele des Storage-Systems ergänzen den Vortrag. Ceph ist ein quelloffenes, skalierbares, selbstheilendes und softwarebasierendes Speichersystem. Es bietet die Möglichkeit, Daten als Objekt-, Block- und Dateisystem in einer einzigen Plattform zu speichern. Petabyte (1000 Terabyte) große Datenmengen können mehrfach redundant, flexibel verwaltet und unkompliziert genutzt werden. Der Erfahrungsbericht soll zeigen, dass das alles nicht nur wohlklingende Eigenschaften sind, sondern in der Praxis funktioniert. |
|
Über den Referenten:
Christian Schubert ist Lehrer am Oberstufenzentrum Informations- und Medizintechnik in Berlin (OSZ IMT). Er ist mit der Fachleitung CAD beauftragt, unterrichtet das Fach IT-Systeme in den Abschlussjahrgängen der IT-Assistenten und bereitet die Linux-Enthusiasten der Fachinformatiker auf die LPIC-Zertifizierung vor. Darüber hinaus betreut er die externe Serverlandschaft des OSZ IMT. |
|
Schwachstellen gescannt, 6.000 Stück gefunden. Was nun? von Alexander Koderman |
Donnerstag, 25.2.2016 16:30-17:15 |
Nachdem selbst der Senior VP von Norton Antivirus den Virenscanner für tot erklärt hat, übernimmt nach und nach der Schwachstellen-Scan die Rolle der Last Line of Defense im internen Netzwerk. Anders als bei Schadsoftware -- die man entfernt -- gestaltet sich hier aber der Umgang mit dem Scan-Ergebnis als die eigentliche Herausforderung. Wo wurden Schwachstellen gefunden? Wer ist für welche Software auf welchen Systemen zuständig? Kann der Patch installiert werden? Und was, wenn es keinen Patch gibt, oder eine Abhängigkeit zu einer alten fehlerbehafteten Software existiert? Der Vortrag zeigt die Vorgaben aus Standards wie BSI IT-Grundschutz sowie ISO 27001 zum Umgang mit dem Thema und liefert praktische Lösungen bis hin zur Tool-Unterstützung: Er kombiniert die beiden Open-Source-Tools OpenVAS und Verinice, die einen gemeinsamen Workflow zum Entdecken und Beheben der Schwachstellen bis hin zur automatischen Bestätigung des erfolgreichen Patches bieten. |
|
Über den Referenten:
Alexander Koderman (PMP, CISA, BSI-zert. Auditor, ISO 27001 Lead Auditor) leitet die Abteilung "Certifications & Audits" bei der Göttinger SerNet GmbH und ist Product Owner von Verinice, dem Open-Source-Tool für Informationssicherheitsmanagement. |
|
Von der Bourne- zur POSIX-Shell und weiter von Jörg Schilling |
Donnerstag, 25.2.2016 16:30-17:15 |
Der Vortrag beschreibt die Geschichte der Bourne-Shell und seiner Abkömmlinge sowie Nachbauten, die Unterschiede zwischen den einzelnen Implementierungen und den aktuellen und geplanten Entwicklungen des POSIX-Standards. Er beginnt mit einem Abriss der Shell-Entwicklung von der Thompson-Shell bis zur Bourne-Shell, die Funktionen besaß. Die Geschichte der Korn-Shell und die Erweiterungen der Bourne-Shell im Rahmen der SVR4-Entwicklung markieren Grundlagen, die Neuentwicklungen wie Bash, die Almquist-Shell sowie abgeleitete Versionen wie dash und dtksh motivieren. Der Vortrag erklärt, wie sich die Shells unterscheiden und was zu beachten ist, wenn man portable Skripte schreiben will. Er diskutiert, welche Eigenschaften der Korn-Shell, die zum Vorbild des aktuellen POSIX-Standards wurde, dort ganz bewusst Einzug fanden. Aktuelle Entwicklungen in den diversen Shells sind Erweiterungen der eingebauten Kommandos und eine damit verbundene Problematik des Namensraums. Hier wurden kürzlich Änderungen in der POSIX-Definition vorgenommen, die in Kürze als SUSV7 tc2 erscheinen. Ab Frühjahr 2016 sollen weitere Erweiterungen für SUSv8 in den POSIX-Standard Einzug finden, die größtenteils der Entwicklung der ksh93 entstammen. Auch auf diese Erweiterungen, etwa der geplanten Beseitigung der Sonderstellung eingebauter Kommandos, wird der Vortrag eingehen. |
|
Über den Referenten:
Jörg Schilling hatte seinen ersten bezahlten Unix-Job 1982 mit UNOS, dem ersten Unix-Klon, der echtzeitfähig war. Er schrieb den ersten LRU-History-Editor 1982 und eine Shell mit integrierten History-Editor 1984. Im Februar 1985 arbeitete er an der ersten nach Europa geholten Sun. 1986 schrieb er den ersten generischen SCSI-Treiber und 1988 einen Treiber, der ein Block-Device in einer Datei emuliert. Zwischen 1988 und 1991 entwickelte er das erste Copy-on-Write Dateisystem. 1995 schrieb er cdrecord. |
|
Sind wir mit dem IT-Sicherheitsgesetz auf dem richtigen Weg? von Wilhelm Dolle |
Donnerstag, 25.2.2016 17:15-17:45 |
Am 25. Juli 2015 ist das IT-Sicherheitsgesetz in Kraft getreten. Es soll den Schutz der Bürgerinnen und Bürger sowie die Sicherheit von Unternehmen im Internet verbessern. Erklärtes Ziel ist, die digitalen Infrastrukturen Deutschlands zu den sichersten weltweit zu machen. Dennoch bleiben viele Fragen offen, nicht nur bei den Betreibern von kritischen Infrastrukturen selber sondern auch bei Dienstleistern, Hart- und Softwareanbietern und Sicherheitsexperten. Der Vortragende hat in den letzten Jahren verschiedenen Studien zum Thema "Sicherheit in kritischen Infrastrukturen" in diversen betroffenen Branchen und zum IT-Sicherheitsgesetz durchgeführt. Auf dieser Basis und aus vielen Projekten in diesem Umfeld soll die Frage beantwortet werden, ob und in welcher Weise das neue IT-Sicherheitsgesetz geeignet ist, das Sicherheitsniveau in Deutschland effektiv zu verbessern. Wie lassen sich die Anforderungen sinnvoll technisch und organisatorisch umsetzen? |
|
Über den Referenten:
Wilhelm Dolle verantwortet als Partner der KPMG den Bereich Security Consulting. Er verfügt über mehr als 20 Jahre Berufserfahrung und ist Experte sowohl für technische als auch organisatorische Aspekte der Informationssicherheit. Dazu gehören etwa Risiko- und Sicherheitsanalysen, der Aufbau von Informationssicherheitsmanagementsystemen bis zur Zertifizierungsreife, aber auch Themen wie Penetrationstests und digitale Forensik. Wilhelm Dolle beschäftigt ebenfalls intensiv mit regulatorischen Anforderungen an die Informationssicherheit und das IT-Risikomanagement. Er hat einige Studien zum IT-Sicherheitsgesetz und zur Sicherheit in kritischen Infrastrukturen verfasst, ist Autor zahlreicher Artikel in Fachzeitschriften und hat Lehraufträge an verschiedenen Hochschulen inne. |
|
Gnuplot – Malen mit Zahlen von Harald König |
Donnerstag, 25.2.2016 17:15-18:15 |
Gnuplot ist in der Unix-Werkzeugkiste des Referenten seit langem nicht mehr wegzudenken. Das Werkzeug kann viel mehr, als nur mathematische Funktionen schön zu darzustellen. Wann immer man ein paar Zahlen antrifft, die irgendwie in zusammengehören (ob Spritpreise, das Wetter oder sogar die Lottozahlen) -- eine Grafik verdeutlicht Zusammenhänge und Entwicklungen. Und das lässt sich einfach mit nur wenigen, intuitiven Befehlen bewerkstelligen. Im Vortrag wird anhand von Beispielen erklärt, wie man Zahlen in informative und skalierbare Grafiken verwandelt, wie man mit Gnuplot Daten auswertet und Kurven-Fits an Ausgleichsfunktionen in Sekundenschnelle erstellt. |
|
Über den Referenten:
Harald König hat Physik in Tübingen studiert, arbeitet seit 1985 mit VMS und TeX, seit etwa 1987 mit Unix und mit Linux seit Ende 1992 (Kernel 0.98.4). Er hat den Support für XFree86 S3-Treiber von 1993 bis 2001 geleistet. Von 2001 bis 2014 war er bei science+computing ag in Tübingen mit der Software-Entwicklung und beim Consulting im Linux-Umfeld von technisch-wissenschaftlichen Embedded-Portierungen beschäftigt. Seine Spezialität sind das Lösen von technischen Problemen, X11- und Kernel-Debugging, Anpassungen aller Art -- am liebsten mit vielen kleinen Shell-Helferlein. Seit 2014 arbeitet er bei der Bosch Sensortec GmbH in Kusterdingen/Reutlingen als "System Experte" an Linux- und Android-Treibern. |
|
Automatic Server Hardening von Patrick Meier |
Donnerstag, 25.2.2016 17:45-18:15 |
Im Internet bereitgestellte Dienste sollten durch eine besonders gehärtete Serverkonfiguration abgesichert werden. Bei einer größeren Zahl von Servern, insbesondere in der Cloud, bietet es sich an, die Härtung mit Hilfe des Konfigurationsmanagements durchzuführen. Dazu wird jeder betriebene Server separat und individuell gegen äußere Angriffe abgesichert: Das Open-Source-Projekt "Automatic Server Hardening", führt eine Basissicherung von Servern durch. Die Härtung integriert sich dabei in Tools wie Ansible, Puppet oder Chef. Sie werden als Chef-Cookbooks und Puppet-Module bereitgestellt und sind für Red Hat, Ubuntu, Oracle Linux und Debian getestet. Neben Kosten- und Zeitersparnis profitieren davon unter anderem Testumgebungen, die bislang kein Budget für eine ausreichende Härtung hatten. Sie erhalten per günstiger Härtungsbereitstellung Sicherheit nach Konzernstandard. Konzerne wie die Deutsche Telekom, gewinnen außerdem einen umfassenden Überblick über die Serverkonfigurationen, da Server nach einem einheitlichen Standard gehärtet werden. Dies erleichtert das Compliance-Checks. Projekte erhalten so eine höhere Qualität und einen Sicherheitsstandard, der den Prüfprozess der Konzernsicherheit verbessert und beschleunigt. Automatic Server Hardening steht unter einer Open-Source-Lizenz zur Verfügung. |
|
Über den Referenten:
Dominik Richter ist ein führender Experte sowohl für Sicherheit als auch Automation. Er ist der Erfinder des Hardening Framework und ein wesentlicher Treiber für dieses Projekt und Gründer von Vulcanosec. Übrigens spricht er Chef nativ. Christoph Hartmann ist einer der erfahrensten Full-Stack-Entwickler. Er spricht unzählige Sprachen, kennt jeden Core Service und ist ein Meister der Automatisierung. Er ist Mitbegründer des Projektes und verantwortet dessen komplette CI-Infrastruktur basierend auf OpenStack und Jenkins. Patrick Meier kennt die Sicherheit in- und auswendig. Er besitzt sehr gute Kenntnisse sowohl für den Schutz und das Hacken von Systemen, die er zwischen die Finger bekommt. Er ist für die Sicherheit vieler unternehmenskritischer IT-Systeme der Deutschen Telekom zuständig und kennt unzählige kritische Sicherheitslücken. Er ist Mitbegründer des Projekts und bestätigt alle unsere Tests und stellt die Umsetzung der höchsten Sicherheitsstandards im Projekt sicher. |
|
Ansible – Konfigurationsmanagement nur einen SSH-Key weit entfernt von Christoph Berkemeier |
Freitag, 26.2.2016 9:15-10:00 |
Von den Anfängen "Wer-hat-das-installiert?" über selbst geschriebene Shellskripte bis hin zu Software wie Ansible hat sich im Thema Konfigurationsmanagement viel getan. Für den Referenten steht fest: Konfigurationsmanagement eines von den Werkzeugen, die man nicht erst benutzen sollte, wenn man sie wirklich nötig hat. Ansible setzt sich von anderer Konfigurationsmanagment-Software ab, indem es nicht auf einen Masterserver angewiesen ist. Ansible benutzt SSH anstatt ein eigenen Protokolls. Bootstrap-Probleme hat der Anwender nur, wenn Python 2.X auf seiner frisch installierten Machine fehlt. Wie auch andere Projekte setzt Ansible auf YAML für die Konfigurationsrezepte. Der Vortrag zeigt, was Ansible alles kann und wie man damit grundsätzlich etwas tut. |
|
Über den Referenten:
Christoph Berkemeier administriert und konfiguriert schon seit Jahren alles, was ihm in die Finger kommt. Dabei betätigt er sich auch immer wieder als Systemarchäologe und entdeckt Konfigurationen, vermutlich kultischem Ursprungs, deren genau Bedeutung unbekannt ist. Er hofft, dass dies in Zukunft dank Konfigurationsmanagement seltener werden wird. |
|
Mit Silicon Secured Memory Heartbleed und Co. vorbeugen von Franz Haberhauer |
Freitag, 26.2.2016 9:15-10:00 |
Oracle beschreitet mit Software in Silicon neue Wege, indem auf Prozessoren Funktionalitäten jenseits der traditionellen Instruktionssätze implementiert werden. Sun war bereits Vorreiter bei den Crypto-Acceleratoren auf CPUs, die heute einen durchgängige Verschlüsselung praktisch ohne Performance-Verluste in Anwendungen erlauben. Mit dem SPARC M7 Prozessor wurde nun Silicon Secured Memory eingeführt -- ursprünglich als Application Data Integrity (ADI) bezeichnet. Dabei werden Speicherbereiche mit Metainformationen versehen, gegen die beim Zugriff entsprechende Informationen in den Adressen validiert werden -- und zwar ohne Performance-Verlust. Damit eröffnen sich neue Möglichkeiten für die Software-Qualitätssicherung und insbesondere -Sicherheit. Es gibt Entwicklungswerkzeuge, die ähnliche Technologien in Software implementieren, allerdings verhindert der damit verbundene Overhead den Einsatz auch in der Produktion -- und damit die Nutzung zur Abwehr von Angriffen. Durch die Hardware-Implementierung ist dies jetzt möglich. Technisch ist Silicon Secured Memory durch zusätzliche Bits in Adressen realisiert, die man als Codierung für Farben interpretieren kann. Zugriffe auf Speicherbereich in einer Farbe sind nur mit Adressen zulässig, die dieselbe Farbe tragen. Andere Zugriffe triggern einen Trap. Der Vortrag stellt vor, wie damit ein breites Spektrum von sicherheitsrelevanten Programmierfehlern insbesondere Pufferüberläufe abgefangen werden kann. Ein solcher Fehler lag dem zu trauriger Berühmtheit gelangten Heartbleed-Bug in OpenSSL zugrunde. Darüber hinaus ist die Diagnose mancher sich bislang hartnäckig einer Analyse entziehender Programmabstürze möglich, die zum Beispiel auf Programmierfehler zurückgehen, wo durch Schreiben an falsche Adressen etwa programminterne Datenstrukturen korrumpiert werden. Solaris liefert dynamische Bibliotheken mit entsprechend instrumentierten Funktionen "malloc()" und "free()". Damit kann Silicon Secured Memory ohne Neukompilieren von Anwendungen direkt genutzt werden. Es können aber auch eigene Memory Allocator entsprechend instrumentiert werden. |
|
Über den Referenten:
Franz Haberhauer ist bei Oracle als Chief Technologist für den Geschäftsbereich Systems tätig. Er kam über die Aquisition von Sun zu Oracle. Seit über 20 Jahren unterstützte er Kunden bei der Einführung neuer Technologien insbesondere in und rund um Solaris. |
|
Puppet 4 – Was ist neu, was wird anders, was geht nicht mehr? von Martin Alfke |
Freitag, 26.2.2016 10:00-10:45 |
Puppet 4 wurde im April 2015 veröffentlicht und hat mittlerweile zwei Aktualisierungen bekommen. Viele Administratoren, DevOps, Engineers oder PuppetMaster haben aber noch nicht auf Puppet 4 aktualisiert. Zu groß scheinen die Bedenken zu sein, was alles nach einem Update nicht mehr funktioniert. Dieser Vortrag richtet sich an alle IT-Zuständigen, die eine Puppet-Infrastruktur betreuen und stellt die neuen Funktionen von Puppet 4 vor. Ausserdem wird im Detail auf alle nicht mehr möglichen, alten Best Practices eingegangen und es wird dargelegt, wie Anwender den bestehenden Puppet-Code anpassen. Zum Abschluss werden mehrere Upgrade- und Migrationsverfahren für eine Aktualisierung dargestellt. |
|
Über den Referenten:
Martin Alfke ist Geschäftsführer und Mitgründer der example42 GmbH. Martin nutzt Puppet seit 2007, ist seit 2011 autorisierter PuppetLabs Trainings Partner und seit 2015 Puppet Certified Consultant. Neben der Arbeit am example42 OpenSource Projekt unterstützt Martin Kunden bei der Planung, dem Einsatz und der Migration in Hinsicht auf Konfigurationsmanagement und Automatisierung. |
|
OpenSolaris: Totgesagte leben länger von Volker A. Brandt |
Freitag, 26.2.2016 10:00-10:45 |
... und SPARC zuckt auch noch! Noch immer gibt es mehrere quicklebendige Nachfolger des seligen OpenSolaris, sogar auf der schon abgeschriebenen SPARC-Plattform tut sich wieder einiges. Diverse solarisoide Distributionen tummeln sich abseits des Linux-Mainstreams, vom Gnome-basierten Desktop bis zum hoch skalierbaren Virtualisierungsträger zur Cloud-Provisionierung steht einiges zur Auswahl, alles basierend auf einer gemeinsamen Code-Basis: Illumos. Die BSD-Unixe und Illumos pflegen einen regen Austausch: Treiber wandern vom BSD ins Illumos, ZFS-Innovationen von dort ins BSD-Unix. Und die modernen Hype-Themen wie DevOps oder Docker kann man auch auf Illumos-basierten Plattformen implementieren! Diese Präsentation pickt die Rosinen heraus und stellt einige Highlights vor, wie beispielsweise die "LX branded zones", also auf SmartOS gehostete Linux-Container. Und sie soll ein bisschen motivieren, sich den Betriebssystem-Opa Solaris und seine frei verfügbaren Abkömmlinge ein wenig näher anzuschauen. |
|
Über den Referenten:
Volker A. Brandt ist zusammen mit seinem Bruder Inhaber einer kleinen Firma, die sich auf heterogene RZ-Infrastruktur mit Schwerpunkt Solaris spezialisiert. Er beschäftigt sich mit Systeminstallationen, Data Center Automation, Paketierung und systemnaher Programmierung sowie neuerdings auch viel mit Migrationen nach Solaris 11. Er hat bereits einige Vorträge und Workshops über Solaris 10 und 11, AI, IPS und verwandte Themen gehalten und redet gerne, viel und oft über Solaris. |
|
Ein Einstieg in CFEngine von Bernhard Glomm |
Freitag, 26.2.2016 11:15-12:00 |
Die Nutzung und die Vorteile des Konfigurationsmanagements sind unter Systemadministratoren heutzutage weitgehend unstrittig. Die Auswahl an kostenlosen Open-Source-Tools für diesen Zweck ist erfreulich groß -- von cluster-ssh über Ansible, Chef und Puppet bis CFEngine gibt es eine große Auswahl von Programmen und Frameworks mit unterschiedlichen Voraussetzungen und Leistungen. Die Entscheidung für eine der möglichen Optionen hängt ebenso von den Anforderungen und Bedingungen der Systemumgebung wie den Vorlieben und Erfahrungen der System Engineers ab. Anhand des Reviews von funktionstüchtigem Code für das Deployment von ufw (Firewall), ossec (HIDS) und des ELK-Stacks (aggregierte Visualisierung von ufw-Logs und ossec-Meldungen) stellt dieser Vortrag die zentralen Konzepte von CFEngine vor und macht mit der Syntax vertraut. Er stellt "promise theory" und "desired stage configuration" prozeduralen Ansätzen gegenüber. Desweiteren werden "decision making" und "implicit looping" sowie "promise types" und "normal order" thematisiert. |
|
Über den Referenten:
Bernhard Glomm ist als Systemadministrator beim Ecologic Institut in Berlin angestellt. Er arbeitet seit über zehn Jahren als System Engineer und Administrator im Umfeld von Linux. |
|
Quo vadis Linux? Wie Clouddistributionen die IT verändern von Udo Seidel |
Freitag, 26.2.2016 11:15-12:00 |
Der Einzug von OpenStack in mittlere und große IT-Landschaften hat eine Art Domino-Effekt ausgelöst. Die traditionellen Ansätze zur Sichtweise auf und dem Verwalten von Linux ändern sich ebenfalls. Eine neue Klasse von so genannten Cloud-Betriebssystemen etabliert sich in diesem Umfeld. Die unterscheiden sich vor allem darin, wie stark sie mit den bekannten Ansätzen brechen. CoreOS ist dabei eher dem konservativen Lager zuzurechnen. Deutlich weiter gehen beispielsweise MirageOS oder gar OSv. Dieser Vortrag stellt die grundlegenden Idee und Ansätze hinter den drei Kandidaten vor. Er zeigt, wie sich Linux und auch die zugehörigen Administratoren verändern, damit sie in der neuen Welt bestehen. |
|
Über den Referenten:
Dr. Udo Seidel ist eigentlich Mathe-Physik-Lehrer und seit 1996 Linux-Fan. Nach seiner Promotion hat er als Linux/Unix-Trainer, Systemadministrator und Senior Solution Engineer gearbeitet. Heute ist er als Chef-Architekt Mitglied des CTO-Teams bei der Amadeus Data Processing GmbH in Erding. |
|
Icinga2 in the middle of your toolstack von Bernd Erk |
Freitag, 26.2.2016 12:00-12:45 |
Lange Zeit lag Monitoring am Ende der Lieferkette gelegt, um die Verfügbarkeit gemeinsamer Umgebungen zu gewährleisten. Aber moderne Infrastrukturen, vor allem hochdynamische Microservices, sollten aus der Mitte des Toolstacks überwacht werden. Monitoring kümmert sich nicht länger ausschließlich darum, die Verfügbarkeit zu überwachen: Auch das Erheben von Messdaten, das Führen von Protokollen, das Sammeln von BI-Daten und nicht zuletzt die Integration mit gängigen Tools gehört dazu. Mit Icinga2 ändert sich die Art und Weise, wie die Verfügbarkeitsüberwachung arbeitet und skaliert. Aber das ist nicht alles: Eine voll funktionsfähige API macht das Überwachen viel flexibler und erlaubt auch den Einsatz in dynamischen Umgebungen. Hinzu kommt, dass ein besonderes Augenmerk auf der Integration mit Konfigurations- und Logmanagement liegt. Die Präsentation stellt die Icinga2-API vor und zeigt anhand einiger Beispiele, wie sich Monitoring bereits früh im Projektzyklus einsetzen lässt. Sie erklärt ferner, wie es Anwendern gelingt, Metriken und Loginformationen an zentraler Stelle vereinheitlichen, aber dennoch weiter auf die Flexibilität und Leistungsfähigkeit einzelner Werkzeuge setzen. |
|
Über den Referenten:
Bernd Erk ist Mitbegründer und Community-Lead von Icinga. In seinem Job ist er CEO von NETWAYS, einem Unternehmen für Open-Source-Services. Er versucht, sich um die wichtigsten Dinge zu kümmern, vor allem um Menschen. Bernd veröffentlicht regelmäßig Beiträge und präsentiert Themen, die mit Monitoring, Communitybuilding und Kultur zu tun haben. Er ist ebenfalls Core-Organizer der DevOpsDays und verbreitet die frohe Kunde, wo und wann immer er kann. In seiner Freizeit kämpft er mit seinem Sohn um die Benutzung ihres iPads. |
|
Bits and Bytes im Flow – Netzwerk im Wandel der Zeit von Michel Rode |
Freitag, 26.2.2016 12:00-12:45 |
Mehr und mehr Firmen bringen SDN-fähige Switche heraus, die das Leben als Netzwerker erleichtern sollen. Nur warum? Was ist SDN, und warum sollen es nun alle einsetzen? Der Vortrag zeigt, wie sich die Wege und Möglichkeiten des Netzwerks im Laufe der OpenStack-Releases geändert haben. Dabei wird von Juno über Kilo bis Liberty auf Neuerungen und Features eingegangen. Der Fokus im Vortrag liegt dabei auf dem Netzwerk. Es wird demonstriert, wie Instanzen innerhalb von OpenStack über unterschiedliche Techniken mit der Außenwelt kommunizieren und wie sie erreicht werden können. Neben einer Betrachtung der Software-Router von Neutron und deren möglicher Hochverfügbarkeit (VRRP, DVR), geht der Vortrag auch auf die Flows innerhalb von OpenStack ein und stellt vor, wie diese ein SDN-Controller verwaltet. Ziel ist es, eine Übersicht zu geben, wie der Paketfluss innerhalb von OpenStack läuft, welche Kontrollinstanzen es dort gibt und wie Traffic oder Flows beeinflusst werden können. |
|
Über den Referenten:
Michel Rode beschäftigt sich seit über zehn Jahren mit IT und Netzwerktechnik. Seine Interessenschwerpunkte verschoben sich in den letzten Jahren immer mehr in Richtung Cluster, Hochverfügbarkeit und Virtualisierung. Seit 2008 ist er bei der B1 Systems GmbH als Consultant und Trainer beschäftigt. |
|
Apple OSX und iOS management von Marko Jung |
Freitag, 26.2.2016 14:00-14:30 |
Im Juli 2015 haben Apple und IBM eine Allianz angekündigt, um den Bereich der Enterprise Mobility zu revolutionieren. Durch die Kombination der IBM Professional Services mit den Produkten von Apple steht Unternehmen nun ein global verfügbares Serviceportfolio zur Unterstützung von "mobile first" Strategien zur Verfügung. Immer mehr Mitarbeiter fordern von ihren IT-Abteilungen, MacBooks, iPads und iPhones auch im beruflichen Kontext einsetzen zu dürfen. Der IT-Betrieb beschafft daraufhin oft diese Geräte, konfiguriert sie initial und übergibt sie mit guter Hoffnung in die Obhut der Anwender. Nachdem Angriffe und Exploits auch bei den populären Apple-Systemen angekommen sind, suchen Systemadministratoren nach belast- und skalierbaren Managementlösungen auch für diese Plattform, die sie beim Deployment, Konfigurations- und Patchmanagement unterstützen. Apple stellt viele Tools und Frameworks zum Management beider Betriebssysteme zur Verfügung. Allerdings skalieren die kaum und sind eher als Referenzimplemntierung anzusehen. Daher hat sich ein umfangreiches, aber auch unübersichtliches Ökosystem entwickelt. Viele kommerzielle Angebote versprechen umfassende Managementlösungen. Pfiffige Entwickler stellen zuverlässige Alternativen als Open Source zur Verfügung, etwa Munki zur Softwareverteilung, Osquery zur Analyse und Monitoring, oder SAL zum Inventory und Reporting. Apple verwendet viele Marketing-Akronyme, um Sachverhalte zu benennen, die dem Unix-Admin unter anderem Namen bekannt sind. So steht Beispielsweise BSDP für Boot Service Discovery Protocol, was in Wirklichkeit nicht mehr als DHCP ist. Der Vortrag übersetzt Apples Marketing-Jargon in gängige Technologien und erklärt, wieso sich betroffene Admins eben keine Mac Minis als Server in ihr Rechenzentrum stellen müssen. Darüber hinaus werden für gängige Deployment-Techniken und Management-Strategien die verfügbaren Tools diskutiert. Hierbei fließen die Erkenntnisse aus über einem Jahrzehnt Apple-Management an der University of Oxford in die Bewertung ein. |
|
Über den Referenten:
Markos erster Computer war eine Sun SparcStation. Er benutzt Unix -- das tollste Textadventure der Welt -- seit 20 Jahren und hat für seine Ninja-fertigkeiten dort einen schwarzen Gürtel erhalten. Er findet, dass ein Betriebssystem ohne Konsole nutzlos sei, reagiert allergisch auf bunte Icons, lässt sich jedoch gerne von glänzenden Gegenständen ködern. Marko studierte Informatik an der Universität des Saarlandes, hat am Max-Planck-Institut für Informatik und bei den SUSE Labs gearbeitet, bevor er an der University of Oxford eine Gruppe von Linux- and Apple-OS-X-Experten führte. Wenn er nicht für seinen MBA an der Mannheim University lernt, findet man ihn meistens beim Wandern oder Tauchen. |
|
Software und Infrastruktur Lifecycle Management auf OpenStack von Christian Berendt |
Freitag, 26.2.2016 14:00-14:30 |
Dieser Vortrag erläutert anhand eines konkreten Beispiels, wie Anwender einen vollständigen Software- und Infrastruktur-Lifecycle auf OpenStack abbilden, pflegen und einsetzen. Neben Heat, dem Orchestrierungs-Layer von OpenStack, geht er dabei auch auf Mistral, einen Workflow-Service und Astara, ein Netzwerk-Orchestrierungs-Service ein. Besonderes Augenmerk liegt dabei auf der Software-Konfigurationen sowie Scaling Groups von Heat und deren Zusammenspiel mit dem neuen Alarming-Service aodh, das bislang Bestandteil von Ceilometer war. Als Alternative zu den zuvor aufgeführten, bereits in OpenStack integrierten Diensten, stellt der Beitrag Terraform von Hashicorp vor. |
|
Über den Referenten:
Christian Berendt ist bei der B1 Systems GmbH als Berater und Entwickler für Linux und mehrere Unix-Derivate beschäftigt. Derzeitig ist er als Solution Architect für den Bereich "Cloud Computing" zuständig, beschäftigt sich aber gerne auch mit Lösungen zum Konfigurations- und Systemmanagement. |
|
Adminteams und Projekte mit Kanban organisieren von Thorsten Kramm |
Freitag, 26.2.2016 14:30-15:00 |
Ein Projekt schließt man nicht nur durch gute Fachkenntnisse erfolgreich ab. Und Systeme laufen nicht nur deshalb stabil, weil sie von guten Fachleuten betreut werden. Die Organisation der Arbeit, des Teams und der Prozesse entscheiden ebenfalls über den Erfolg. Mit Kanban können Teams ein einfaches aber effektives und effizientes Modell auf IT-Abteilungen adaptieren. Der Vortrag gibt einen Überblick darüber, wie man ein Admin-Team und deren Arbeit mit Kanban organisieren kann. Anhand vieler Bespiele aus der Praxis vermittelt er den Fluss der Arbeit, das Visualisieren von Arbeitsschritten, den Umgang mit Blockaden und das Priorisieren ebenso wie das Abweisen von Aufgaben. Die Präsentation stellt Methoden zur kontinuierlichen Verbesserung vor und fasst die Kernaussagen von agilen Methoden zusammen. Neben Scrum ist Kanban das momentan erfolgreichste Modell zur Arbeitsorganisation von IT-Teams. Welche Firma Pionier im Bereich Kanban in der IT war, wird erst während des Vortrags verraten. |
|
Über den Referenten:
Thorsten Kramm beschäftigt sich seit 1999 mit IT-Systemen im Unternehmenseinsatz. In verschiedenen Firmen leitete er die IT-Abteilungen. Er beschäftigt sich nicht nur mit den technischen Details von IT-Systemen. Sein Augenmerk gilt auch den Softskills und der menschlichen Komponente. Ein System funktioniert nur so gut, wie die Menschen, die es betreiben. Thorsten Kramm gibt Trainings zu den Themen Monitoring, IT-Automatisierung und Kanban in der IT. Er lebt und arbeitet in Berlin. |
|
Terraform: Config Management for Cloud Services von Martin Schütte |
Freitag, 26.2.2016 14:30-15:00 |
Hashicorps Terraform bietet Konfigurationsmanagement für Cloud-Dienste. Das Werkzeug benutzt eine deklarative Notation ähnlich wie Puppet, um verschiedene Ressourcen, so zum Beispiel PaaS-Anwendungen, Serverinstanzen, Datenbanken oder DNS-Einträge zu beschreiben. Besondere Stärke ist die Unabhängigkeit von einem Anbieter: Es lassen sich Dienste verschiedener Plattformen nutzen und kombinieren. Falls die bereitgestellten Anbieter nicht ausreichen, lässt sich die Software zudem mittels Plugins erweitern. Dieser Vortrag stellt vor, wie Anwender die Infrastruktur einer Webanwendung mit Terraform beschreiben und wie einfach sie alle zugehörigen Komponenten starten und wieder beenden. Außerdem wird gezeigt, wie auch größere Projekte mit Modulen überschaubar bleiben, und skizziert, wie man mit wenigen Golang-Kenntnissen eigene Plugins schreibt. |
|
Über den Referenten:
Martin Schütte ist Systemadministrator und Entwickler in Hamburg. Seine Themenschwerpunkte sind Automatisierung (Puppet, Jenkins) und Monitoring (Syslog, Graylog2, Zabbix) im DevOps-Umfeld. |
|
Lessons learned: IT-Dokumentation in der Praxis von Anika Kehrer |
Freitag, 26.2.2016 15:00-15:45 |
IT-Dokumentation ist eher ungeliebt: Sie kostet Zeit, und Informationen sinnvoll aufbereiten mag (und kann) auch nicht jeder. Doch spätestens, wenn ein menschlicher Datenträger ausfällt oder ein System kollabiert, ist Chaos angesagt, und wertvolle Zeit geht verloren. Abgesehen von Operations- und Managementaufgaben erscheint Wissen um den eigenen Betrieb höchst sicherheitsrelevant. Das gilt für Verfügbarkeit, Performance und Bedarfsorientierung genauso wie für Daten- und Einbruchschutz: Nur, was man weiß, kann man im Blick haben. Von der Relevanz fürs Service-Management wollen wir gar nicht erst anfangen. Gut gebrüllt, Löwe! In der Praxis ist es leider manchmal schwer, die Dokumentation zu pflegen. Es fehlt zum Beispiel an einer systematischen Ablage, an Einigung darüber, was überhaupt aufzuschreiben ist, an dem Wissen, wie man etwas sinnvoll aufschreibt, und vor allem anderen an Zeit. Dieser Vortrag versucht zu systematisieren, auf welche Schwierigkeiten eine IT-Abteilung stößt, die einen Dokumentationsprozess implementieren möchte. Er präsentiert Lösungsvorschläge, wie sich ihnen beikommen ließe. Soweit die Praxiserfahrung der Referentin bis dato erlauben, gibt es Best und Bad Practices. Dieser Vortrag behandelt hingegen keine Produktdokumentation. Die Bereiche der technischen Dokumentation werden oft miteinander vermengt, weshalb je nach Bedarf des Publikums am Anfang des Vortrags eine kleine Abgrenzung erfolgt. |
|
Über die Referentin:
Anika Kehrer arbeitet seit 2007 als IT-Journalistin in München und Berlin. Ihr Portfolio umfasst Text und Konzeption für Technik-Magazine und Digital-Business-Medien. Seit 2012 ist sie im Auftrag der German Unix User Group Chefredakteurin der GUUG-Vereinszeitschrift UpTimes. Seit 2015 arbeitet die Geistes- und Sozialwissenschaftlerin außerdem als IT-Dokumentatorin in München. Hier ist im Rahmen eines Projekts ihre Aufgabe, die IT-Dokumentation einer kleineren IT-Abteilung zu systematisieren. Vorträge hält die Referentin aus eigenem Antrieb, wenn nicht anders gekennzeichnet. |
|
Die Cloud im Griff mit Consul von Alexander Schwartz |
Freitag, 26.2.2016 15:00-15:45 |
In der Cloud werden Dienste nach Bedarf dynamisch skaliert. Fallen einzelne Knoten aus oder ändern sich Konfigurationseinstellungen, so sollten dies allen Teilnehmer erfahren. Die Software Consul tritt an, die drei Herausforderungen Service Discovery, Monitoring und Konfigurationsmanagement zu lösen -- unabhängig von der darunter liegenden Cloud-Technologie. Consul ist ein junges Open-Source-Projekt. Ebenso wie Packer und Vagrant ist es ein Produkt von HashiCorp. Es bietet eine Lösung für Aufgaben, die ansonsten verschiedene Werkzeuge übernehmen würden. Der Vortrag zeigt die Vorteile, die sich aus der Kombination ergeben. Dieser Vortrag gibt mit praktischen Beispielen einen Überblick über die Funktionen von Consul und die APIs, die es zur Verfügung stellt. Die Arbeitsweise demonstriert durchgängiges Beispiel einer Anwendung mit Load Balancer und Application Server. |
|
Über den Referenten:
Alexander Schwartz arbeitet als Principal IT Consultant bei der msg systems ag. In den vergangenen Jahren hat er Softwareprojekte in verschiedenen Rollen als Entwickler, ScrumMaster, Architekt und Projektmanager begleitet. Im Laufe der Zeit arbeitete er mit mehreren Web-Technologien. Er schätzt produktive Arbeitsumgebungen, agile Projekte und automatisierte Tests. |
|
Sicherer Betrieb von OpenStack von Kurt Garloff |
Freitag, 26.2.2016 16:00-16:45 |
Viele Unternehmen nutzen OpenStack als Cloudplattform. Die Software kommt in vielen Fällen aber als interne Plattform (Private Cloud) zum Einsatz. Häufig werden zunächst interne Test- und Entwicklungsplattformen auf der Plattform bereitgestellt, um dann später zunehmend interne Dienste auf der internen Cloud zu betreiben. Der nächste Evolutionsschritt für OpenStack ist der zunehmende Einsatz als Public Cloud. Die Plattform und die Betriebsprozesse müssen dazu für die feindliche Umgebung Internet fit gemacht werden. Dabei gilt es, ebenso Angriffe aus dem Internet abzuwehren wie auch auch Fehler und Angriffe von den virtuellen Maschinen der Nutzer. In keinem Fall darf die Isolation zur Infrastruktur oder zwischen den Nutzern durchbrochen werden; auch die Verfügbarkeit und Leistung der Plattform soll nicht in Mitleidenschaft gezogen werden. Um diese Ziele zu erreichen sind einerseits Maßnahmen am Design der Plattform notwendig: So trennt der sicherheitsbewusste Admin Funktionen und Netze und prüft Kommunikationswege genau. Weiterhin berücksichtigt er auch betriebliche Aspekte. Er stellt sicher, dass kritische Sicherheitspatches zeitnah getestet und breit ausgerollt werden, ohne dabei die Verfügbarkeit der Plattform für den Kunden zu unterbrechen. Die T-Systems nimmt die Herausforderung einer sicheren OpenStack basierten Public Cloud an und geht bald mit der Open Telekom Cloud an den Start. Die Sprecher stellen einige der Maßnahmen vor, die für den Betrieb dieser Cloud bereits vorgenommen wurden oder in naher Zukunft umgesetzt werden. |
|
Über den Referenten:
Kurt Garloff hat neben dem Physikstudium am Linux Kernel an SCSI gearbeitet und später bei der SUSE die SUSE Labs aufgebaut, wo er die Entwicklung von Kernel, Compiler und X11 leitete. Er hatte später einige technische und geschäftliche Führungsrollen bei der SUSE, bevor er 2011 ausschied. Seit 2011 beschäftigt er sich hauptsächlich mit der Entwicklung und Aufbau von OpenStack basierten Clouds, zunächst bei der Telekom (Business Marketplace und MedienCenter), bei Huawei und zuletzt bei T-Systems (Open Telekom Cloud). |
|
Lognormalisierung in Echtzeit von Rainer Gerhards |
Freitag, 26.2.2016 16:00-16:45 |
Logdaten liegen in einer verwirrenden Vielfalt von Formaten vor. Das gleiche Ereignis wie beispielsweise ein Loginvorgang stellen verschiedene Tools sehr unterschiedlich dar. Schlimmer noch: Manchmal haben ähnlich ausschauende Formate große Bedeutungsunterschiede. Eine große Herausforderung in der Loganalyse ist daher das Überführen in ein einheitliches Format, die so genannte "Normalisierung". Erst diese ermöglicht es, Daten sinnvoll in nachgelagerten Skripten und Systemen zu verarbeiten. Ein üblicher Ansatz ist die Normalisierung mittels regulärer Ausdrücke. Oft kommt Grok zum Einsatz, das zwar einfach ist, aber erhebliche Durchsatzprobleme hat und es so für Echtzeit-Normalisierung ungeeignet macht. Rainer Gerhards hat mit Liblognorm 2011 ein System vorgestellt und in Rsyslog integriert, das den Echtzeitanforderungen auch größerer Datenmengen genügt. Allerdings war die Konfiguration recht schwierig, so dass die Bibliothek zunächst wenig Verbreitung fand. 2015 hat Rainer Gerhards die Software im Rahmen seiner MSc-Thesis komplett neu entwickelt. Dabei hat er den Durchsatz weiter gesteigert und insbesondere die Konfiguration wesentlich vereinfacht. Sie ist nun stark an Grok angelehnt. Der Vortrag klassifiziert Typen von Log-Daten und erläutert den übliche Normalisierungsansatz. Dann beschreibt er die Grundlagen von Liblognorm und erklärt Echtzeitfähigkeit. Der Vortrag betrachtet dann die Konfiguration und stellt vor, wie sich das Subsystem innerhalb von Rsyslog, aber auch als eigenständiges Werkzeug einsetzen lässt. Als Bonus für Entwickler wird bei Interesse erläutert, wie Liblognorm in eigene Projekte eingebunden wird. |
|
Über den Referenten:
Rainer Gerhards ist Gründer der Adiscon GmbH, einem IT-Beratungs- und Softwarehaus in der Nähe von Würzburg. Er initiierte 2004 das Rsyslog-Projekt und ist dessen Hauptautor. Er entwickelt seit 1981 systemnahe Software auf vielen Platformen, unter anderem Mainframes, Windows und Linux. Darüber hinaus bietet er Consulting im Bereich der System-Infrastruktur an. Als Mitglied der Syslog-Arbeitsgruppe der IETF gilt Rainer Gerhards als Logging-Experte und hat wesentliche Lösungen zum Reengineering des Syslog-Protokolls beigetragen. Er ist Autor vom Basis-RFC5424 sowie einer Reihe weiterer RFCs in diesem Umfeld. Von 2010 bis 2013 war er Mitglied im Mitre CEE Board und hat dort im Rahmen des Project Lumberjack Akzente für die Standardisierung von IT-Events gesetzt. Rainer Gerhards hat den ersten Syslog-Server unter Windows entwickelt und die Produktkategorie der "EventLog to syslog Forwarder" erfunden, die heute ein Baustein fast jeder Security-Infrastruktur ist. Die Adiscon GmbH vertreibt und perfektioniert bis heute das ursprüngliche Tool "EventReporter", dessen Technologie auch in den rsyslog Windows Agent Einzug gefunden hat. |
|
Cloud und Sicherheit 1960 bis 1990 – Alles schon mal da gewesen, inklusive Lösungen von John G. Zabolitzky |
Freitag, 26.2.2016 16:45-17:30 |
Im Laufe der Jahrzehnte kommen in der Informationstechnik ähnliche Themen verpackt in neue Namen immer wieder vor: Der klassische Rechenzentrumsbetrieb in der zweiten Hälfte des vergangenen Jahrhunderts ist das prototypische Muster des heutigen Cloud-Ansatzes. Die Parallelen in Aufgabenstellungen, Problemen und Lösungen sind augenfällig. Das Neuerfinden des Rades ist unnötig, das Erkennen der Gemeinsamkeiten erlaubt es längst erprobte Lösungen zu nutzen, sofern man sich in der Geschichte ein wenig auskennt. IT-Sicherheit ist ebenfalls ein altes Thema, insbesondere wenn man daran denkt, dass militärische Anwendungen in der Anfangszeit ein sehr wichtiger Teilmarkt waren. Die unterschiedlichsten Verfahren und Lösungen wurden über die vergangenen Jahrzehnte in Hardware und Software gefunden, erfolgreich implementiert und genutzt. An Beispielen stellt der Vortrag dies dar. Auch hier sind scheinbare Neuerfindungen oft Wiedergeburten längst erprobter Dinge in anderen Kleidern. Aufmerksame Beobachter nehmen einen Widerstreit zwischen stromlinienförmigen, sicheren, effizienten Verfahren sowie Wünschen nach ausufernder Funktionalität wahr. Der Vortrag ruft auf, dem entgegenzuwirken. Eine Vielzahl von Funktionen mögen eine leicht verbesserte Bequemlichkeit erreichen, aber um welchen Preis? Das Besinnen auf das Essentielle, wirklich Notwendige und Erforderliche im Gegensatz zum überflüssigen Nice-to-Have erscheint gerade in der IT-Sicherheit besonders angebracht. |
|
Über den Referenten:
Prof. Dr. John G. Zabolitzky, Jahrgang 1949, betreibt Impulstechnik seit 1962, promovierte 1972 in theoretischer Physik (Computersimulation) und erhielt 1980 eine Professur der Universität zu Köln 1980. Seit 1985 war er Professor of Physics and Fellow of the Supercomputer Institute University of Minnesota in Minneapolis. Er nutzte industrielle Supercomputer, entwickelte und baute Spezialrechner. Seit 1987 ist Prof. Zabolitzky Geschäftsführer, Gründer und geschäftsführender Gesellschafter diverser Unternehmen im Bereich digitaler Bildverarbeitung im Umfeld industrieller Fertigungs-Messtechnik mit Schwerpunkt digitaler Hochleistungs-Bildverarbeitung. Seit 2009 ist er selbstständiger Berater für diesen Bereich. Er gründete 2002 die Gesellschaft für historische Rechenanlagen und ist ihr Vorstandsvorsitzender. Die Gesellschaft sammelt, rekonstruiert, betreibt, wartet und ergänzt historische Rechner aller Kategorien und Provenienzien um Peripherie-Emulatoren, wenn die benötigt sind. |
|
World of Docker von Erkan Yanar |
Freitag, 26.2.2016 16:45-17:30 |
Docker und auch seine Abstraktion runC können nicht ohne umgebende Infrastruktur sein. Was können Systemverwalter und -architekten tun, wenn die aber fehlt? Der Talk gibt einen kleinen Überblick was Docker und runC sind und warum Projekte wie Docker Swarm, Network, CoreOS, Kubernetes, Mesos und Consul existieren. Deren Unterschiede beschreibt der Vortrag ebenso. |
|
Über den Referenten:
Erkan Yanar ist Freiberufler mit den Schwerpunkten MySQL (Cluster, Galera), Containervirtualisierung (LXC, Docker), Linux, Puppet und Cloud Computing (OpenStack) auf Rechenzentrumsniveau. Er ist zudem Autor in einigen Fachzeitschriften und regelmäßig Vortragender auf vielen Konferenzen. |