LinuxTag 2008 - Virtuelle Cold-Standby Server mit LinuxSchlomo Schapiro
Cold-Standby-Server sind eine anerkannte Methode zur Realisierung hochverfügbarer Umgebungen. Will man damit mehrere Produktiv-Server absichern, steht schnell viel ungenutzte Hardware im Rechenzentrum herum. Mit Virtuellen Maschinen und einem SAN lässt sich dieser Overhead deutlich reduzieren.
Dabei wird ein Linux-Server aus dem SAN gestartet, so daß das System auf einer dedizierten Hardware und in einer Virtuellen Maschine lauffähig ist. Beim Ausfall der Hardware kann die VM das System sofort übernehmen, ohne daß Daten kopiert werden müssen.
Die Vorteile eines SAN kommen hierbei zum tragen und ermöglich erst die Gestaltung dieser Lösung. Am Beispiel SuSE Linux Enterprise Server wird die Technologie und die Implementierung vorgestellt.
Hintergrundinformationen zur Kundenumgebung, in der die Lösung entwickelt wurde, runden den Vortrag ab.
IPv6 Networking-Referat «IPv6 Rollout im Datacenter - Varianten der Integrati...Digicomp Academy AG
Wer neue Server und Services plant, hat die Qual der Wahl: Dualstack, IPv6-only, DNS64/NAT64, XLAT464. Wie soll man sich hier orientieren, was sind die Kriterien und geeignete Strategien? Aarno Aukia, CTO von VSHN, zeigt die Vor- und Nachteile der Varianten anhand eines konkreten Beispiels auf.
LinuxTag 2008 - Virtuelle Cold-Standby Server mit LinuxSchlomo Schapiro
Cold-Standby-Server sind eine anerkannte Methode zur Realisierung hochverfügbarer Umgebungen. Will man damit mehrere Produktiv-Server absichern, steht schnell viel ungenutzte Hardware im Rechenzentrum herum. Mit Virtuellen Maschinen und einem SAN lässt sich dieser Overhead deutlich reduzieren.
Dabei wird ein Linux-Server aus dem SAN gestartet, so daß das System auf einer dedizierten Hardware und in einer Virtuellen Maschine lauffähig ist. Beim Ausfall der Hardware kann die VM das System sofort übernehmen, ohne daß Daten kopiert werden müssen.
Die Vorteile eines SAN kommen hierbei zum tragen und ermöglich erst die Gestaltung dieser Lösung. Am Beispiel SuSE Linux Enterprise Server wird die Technologie und die Implementierung vorgestellt.
Hintergrundinformationen zur Kundenumgebung, in der die Lösung entwickelt wurde, runden den Vortrag ab.
IPv6 Networking-Referat «IPv6 Rollout im Datacenter - Varianten der Integrati...Digicomp Academy AG
Wer neue Server und Services plant, hat die Qual der Wahl: Dualstack, IPv6-only, DNS64/NAT64, XLAT464. Wie soll man sich hier orientieren, was sind die Kriterien und geeignete Strategien? Aarno Aukia, CTO von VSHN, zeigt die Vor- und Nachteile der Varianten anhand eines konkreten Beispiels auf.
This presentation will show you how to use docker-compose in a practical example, discuss some alternative approaches and teach best practices (in german).
In dieser Session schauen wir auf die Erweiterungen von Hyper-V im Server 2012 und lernen das neue Hyper-V-Feature von Windows 8 kennen. Sie sehen, wie Hyper-V jetzt «ready for the cloud» ist und können die Funktionalitäten und Möglichkeiten gegenüber anderen Produkten einschätzen.
Lust, sich einmal mit einer anderen Programmiersprache zu beschäftigen? Zum Beispiel ColdFusion? Ja, das gibt es noch, auch wenn es in Europa kaum noch Erwähnung findet. Dabei hat sich gerade hier unabhängig von Adobe eine aktive Open-Source-Szene entwickelt. Die bietet nicht nur kostenlose Alternativen zum Adobe-Server, sondern auch Entwicklungstools und Frameworks, mit denen der Einstieg in kürzester Zeit und mit schneller Lernkurve möglich ist. Dieser Talk zeigt, wo ColdFusion und seine Open-Source-Alternativen Lucee, Railo und OpenBD heute stehen, wie sie sinnvoll einsetzbar sind und wo ihre Vor- und Nachteile liegen. Er stellt die wichtigsten Projekte und Tools rund um CFML vor und gibt einen kurzen praktischen Einblick in die Sprache und ihre Verwendung beim Aufbau von Websites. Ein Talk für interessierte Entwickler, die einen Blick über den Tellerrand von PHP wagen wollen.
Tipps zur Performanceoptimierung für Liferay PortalStefan Hilpp
Mit Liferay einer Open Source Portallösung werden umfangreiche Enterprise- oder Mitarbeiterportale realisiert. Liferay eignet sich auch für mehrsprachige Internetportale mit geschlossenen Nutzerräumen.
In allen Fällen muss Liferay den Zugriff von mehreren hunderten gleichzeitigen Zugriffen ohne großen Performance Verlust verkraften.
Leicht gesagt und nicht so einfach zu realisieren. Wir sind an das Thema Liferay Performance systematisch heran gegangen. Heraus gekommen sind allgemeine und Liferay spezifischen Regeln, die das Ziel haben eine gute Performance bei hoher Last zu erreichen.
Liferay - ein modernes Portalsystem
Liferay Portal, ein Open Source Portalsystem, eignet sich in Ihrem Unternehmen als mitarbeiter- und prozessorientiertes Enterprise Portal. Es ist eine Portal-Software, die es Ihrem Unternehmen ermöglicht, Informationen, Daten und Anwendungen unter einer einheitlichen Bedienungsoberfläche im Webbrowser zu vereinen, zu personalisieren und dadurch die Geschäftsprozesse Ihres Unternehmens elektronisch zu unterstützen. Die lizenzkostenfreie Open Source Software beeindruckt durch ihre Vielzahl an Funktionen und ihre hervorragende Software-Architektur.
500 Kunden als weltweite Referenzen in verschiedensten Industriebereichen
Schnelle Innovationszyklen
Neue Releases im Abstand von jeweils 8 Monaten
Eine starke Community mit rund 3 Millionen Downloads
250.000 installierten Anwendungen weltweit
Liferay Portal ist das am häufigsten eingesetzte und ausgereifte Open Source Portalframework
Liferay Portal mit mehr als 150 Portlets ist nicht nur die breiteste, sondern auch funktional umfassendste Entwicklung im Open Source Portalumfeld
comundus hat sich seit ihrer Gründung 2001 in Waiblingen bei Stuttgart als Open Source Experte erfolgreich etabliert. Mittelständische Unternehmen und öffentliche Einrichtungen vertrauen auf die langjährigen IT-Erfahrungen des Hauses in der Realisierung ihrer digitalen Arbeitsplätze.
Dabei liegt der Fokus von comundus auf Mitarbeiterportalen und Enterprise Portals. Diese werden für Kunden individuell zusammengestellt. Ergänzend beraten die Experten ihre Kunden auf dem Weg zum Mobile Business und realisieren die Anforderungen vom responsive Design bis zur native App. Internet Portale runden das Leistungsangebot ab.
Produkte wie Liferay Portal, OpenCms, die Enterprise Search Solr und die Web-Shop Plattform KonaKart aus dem Open Source Bereich werden dem Wandel des digitalen Arbeitsplatzes gerecht. Sie helfen unseren Kunden unabhängig von teurer proprietärer Software zu sein.
Keepalived & HA-Proxy as an alternative to commercial loadbalancer - August 2014inovex GmbH
The speaker Jan Gehring is the initiator of the Rex Project, which he has developed in his free time since 2010. Jan works for inovex GmbH as a senior linux system architect and designs, optimises and deploys highly scalable, automated linux environments for customers. For 13 years he has been professionally with Linux and open source and could through numerous projects gained extensive practical experience. His duties include the design, construction and operation of systems. His focus is here in the Data Center Automation, highly available and highly scalable web architectures, and Java-based application servers.
Dank vieler praktischer Funktionen können Entwickler unter ColdFusion relativ schnell und einfach Applikationen entwickeln und produktiv einsetzen.
Doch wie sieht es aus wenn diese Applikationen dann intensiv genutzt werden? Von hunderttausenden Usern in unzähligen Ländern, Sprachen und Zeitzonen? Wenn Inhalte laufend generiert und abgefragt werden?
Dieser Talk zeigt, wie ColdFusion in einem Enterprise Projekt eingesetzt werden kann. Welche Architektur für einen sicheren Betrieb rund um die Uhr und die Welt benötigt wird. Welche ColdFusion Enterprise-Funktionen gebraucht werden und welche nicht, welche überhaupt funktionieren, welche Lektionen wir im praktischen Einsatz gelernt haben und warum Optimierungen im Milisekunden-Bereich tatsächlich Tage sparen können.
Docker Workshop Experten Forum Stuttgart 2015, Agile Methoden GmbHagilemethoden
Slide of a workshop about DevOps with Docker in German.
DevOps mit Docker - ein Workshop für Softwareentwickler und Systemadministratoren
Docker zieht seit einiger Zeit viel Aufmerksamkeit auf sich, hauptsächlich weil es das aktuelle sehr populäre Thema DevOps adressiert. Bei Docker handelt es sich eine offene Plattform für Software-Entwickler und Sysadmins, mit der sie Software annähernd überall bauen, ausliefern und betreiben können. In diesem Workshop werden Sie lernen wie Software-Container gebaut, ausgeliefert, konfiguriert und betrieben werden. Der Vortragende wird sie anhand von praktischen Beispielen an seinen Erfahrungen teilhaben lassen.
Docker ist eine Lösung die es erlaubt auf verschiedenen Betriebssystemen Container zu starten, in welchen bspw. Applikationen wie Apache oder NTP laufen. Hierdurch können Ressourcen von Servern bzw. virtuellen Maschinen optimal genutzt werden, da für kleinere Dienste keine eigene Maschine bereitgestellt werden muss sondern lediglich ein Container auf dieser gestartet wird. Darüber hinaus eignet sich Docker sehr gut zum testen von verschiedenen Konstellationen von Software-Paketen in der Entwicklung bzw. in Staging-Umgebungen. In diesem Webinar wollen wir unsere dynamische Cloud mit Docker und die Vorteile die sich hieraus ergeben vorstellen.
Webinare
Archiv Link: https://www.netways.de/webinare/webinare_aktuell/icinga_director_konfiguration_leicht_gemacht/
Aktuell: https://www.netways.de/webinare/webinare_aktuell/
NETWAYS
Konferenzen: https://www.netways.de/events_schulungen/home/
Schulungen: https://www.netways.de/events_schulungen/schulungen/home/
Shop: https://shop.netways.de/
Blog: http://blog.netways.de/
Social Media
YouTube: https://www.youtube.com/channel/UC8nIBEFmjzXjXeJV_hkkeIQ
Facebook: https://www.facebook.com/netways
Google+: https://plus.google.com/+netways/
Twitter: https://twitter.com/netways
http://www.opitz-consulting.com/go/3-6-11 --- Softwareentwicklung, -test und -betrieb können durch Virtualisierung viele Vorteile erzielen. In diesem Zusammenhang werden häufig Werkzeuge für die Bereitstellung von Umgebungen eingesetzt. Verschiedene Werkzeuge adressieren aber unterschiedliche Einsatzszenarien. Wo im Applikationslebenszyklus können diese Werkzeuge sinnvoll eingesetzt werden und wie sieht es mit Kosten und Nutzen aus? ---- Unser Senior Software Architect Richard Attermeyer stellte bei der W Jax am 5.11.2014 in München die Tools Vagrant, Puppet und Docker im Einzelnen vor und erläuterte ihren Nutzen anhand von Use Cases und Live Demos. ---- Weitere Infos: https://jax.de/wjax2014/sessions/vagrant-puppet-docker-fuer-entwickler-und-architekten ---- Über uns: Als führender Projektspezialist für ganzheitliche IT-Lösungen tragen wir zur Wertsteigerung der Organisationen unserer Kunden bei und bringen IT und Business in Einklang. Mit OPITZ CONSULTING als zuverlässigem Partner können sich unsere Kunden auf ihr Kerngeschäft konzentrieren und ihre Wettbewerbsvorteile nachhaltig absichern und ausbauen.---- Über unsere IT-Beratung: http://www.opitz-consulting.com/go/3-8-10 ---- Unser Leistungsangebot: http://www.opitz-consulting.com/go/3-8-874 ---- Karriere bei OPITZ CONSULTING: http://www.opitz-consulting.com/go/3-8-5
Wer professionelle Webentwicklung betreibt, braucht einen gut funktionierenden Deployment-Prozess, um Updates von den lokalen Rechnern der Entwickler problemlos auf Test-, Stage- und Live-Server zu bekommen ohne dort die Datenbestände zu gefährden.
In dieser Session zeigen wir das Drupal-Deployment in einem neuen Workflow.
Mit von der Partie sind:
Features
Strongarm
Update- und Drush-Scripts
Updatescript- und Drushscript-Prozessor
Git und eine Repository-Strategie
Jenkins Continous Integration
Codemetriken und Codeanalyse beim Deployment
Wie baut man ein privates Amazon AWS mit Open Source? In diesem Vortag wird die Realisierung einer privaten Cloud vom Konzept bis hin zum produktiven System vorgestellt.
Die Abstraktion von einzelnen Servern, Festplatten und Netzwerkverbindungen zu allgemein verfügbaren Rechen- und Speicherressourcen ist die Grundidee des Cloud Computing. Hardware wird dadurch zu einer flexiblen Ressource, die sich agil und kosteneffizient nutzen lässt. Amazon hat mit AWS diese Idee als Public Cloud für die breite Öffentlichkeit zugänglich gemacht.
Es gibt jedoch gute Gründe eine eigene, private Cloud zu bauen. Diese Gründe können Sicherheitsbedenken und rechtliche Kriterien sein. Zudem erleichtert die vollständige Kontrolle des gesamten Protokollstacks die Entwicklung und Wartung von verteilten und hochverfügbaren Systemen.
Dr. Lukas Pustina und Daniel Schneller von der codecentric AG haben für das Startup CenterDevice eine private Cloud vom Konzept bis zum produktiven Einsatz realisiert. Dabei wurde ausschließlich Open Source eingesetzt und ein "privates Amazon” geschaffen. In dieser Cloud laufen eine Produktions- und verschiedene Staging und Testumgebungen.
In diesem Vortrag sollen anhand der Entstehungsgeschichte der CenterDevice Cloud konkret Konzepte, Entscheidungen und Probleme erläutert werden. Dabei wird auch die ein oder andere Anekdote aus dem täglichen Wahnsinn der Cloud Administration nicht fehlen.
Der Vortrag beleuchtet zunächst, warum explizit nur freie Software genutzt wird und welche für das Projekt ausgewählt worden ist. Anhand spezifischer Anforderungen werden die eingesetzten Komponenten Ubuntu Linux, Ansible, Ceph Object Store und OpenStack eingeführt. Die erlebten Stolpersteine und Probleme sowie deren Lösung werden zusammen mit Performance Messungen vorgestellt. Zum Abschluss gibt es einen Blick auf die Produktionsumgebung mit einer Live Demo.
Das Fazit der beiden ist, dass sich die Investition in eine Open Source Cloud gelohnt hat. Jedoch gibt es viele kleine und große Probleme bis zum produktiven System zu überwinden. Die Zuhörer des Vortrags sollen am Ende selbst einschätzen können, in wie fern sich eine solche Lösung für ihre eigene Umgebung eignet.
Links:
Handout: https://public.centerdevice.de/399612bf-ce31-489f-bd58-04e8d030be52
Ansible: https://blog.codecentric.de/en/2014/06/ansible-simple-yet-powerful-automation/
Ceph: https://blog.codecentric.de/en/2014/03/ceph-object-storage-fast-gets-benchmarking-ceph/
This presentation will show you how to use docker-compose in a practical example, discuss some alternative approaches and teach best practices (in german).
In dieser Session schauen wir auf die Erweiterungen von Hyper-V im Server 2012 und lernen das neue Hyper-V-Feature von Windows 8 kennen. Sie sehen, wie Hyper-V jetzt «ready for the cloud» ist und können die Funktionalitäten und Möglichkeiten gegenüber anderen Produkten einschätzen.
Lust, sich einmal mit einer anderen Programmiersprache zu beschäftigen? Zum Beispiel ColdFusion? Ja, das gibt es noch, auch wenn es in Europa kaum noch Erwähnung findet. Dabei hat sich gerade hier unabhängig von Adobe eine aktive Open-Source-Szene entwickelt. Die bietet nicht nur kostenlose Alternativen zum Adobe-Server, sondern auch Entwicklungstools und Frameworks, mit denen der Einstieg in kürzester Zeit und mit schneller Lernkurve möglich ist. Dieser Talk zeigt, wo ColdFusion und seine Open-Source-Alternativen Lucee, Railo und OpenBD heute stehen, wie sie sinnvoll einsetzbar sind und wo ihre Vor- und Nachteile liegen. Er stellt die wichtigsten Projekte und Tools rund um CFML vor und gibt einen kurzen praktischen Einblick in die Sprache und ihre Verwendung beim Aufbau von Websites. Ein Talk für interessierte Entwickler, die einen Blick über den Tellerrand von PHP wagen wollen.
Tipps zur Performanceoptimierung für Liferay PortalStefan Hilpp
Mit Liferay einer Open Source Portallösung werden umfangreiche Enterprise- oder Mitarbeiterportale realisiert. Liferay eignet sich auch für mehrsprachige Internetportale mit geschlossenen Nutzerräumen.
In allen Fällen muss Liferay den Zugriff von mehreren hunderten gleichzeitigen Zugriffen ohne großen Performance Verlust verkraften.
Leicht gesagt und nicht so einfach zu realisieren. Wir sind an das Thema Liferay Performance systematisch heran gegangen. Heraus gekommen sind allgemeine und Liferay spezifischen Regeln, die das Ziel haben eine gute Performance bei hoher Last zu erreichen.
Liferay - ein modernes Portalsystem
Liferay Portal, ein Open Source Portalsystem, eignet sich in Ihrem Unternehmen als mitarbeiter- und prozessorientiertes Enterprise Portal. Es ist eine Portal-Software, die es Ihrem Unternehmen ermöglicht, Informationen, Daten und Anwendungen unter einer einheitlichen Bedienungsoberfläche im Webbrowser zu vereinen, zu personalisieren und dadurch die Geschäftsprozesse Ihres Unternehmens elektronisch zu unterstützen. Die lizenzkostenfreie Open Source Software beeindruckt durch ihre Vielzahl an Funktionen und ihre hervorragende Software-Architektur.
500 Kunden als weltweite Referenzen in verschiedensten Industriebereichen
Schnelle Innovationszyklen
Neue Releases im Abstand von jeweils 8 Monaten
Eine starke Community mit rund 3 Millionen Downloads
250.000 installierten Anwendungen weltweit
Liferay Portal ist das am häufigsten eingesetzte und ausgereifte Open Source Portalframework
Liferay Portal mit mehr als 150 Portlets ist nicht nur die breiteste, sondern auch funktional umfassendste Entwicklung im Open Source Portalumfeld
comundus hat sich seit ihrer Gründung 2001 in Waiblingen bei Stuttgart als Open Source Experte erfolgreich etabliert. Mittelständische Unternehmen und öffentliche Einrichtungen vertrauen auf die langjährigen IT-Erfahrungen des Hauses in der Realisierung ihrer digitalen Arbeitsplätze.
Dabei liegt der Fokus von comundus auf Mitarbeiterportalen und Enterprise Portals. Diese werden für Kunden individuell zusammengestellt. Ergänzend beraten die Experten ihre Kunden auf dem Weg zum Mobile Business und realisieren die Anforderungen vom responsive Design bis zur native App. Internet Portale runden das Leistungsangebot ab.
Produkte wie Liferay Portal, OpenCms, die Enterprise Search Solr und die Web-Shop Plattform KonaKart aus dem Open Source Bereich werden dem Wandel des digitalen Arbeitsplatzes gerecht. Sie helfen unseren Kunden unabhängig von teurer proprietärer Software zu sein.
Keepalived & HA-Proxy as an alternative to commercial loadbalancer - August 2014inovex GmbH
The speaker Jan Gehring is the initiator of the Rex Project, which he has developed in his free time since 2010. Jan works for inovex GmbH as a senior linux system architect and designs, optimises and deploys highly scalable, automated linux environments for customers. For 13 years he has been professionally with Linux and open source and could through numerous projects gained extensive practical experience. His duties include the design, construction and operation of systems. His focus is here in the Data Center Automation, highly available and highly scalable web architectures, and Java-based application servers.
Dank vieler praktischer Funktionen können Entwickler unter ColdFusion relativ schnell und einfach Applikationen entwickeln und produktiv einsetzen.
Doch wie sieht es aus wenn diese Applikationen dann intensiv genutzt werden? Von hunderttausenden Usern in unzähligen Ländern, Sprachen und Zeitzonen? Wenn Inhalte laufend generiert und abgefragt werden?
Dieser Talk zeigt, wie ColdFusion in einem Enterprise Projekt eingesetzt werden kann. Welche Architektur für einen sicheren Betrieb rund um die Uhr und die Welt benötigt wird. Welche ColdFusion Enterprise-Funktionen gebraucht werden und welche nicht, welche überhaupt funktionieren, welche Lektionen wir im praktischen Einsatz gelernt haben und warum Optimierungen im Milisekunden-Bereich tatsächlich Tage sparen können.
Docker Workshop Experten Forum Stuttgart 2015, Agile Methoden GmbHagilemethoden
Slide of a workshop about DevOps with Docker in German.
DevOps mit Docker - ein Workshop für Softwareentwickler und Systemadministratoren
Docker zieht seit einiger Zeit viel Aufmerksamkeit auf sich, hauptsächlich weil es das aktuelle sehr populäre Thema DevOps adressiert. Bei Docker handelt es sich eine offene Plattform für Software-Entwickler und Sysadmins, mit der sie Software annähernd überall bauen, ausliefern und betreiben können. In diesem Workshop werden Sie lernen wie Software-Container gebaut, ausgeliefert, konfiguriert und betrieben werden. Der Vortragende wird sie anhand von praktischen Beispielen an seinen Erfahrungen teilhaben lassen.
Docker ist eine Lösung die es erlaubt auf verschiedenen Betriebssystemen Container zu starten, in welchen bspw. Applikationen wie Apache oder NTP laufen. Hierdurch können Ressourcen von Servern bzw. virtuellen Maschinen optimal genutzt werden, da für kleinere Dienste keine eigene Maschine bereitgestellt werden muss sondern lediglich ein Container auf dieser gestartet wird. Darüber hinaus eignet sich Docker sehr gut zum testen von verschiedenen Konstellationen von Software-Paketen in der Entwicklung bzw. in Staging-Umgebungen. In diesem Webinar wollen wir unsere dynamische Cloud mit Docker und die Vorteile die sich hieraus ergeben vorstellen.
Webinare
Archiv Link: https://www.netways.de/webinare/webinare_aktuell/icinga_director_konfiguration_leicht_gemacht/
Aktuell: https://www.netways.de/webinare/webinare_aktuell/
NETWAYS
Konferenzen: https://www.netways.de/events_schulungen/home/
Schulungen: https://www.netways.de/events_schulungen/schulungen/home/
Shop: https://shop.netways.de/
Blog: http://blog.netways.de/
Social Media
YouTube: https://www.youtube.com/channel/UC8nIBEFmjzXjXeJV_hkkeIQ
Facebook: https://www.facebook.com/netways
Google+: https://plus.google.com/+netways/
Twitter: https://twitter.com/netways
http://www.opitz-consulting.com/go/3-6-11 --- Softwareentwicklung, -test und -betrieb können durch Virtualisierung viele Vorteile erzielen. In diesem Zusammenhang werden häufig Werkzeuge für die Bereitstellung von Umgebungen eingesetzt. Verschiedene Werkzeuge adressieren aber unterschiedliche Einsatzszenarien. Wo im Applikationslebenszyklus können diese Werkzeuge sinnvoll eingesetzt werden und wie sieht es mit Kosten und Nutzen aus? ---- Unser Senior Software Architect Richard Attermeyer stellte bei der W Jax am 5.11.2014 in München die Tools Vagrant, Puppet und Docker im Einzelnen vor und erläuterte ihren Nutzen anhand von Use Cases und Live Demos. ---- Weitere Infos: https://jax.de/wjax2014/sessions/vagrant-puppet-docker-fuer-entwickler-und-architekten ---- Über uns: Als führender Projektspezialist für ganzheitliche IT-Lösungen tragen wir zur Wertsteigerung der Organisationen unserer Kunden bei und bringen IT und Business in Einklang. Mit OPITZ CONSULTING als zuverlässigem Partner können sich unsere Kunden auf ihr Kerngeschäft konzentrieren und ihre Wettbewerbsvorteile nachhaltig absichern und ausbauen.---- Über unsere IT-Beratung: http://www.opitz-consulting.com/go/3-8-10 ---- Unser Leistungsangebot: http://www.opitz-consulting.com/go/3-8-874 ---- Karriere bei OPITZ CONSULTING: http://www.opitz-consulting.com/go/3-8-5
Wer professionelle Webentwicklung betreibt, braucht einen gut funktionierenden Deployment-Prozess, um Updates von den lokalen Rechnern der Entwickler problemlos auf Test-, Stage- und Live-Server zu bekommen ohne dort die Datenbestände zu gefährden.
In dieser Session zeigen wir das Drupal-Deployment in einem neuen Workflow.
Mit von der Partie sind:
Features
Strongarm
Update- und Drush-Scripts
Updatescript- und Drushscript-Prozessor
Git und eine Repository-Strategie
Jenkins Continous Integration
Codemetriken und Codeanalyse beim Deployment
Wie baut man ein privates Amazon AWS mit Open Source? In diesem Vortag wird die Realisierung einer privaten Cloud vom Konzept bis hin zum produktiven System vorgestellt.
Die Abstraktion von einzelnen Servern, Festplatten und Netzwerkverbindungen zu allgemein verfügbaren Rechen- und Speicherressourcen ist die Grundidee des Cloud Computing. Hardware wird dadurch zu einer flexiblen Ressource, die sich agil und kosteneffizient nutzen lässt. Amazon hat mit AWS diese Idee als Public Cloud für die breite Öffentlichkeit zugänglich gemacht.
Es gibt jedoch gute Gründe eine eigene, private Cloud zu bauen. Diese Gründe können Sicherheitsbedenken und rechtliche Kriterien sein. Zudem erleichtert die vollständige Kontrolle des gesamten Protokollstacks die Entwicklung und Wartung von verteilten und hochverfügbaren Systemen.
Dr. Lukas Pustina und Daniel Schneller von der codecentric AG haben für das Startup CenterDevice eine private Cloud vom Konzept bis zum produktiven Einsatz realisiert. Dabei wurde ausschließlich Open Source eingesetzt und ein "privates Amazon” geschaffen. In dieser Cloud laufen eine Produktions- und verschiedene Staging und Testumgebungen.
In diesem Vortrag sollen anhand der Entstehungsgeschichte der CenterDevice Cloud konkret Konzepte, Entscheidungen und Probleme erläutert werden. Dabei wird auch die ein oder andere Anekdote aus dem täglichen Wahnsinn der Cloud Administration nicht fehlen.
Der Vortrag beleuchtet zunächst, warum explizit nur freie Software genutzt wird und welche für das Projekt ausgewählt worden ist. Anhand spezifischer Anforderungen werden die eingesetzten Komponenten Ubuntu Linux, Ansible, Ceph Object Store und OpenStack eingeführt. Die erlebten Stolpersteine und Probleme sowie deren Lösung werden zusammen mit Performance Messungen vorgestellt. Zum Abschluss gibt es einen Blick auf die Produktionsumgebung mit einer Live Demo.
Das Fazit der beiden ist, dass sich die Investition in eine Open Source Cloud gelohnt hat. Jedoch gibt es viele kleine und große Probleme bis zum produktiven System zu überwinden. Die Zuhörer des Vortrags sollen am Ende selbst einschätzen können, in wie fern sich eine solche Lösung für ihre eigene Umgebung eignet.
Links:
Handout: https://public.centerdevice.de/399612bf-ce31-489f-bd58-04e8d030be52
Ansible: https://blog.codecentric.de/en/2014/06/ansible-simple-yet-powerful-automation/
Ceph: https://blog.codecentric.de/en/2014/03/ceph-object-storage-fast-gets-benchmarking-ceph/
Urban planning evaluation of the success of Bermondsey Spa project in Bermondsey, Southwark, London. Research project for UCL ENVS 3014 Development Project Regeneration. Authors: Jannat Alkhanizi, Shivani Bhatnagar, Sitian Chen, Hebe Ni, Zidong Han, Janey Lin Zhao
Wir sind ein führender internationaler Logistikdienstleister mit Niederlassungen in allen bedeutenden Märkten dieser Welt. Die gesamte Liste unserer Produkte und Dienstleistungen reicht von konventioneller Land-, Schienen-, Luft- und Seefracht bis hin zum weltweitem Supply Chain Management
#Stanhome, Una marca que cambia vidas.
#Stanhome es una empresa de gran tradición que ofrece a todas las mujeres mexicanas soluciones de alta calidad para el cuidado del hogar, la familia y la belleza.
Desde hace 80 años en el mundo, Stanhome brinda una gran oportunidad de bienestar, crecimiento y desarrollo profesional a todas las mujeres y sus familias.
Pedidos en nuestra página de Facebook https://www.facebook.com/ComercializadoraValleD y en vaalle-d@outlook.com
Rex ist ein Tool zur Automatisierung von Applikations- und Konfigurationsrollouts. Die gewünschte Umgebung wird mittels einem Script (Perl) beschrieben und kann somit auf unterschiedlichen Systemen ausgefuehrt werden. Rex verbindet sich per SSH auf das Zielsystem und führt die entsprechenden Arbeiten aus.
In diesem Vortrag will ich zuerst auf die Basics von Rex eingehen. Um dann zu zeigen wie man mit Hilfe von Rex sich und seinem Team schnell eine Testumgebung mit VirtualBox zur Verfügung stellen kann und wie man - in Zusammenarbeit mit den Systemadministratoren - die gleichen Scripte zum Aufbau und dem Deployment der Produktionsumgebung verwenden kann.
Rex ist ein Tool zur Automatisierung von Applikations- und Konfigurationsrollouts. Die gewünschte Umgebung wird mittels eines Script (Perl) beschrieben und kann somit auf unterschiedlichen Systemen ausgeführt werden. Rex verbindet sich per SSH auf das Zielsystem und führt die entsprechenden Arbeiten aus.
In diesem Vortrag wird zunächst auf die Basis von Rex eingegangen. Dann wird gezeigt, wie man mit Hilfe von Rex sich und seinem Team schnell eine Testumgebung mit VirtualBox zur Verfügung stellen kann, und wie man – in Zusammenarbeit mit den Systemadministratoren – die gleichen Scripte zum Aufbau und dem Deployment der Produktionsumgebung verwenden kann.
BASTA Spring 2016: Test- und Releaseumgebungen der nächsten Generation mit TF...Marc Müller
Test- und Produktionsumgebungen gehören zum täglich Brot von Entwicklungs-, Test- und Adminteams. In der Praxis sieht man dabei sehr oft das Phänomen, dass die diversen Umgebungen immer wieder von den Beteiligten händisch angelegt und gepflegt werden. In modernen DevOps-Prozessen ist dieses Vorgehen nicht mehr zeitgemäß. Im Vortrag soll vorgestellt werden, wie Umgebungen mit modernen Deployment- und Verwaltungskonzepten automatisiert werden können. Die Grenze ist dabei nicht beim reinen Anlegen und Verwalten zu sehen, sondern umfasst auch die Anbindung und Integration an die Entwicklungs- und Testinfrastruktur (TFS-Build- und Release-Management). Als Beispiele werden exemplarisch Szenarien auf Basis von modernen Containertechnologien (Docker, Windows-Container) sowie Azure-Technologien wie Azure Dev/Test gezeigt. Unter Berücksichtigung der Szenarien werden die jeweiligen kontextbezogenen Vor-/Nachteile betrachtet und bewertet.
When discussing about build systems, still Ant and Maven are the most prominent. This presentation is from a talk about characteristics of Ant and Maven, how they compare and if its worth migrating between both.
Slides are in German, but IT topics tend to be understandable even by non native speakers.
DevOps der Triple-E Klasse - Eclipse DemoCampWerner Keil
Maersk Line lässt nicht nur die weltweit größten Schiffe der 'Triple-E' Klasse bauen. Continuous Integration und Delivery in einer ähnlichen Größenordnung mit Hudson, Maven und Tools wie Kokki (ähnlich Puppet oder Chef ) werden dort ebenso praktiziert.
Diese Session gewährt eine kurze Übersicht über Multi-Configuration (Matrix) Job-Typen wie sie in den meisten dieser Projekte genutzt werden. Highlights in einer heterogenen Umgebung, wie man sie in Vielfalt und Umfang sonst fast nur bei großen Anbietern von Public Cloud Lösungen findet.
Das erste was beim neuen FileMaker Server 13 auffällt, ist die neue Administration per Webbrowser. Es gibt neben dieser Änderung aber viele Funktionen, die erst auf den zweiten Blick sichtbar sind und um die es in diesem Vortrag vor allem gehen soll. Ein Schwerpunkt sind dabei die neuen Möglichkeiten Serverbasierte Scripte direkt von einem Client aus anzustossen, neue Funktionen für eine noch höhere Sicherheit der Datenbanken sowie auch die neuen Möglichkeiten, die das neue FileMaker WebDirect bieten kann. Der Vortrag richtet sich an alle Entwickler, die für Teams programmieren und die sich bereits mit den Basisfunktionen des FileMaker Servers auskennen.
Opensource Storage Lösung mit Ceph
Deutsch/Englische Folien. Es gibt eine deutsche Video Aufzeichnung des Talks unter https://entropia.de/GPN15:Ceph
----
Opensource Cloud Solution with Ceph
German/English slides. There is a german recording to this talk at https://entropia.de/GPN15:Ceph
Continuous Delivery für Cloud-native Anwendungen auf Cloud-nativer InfrastrukturQAware GmbH
JAX 2017, Mainz: Vortrag von Josef Fuchshuber (@fuchshuber, Cheftechnologe bei QAware) und Tobias Placht (@knacht, Software Ingenieur bei QAware).
Abstract: Wie oft kannst du ein neues Feature releasen? Jede Woche? Jeden Tag? Jede Stunde? Continuous Delivery ist einer der wesentlichen Treiber, warum wir Cloud-native Anwendung bauen. Für Software-driven Organisationen ist das der Schlüssel für eine sicherere, stabilere Software bei minimiertem Risiko und kurzen Feedbackschleifen. Die Herausforderung dabei ist, aus jeder Codeänderung möglichst schnell eine lauffähige und gründlich getestete Software zu machen. Das ist für viele Firmen ein wesentlicher Wettbewerbsvorteil. Wir zeigen in diesem Vortrag eine Werkzeugkette, mit der Continuous Delivery nicht nur für Cloud-native Anwendungen, sondern auch auf Cloud-nativer Infrastruktur möglich ist. Ganz im Gedanken von „Everything is Code“ betrachten wir dabei nicht nur das Bauen und Testen von Software, sondern auch die Automatisierung der Infrastrukturbereitstellung, der Deployments und Roll-outs. Dabei treffen alte Bekannte (z.B. Jenkins, SonarQube) auf Cloud-Computing-Technologien wie z.B. Docker für Betriebssystemvirtualisierung und DC/OS für das Clustermanagement.
Beim April Termin dreht sich alles um die lokale Entwicklungsumgebung DDEV. Lange Jahre galten AMP-Lösungen als das Maß aller Dinge. Ohne großes Vorwissen erhielt man eine direkt nutzungsbereite Anwendung, welche Apache/Nginx, MySQL und PHP enthielt. Der Haken dabei, die Versionsnummer der mitgelieferten Anwendungen war fix vorgegeben und eine eigenständige Erweiterung war schwer bis unmöglich. Zudem war man von den Entwicklerinnen und Entwicklern abhängig, wann diese eine neue Version veröffentlichten um z. B. eine neue PHP Version zu unterstützen.
Vagrant behob, mit dessen Veröffentlichung, die meisten der genannten Fallstricke. Mit selbigem konnte man komplette Linux-Installation virtualisieren. In Kombination mit einer Orchestrierungs-Lösung wie Ansible oder Puppet konnte dann ein lokales Entwicklungssystem komplett nach den eigenen Wünschen konfektioniert und angepasst werden, damit es die Serverkonfiguration auf dem eigenen Webserver exakt widerspiegelt. Die Kehrseite der neu gewonnenen Flexibilität, der Anspruch an Nutzerinnen und Nutzer stieg exorbitant und eine lokale Entwicklungsumgebung war nicht mehr in einem Mausklick gestartet.
Hier kam nun vor ein paar Jahren Docker ins Spiel. Anstelle der Virtualisierung ganzer Betriebssysteme werden nun einzelne Applikationen in Container verpackt. Sprich ein Container beinhaltet jeweils nur eine Version einer Anwendung wie PHP, MySQL oder Apache. Aber auch hier ist das Auswählen, Zusammenstellen und Betreiben der einzelnen Container nicht untrivial. Hier schlägt nun die Stunde von Lösungen wie DDEV. Eine Applikation beziehungsweise Abstraktionsebene für die Verwendung von Docker, die dessen Nutzung auf ein paar einfache Befehle reduziert und viel Nachdenken, Hirnschmalz sowie Arbeit erspart.
Frank Schmittlein wird beim April-Meetup besagtes DDEV vorstellen. Er geht dabei der Frage nach, was bei der Installation alles zu beachten ist. Wie man DDEV im Anschluss richtig konfiguriert und welche Befehle man für die tägliche Nutzung kennen sollte. Er zeigt zudem wie man DDEV mittels Hooks beim Start oder beim Import von Datenbanken und oder Dateien um weitere Anweisungen erweitern kann. Zu guter Letzt demonstriert er, wie man WordPress mit Hilfe von wp-cli, einer Sammlung von Kommandozeilen-Tools, einfach unter DDEV installieren kann. Sollten am Ende noch Fragen offen geblieben sein, können selbige in der anschließenden Fragerunde mit Sicherheit von Frank beantwortet werden. Wir sehen uns im April!
1. Proxtalks 2016
Migration zu ProxmoxVE
BestehendeVirtualisierungsumgebungen
zu ProxmoxVE migrieren
10/2016 – Marco Gabriel
Bild: (CC BY SA 2.0) flickr.com - Melv_L - MACASR
2. inett GmbH
• Linux Systemhaus in Saarbrücken
• Gegründet 2007
• ~10 Mitarbeiter
• Proxmox Partner und ProxmoxTraining Partner
• ProxmoxVE Projekte undTrainings in Deutschland, Österreich, Schweiz,
Luxemburg und weiteren Ländern
3. Gründe für die Migration
Die bestehendeVirtualisierungslösung...
• ist „in die Jahre“ gekommen
• genügt zukünftigen Anforderungen nicht mehr
• läuft nicht auf neuer Hardware
• unterstützt neue Gastbetriebssysteme nicht
• verursacht zu hohe Betriebskosten
• verursacht bei einer Erweiterung hohe Kosten (CC BY SA 2.0) flickr.com - Karl Baron
4. Voraussetzungen prüfen
• Server / Hardware
• Hochverfügbarkeit geplant?
• Wie viele Server mit welcher Ausstattung?
• Storage weiterverwenden oder ersetzen?
• Welche Storage für meine Anforderungen? Lokal, zentral, verteilt?
• Netzwerkinfrastruktur
• 10 Gbit/s benötigt, z.B. für Ceph Storage?
• Redundanz bedacht?
8. Möglichkeiten
• Häufiger: Backup und Restore direkt aus derVM
• Toll:Wiederherstellung auf abweichender (VM) Hardware
• Immer seltener: Converter von anderen Hypervisoren
• VMware Converter, Microsoft Systems Center
• Eigentlich für eine andere Zielplattform
• Kann funktionieren
9. Der letzte Strohhalm
• Manchmal: Applikationsmigration
• Server Neuinstallation mit Datenmigration
• Je nachApplikation sogar ohne Downtime möglich
• Aufwendig
• Eher für wenigeAusnahmen geeignet, nicht für die generelle Migration
10. Tools
• Open Source
• CloneZilla Boot CD
• SystemRescueCD
• fsarchiver, mondobackup, dd, (g)ddrescue
• Kommerziell
• Windows Backup
• Sonstige Backup Hersteller mit Imaging und Bare Metal Restore
13. OpenVZ LXC
• OpenVZ bis ProxmoxVE 3.4, LXC ab ProxmoxVE 4.0
• Einfach: OpenVZ Backup, Restore mit LXC
• Netzwerk muss neu konfiguriert werden
• Nicht für alle Distributionen möglich, vor allem ältere funktionieren nicht
• ProxmoxVE gibt beim Restore einen Fehler aus
• dann benötigen wir eine andere Strategie
14. * LXC
• Neuen LXCContainer mit gleicher Distribution undVersion installieren
• rsync zur Übernahme der Files
• Auslassen von /etc und den üblichenVerdächtigen wie proc, sys, mnt, dev, ...
• Nacharbeit im Ziel (z.B. /etc zusammenführen)
• Quelle runterfahren, dann finales rsync, Ziel starten
• Höherer, auch manueller Aufwand
• Funktioniert mit fast jeder Quelle, auch mit physikalischen Servern
• Funktioniert sogar umgekehrt, z.B. für OpenVZ KVM
15. Vorbereiten der Gäste
• Backup erstellen
• Snapshots vor jedem Schritt
• IDETreiber für HDD Controller aktivieren / installieren
• Nicht benötigte Software und alteTreiber deinstallieren
• Gasterweiterungen des alten Hypervisors deinstallieren
STOP: 0x0000007B (0xF741B84C,0xC0000034,0x00000000,0x00000000)
INACCESSIBLE_BOOT_DEVICE
16. Vielen Dank für Ihre Aufmerksamkeit!
Marco Gabriel
inett GmbH
E-Mail: mgabriel@inett.de
Telefon: +49 681 410993-11
Twitter: @MarcoMGabriel
Facebook: fb.com/marcomgabriel
Google+: google.com/+MarcoMGabriel
XING: xing.com/profile/Marco_Gabriel
LinkedIn: linkedin.com/in/marcogabriel1