Hochverfügbarkeit beim SQL Server – DBCC 2021 – Teil 1

Jeder meiner Kunden hat sich irgendwann mal die Frage gestellt oder zumindest sollte er sich diese Frage stellen, “brauche ich für meine SQL Server oder einen meiner SQL Server eine gewisse Hochverfügbarkeit”. Leider enden diese Überlegungen immer bei der Frage nach dem Budget… natürlich kosten solche HA-Lösungen mehr Geld, je nach Auswahl der Lösung und der Ausstattung der Umgebung müssen entsprechende Lizenzen zur Verfügung gestellt werden. Aber wenn man die im “worst-case” anfallenden Kosten während oder durch einen Ausfall dagegen rechnet, sollte man ganz klar zur Einsicht kommen, dass diese Kosten vertretbar sind.

Ich durfte heute auf der Data Blaster Community Conference 2021 einen Vortrag dazu halten (Vielen Dank liebe SQLPASS Deutschland), hier kommt eine kleine Zusammenfassung aus meinem Vortrag.

Ich habe direkt am Anfang dargestellt, wie hoch solche Kosten sein können, hierzu habe ich mit Hilfe eines Online-Rechners von Percona eine beispielhafte Rechnung aufgemacht. Der SQL Server fällt für 1-2 Stunden aus, 5 Mitarbeiter sind an dem Restore beschöftigt, jeder von ihnen verdient 100.000 pro Jahr, 100 weitere Mitarbeiter können nicht richtig arbeiten, diese verdienen durchschnittlich 50.000 pro Jahr. Im folgenden Screenshot könnt ihr die Zahlen lesen, die unter Umständen während des Ausfalls, bei der Behebung und deren Nachwirkungen entstehen können.

Warum SQLServer Hochverfuegbarkeit sich rechnet - Percona Calculator

Bei Gesamtkosten von rund 8.000.000 Euro für einen Ausfall eines SQL Servers von rund 2 Stunden, würde ich mir schon vorher überlegen, ob ich z.B. 250.000 Euro im Rahmen der Installation mehr ausgebe, um einen zweiten Server hinzustellen und mit den jeweiligen Lizenzen auszustatten. Aber wie können solche Hochverfügbarkeiten im SQL Server Umfeld aussehen, dazu komme ich in den nächsten Abschnitten, aber erst einmal sollten wir die Überschriften klären… 😉

Hochverfügbarkeit vs Desaster Recovery

Die Definition von Hochverfügbarkeit auf wikipedia.de lautet wie folgt :

Hochverfügbarkeit (englisch high availabilityHA) bezeichnet die Fähigkeit eines Systems, trotz Ausfalls einer seiner Komponenten mit einer hohen Wahrscheinlichkeit (oft 99,99 % oder besser) den Betrieb zu gewährleisten. In Abgrenzung zur Fehlertoleranz kann es bei dem Betrieb im Fehlerfall zu einer Unterbrechung kommen.

https://de.wikipedia.org/wiki/Hochverf%C3%BCgbarkeit

Im Vergleich dazu die Definition von Desaster Recovery

Der englische Begriff Disaster Recovery (im Deutschen auch Katastrophenwiederherstellung oder Notfallwiederherstellung genannt) bezeichnet Maßnahmen, die nach einem Ausfall von Komponenten in der Informationstechnik eingeleitet werden. Dazu zählt sowohl die Datenwiederherstellung als auch das Ersetzen nicht mehr benutzbarer InfrastrukturHardware und Organisation. Umfassender als Disaster Recovery ist der Begriff Business Continuity, der nicht die Wiederherstellung der IT-Dienste, sondern unterbrechungsfreie Geschäftsabläufe in den Vordergrund stellt.

https://de.wikipedia.org/wiki/Disaster_Recovery

Bei der Hochverfügbarkeit geht es eben mehr darum, die eintretende Zeit des Ausfalls, also die Downtime möglichst gering zu halten, so dass alle angeschlossenen Systeme möglichst ohne Datenverlust und manuellen Eingriff schnellstmöglich weiterlaufen. Hierzu sollte man sich vor der Installation natürlich Gedanken zur Prozessgestaltung, den zu erreichenden Zielen und der Notwendigkeit zu machen.

  • Was braucht das Business?
  • Was kostet es das Business wenn sie nicht mehr arbeiten können?
  • Gibt es ggfs einen Kompromiss zwischen Technik und Business? Müssen es wirklich die minimalsten Ausfallzeiten (< 10 Sekunden) sein oder reichen vielleicht auch maximale Ausfallzeiten von kleiner einer Minute?
  • Was kann die Technik überhaupt abbilden? Wissen, Prozesse u.ä.
  • Welceh rechtlichen Rahmen müssen ggfs eingehalten werden?

Und erst wenn man diese Fragen vorher geklärt hat, kann man sich Gedanken über die eigentliche Hochverfügbarkeitslösung machen und wie diese implementiert werden kann/soll.

Das AlwaysOn Failover-Cluster (FCI)

Hochverfuegbarkeit - SQLServer - AlwaysOn Failover Cluster

Kommen wir zu einer der möglichen Lösungen zur Realisierung der Hochverfügbarkeit des SQL Servers innerhalb des eigenen Rechenzentrums, das Windows Failover Cluster (im Grunde identisch zu einem Linux Failover Cluster, hier sollte man sich an die Angaben/Dokumentation der jeweiligen Distribution und eingesetzten Cluster-Software halten).

Initial erstellt man aus zwei Windows Servern mit dem zusätzlich installierten Failover-Cluster Feature ein Windows Failover Cluster, grob gesagt, man verbindet beide Server logisch (und im AD) miteinander. Beide kennen sich und wissen nun, dass sie zusammengehören und tauschen mehrere entsprechenden Health-Status Informationen untereinander aus. Dieses Windows Failover Cluster erhält eine eigene IP und einen eigenen DNS Namen, sowie ein Cluster-Named-Object im AD, dieses CNO “steuert” später das Cluster im AD.

Zu den notwendigen Storage-Requirements kann ich hier wenig sagen, da dies von den jeweiligen Umgebungen abhängt… SAN, NAS, NFS, HCI oder ähnliches, auf jeden Fall muss es sich um einen Storage handeln, der in der Lage ist beiden Servern Zugriff zu gewähren. Microsoft schreibt dazu folgendes:

Storage

Im Gegensatz zur Verfügbarkeitsgruppe muss eine FCI freigegebenen Speicher zwischen allen Knoten der FCI für Datenbank und Protokolle verwenden. Der freigegebene Speicher kann die Form von WSFC-Clusterdatenträgern, direkten Speicherplätzen (Storage Spaces Direct, S2D), Datenträgern auf einem SAN oder Dateifreigaben auf einem SMB aufweisen. Auf diese Weise verfügen alle Knoten in der FCI immer dann über die gleiche Sicht der Instanzdaten, wenn ein Failover auftritt. Dies bedeutet jedoch, dass der freigegebene Speicher das Potenzial hat, die einzelne Fehlerquelle zu sein. Die FCI hängt zudem von der zugrunde liegenden Speicherlösung ab, um Datenschutz sicherzustellen.

https://docs.microsoft.com/de-de/sql/sql-server/failover-clusters/windows/always-on-failover-cluster-instances-sql-server?view=sql-server-ver15&WT.mc_id=DP-MVP-5002576#Recommendations

Nun kann man mit der eigentlichen Installation des SQL Servers beginnen, auf dem Node 1 wird die Basis-Installation für das SQL Server Failover Cluster geschaffen “Erstellung eines Failover-Clusters”, während auf dem Node 2 “nur” ein Knoten zu einem bestehenden SQL Server Cluster hinzugefügt wird.

Je nach Ausgestaltung dieses Cluster – nur eine Instanz oder mehrere Instanzen – müssen SQL Server Lizenzen beschafft werden. Hierbei kann man zwischen zwei Betriebsmodis unterscheiden, aktiv/passiv oder aktiv/aktiv. Bei aktiv/passiv dürfen die SQL Server Instanzen immer nur auf einem Knoten des Clusters laufen, im Fehlerfall für einen begrenzten Zeitraum auch auf beiden Knoten. Bei aaktiv/aktiv können beide Knoten gleichermaßen und zeitlich unbegrenzt voll genutzt werden, was gerade bei mehreren Instanzen unter Umständen Sinn machen kann, da man so eine gewisse Last-Aufteilung vornehmen kann.

Sollte nun ein Knoten im Cluster ausfallen, so kann der zweite Knoten vereinfacht gesagt nicht mehr der anderen Seite kommunizieren und versucht schnellstmöglich die ausgefallenen Services auf seine Seite zu holen und dort zu starten.

Ein hybrides Szenario ist hierbei leider nicht möglich, da es keine Möglichkeit der gesharten Ressourcen zwischen on-premise und Cloud gibt. Aber man kann alternativ auch ein Failover-Cluster in der Azure Cloud aufbauen. Hierzu benötigt man eine Proximity Placement Group, entsprechende Managed Disks mit aktiviertem “Shared Storage” Feature und die beschriebenen zwei virtuellen Maschinen, die eigentliche Installation und Betrieb ist im Grunde identisch.

Hochverfügbarkeit Azure SQLServer Failover Cluster - DBCC2021

Mehr zu Hochverfügbarkeiten des SQL Servers kommt demnächst in einem zweiten Beitrag.

Azure SQL – Change your Skills – DataSaturday #6 Malta

Gestern durfte ich meinen Vortrag im Rahmen des DataSaturday #6 auf Malta halten, dabei ging es um die Veränderungen im Leben eines DBAs, wenn er sich damit konfrontiert sieht, dass seine SQL Server und/oder Datenbanken in die Microsoft Cloud Azure migriert werden sollen. Ich wollte mit diesem Vortrag die Ängste minimieren und aufzeigen, dass es sich bei Azure SQL eben auch “nur” um einen SQL Server bzw einen SQL Datenbank handelt.

Abweichend von allen anderen Veranstaltungen hatte sich Dennes (und sein Team) etwas neues im Ablauf einfallen lassen, die Session hatte keine 60 Minuten sondern 90 Minuten. Die ersten 15 Minuten wurden als Interview oder Einleitung genutzt, der Host stellte den nächsten Sprecher vor, dazu hatte man ein kleines Video produziert und individuelle Fragen zum jeweiligen Lebenslauf vorbereitet. Dann kam der eigentliche Vortrag über volle 60 Minuten, gefolgt von weiteren 15 Minuten für Fragen und Antworten der Teilnehmer oder der Host konnte selber entsprechende Fragen stellen. Alles in allem eine gelungene Lösung, die den Talk eher wie ein Gespräch leitete und allen ein wenig “Druck” nahm und man sich (hoffentlich auch als Teilnehmer) mehr dazugehörig fühlte.

Mein Host war Deepthi Goguri, es hat mir viel Spaß bereitet diese Session gemeinsam mit Ihr zu halten. Auch wenn dies nicht mein erster Vortrag auf Englisch war, so bin ich doch immer noch ein wenig nervöser… finde ich die richtigen Worte im richtigen Moment, spreche ich alles richtig aus… Durch die ruhige und freundliche Art von Deepthi wurde auch ich ruhiger und konnte mich ein wenig besser auf die Session vorbereiten. Half zwar nicht darüber hinweg, dass ich wieder einmal mehr erzählen und zeigen wollte, als ich Zeit zur Verfügung hatte, daran muss ich dringend arbeiten! Vor zwei Jahren hatte ich mich mit Rob Sewell unterhalten, dass ich meine Komfortzone dringend verlassen möchte => nicht nur Vorträge auf Deutsch zu halten, sondern auch einmal mit Englisch starten wolle und ob er mich bei meinem englischen Start – als Mentor sozusagen – unterstützen könne. Und dann kam Corona und alles kam anders… ich bin einfach mal gesprungen und habe es gewagt… womit wieder wir beim Thema wären 😉

It is just a SQLServer - dont be afraid of moving you databases into Azure

Einfach mal trauen und ausprobieren

Deepthi fragte mich gestern, was ich den Teilnehmern denn empfehlen würde, wenn der Auftraggeber oder Arbeitgeber mit der Migration in die Cloud starten wolle. Hier kann ich allen Interessierten nur empfehlen, keine Angst zu haben, nur weil der SQL Server nicht mehr im eigenen Rechenzentrum steht, sondern jetzt in einem Rechenzentrum von Microsoft, heißt dies nicht, dass Microsoft all die Arbeit übernimmt und man – als Datenbank-Administrator – nichts mehr zu tun hat… ok, man muss etwas neues lernen und etwas anders denken, aber es ist immer noch ein SQL Server mit seinen Datenbanken!
Die ersten Schritte könnten die folgenden sein:

  • einen Azure Free Account anlegen
  • einfach mal bspw. eine kostenfreie Linux VM deployen und ausprobieren, wie man dort einen SQL Server installiert
  • oder eine Azure SQL Database, um zu sehen welche Schritte man hier gehen muss, um dies zu erreichen
  • und natürlich all die großartigen Ressourcen von Microsoft Learn – Learning Paths and Modules mit vielen Inhalten und Übungen – erarbeiten
    Azure Fundamentals – AZ-900
    Azure Data Fundamentals – DP-900
  • wenn man dann Fragen zu den einzelnen Optionen hat, dann kann man auch die sehr nützliche Dokumentation lesen, die auch mir, sehr oft hilft gewisse Themen besser zu verstehen.

zahlreiche Lern-Unterstützung zu Azure SQL verfügbar

Microsoft – hauptsächlich in Form von Anna Hoffman und Bob Ward – stellt auch sehr viele interaktive Lernmaterialien zur Verfügung, die man sich in Form von Workshops, Labs oder Youtube Videos erarbeiten kann! Es gibt Material für mehrere Wochen durchgängiges Lernen rund um den SQL Server und/oder Azure SQL… egal ob Azure SQL Database oder die Managed Instance oder auch als SQL Server VM in Azure. Hier heißt es einfach mal starten und ausprobieren, keine Scheu… es ist keine Magie, sondern eigentlich recht einfach, da man sich alles selber zusammenstellen kann, wie man es benötigt 😉

Microsoft Learn: Azure SQL fundamentals learning path
aka.ms/azuresqlfundamentals
Select the Azure SQL Workshop
aka.ms/sqlworkshops
How to choose tool
aka.ms/chooseazuresql
Azure SQL documentation
aka.ms/azuresqldocs
More videos from our team
aka.ms/dataexposed

Change your Skills - Learning - Ressourcen-Overview

Hier geht es zu meinen Slides aus diesem Vortrag:
Azure SQL – Change your skills to become a cloud DBA

und wer jetzt noch etwas zu Azure SQL Database lesen möchte, der kann dies natürlich entweder in meinem Blog hier tun oder in dem relativ neuen Post zu Azure SQL von Deepthi 😉

Echt jetzt ??? Datenbank mit aktiviertem Auto_Close ???

Ich bin hvor kurzem erneut über eine Konfiguration auf einer Datenbank bzw auf einem SQL Server gestolpert, bei der ich immer wieder frage: “Wie kommt man im Jahr 2020/21 auf die Idee an einer Datenbank den Parameter “Auto_Close” auf True zu setzen?” Selbst wenn man diesen Wert seit Jahren und etlichen Versionen “mit sich herumschleppt”, so muss das doch irgendwann mal auffallen… In der Vorbereitung auf diesen Blog-Post habe ich zahlreiche Artikel gefunden, die schon mindestens 10 Jahre alt sind (zum Beispiel) und davon abraten, diesen Konfigurationsparameter auf “true” zu setzen. Aber einmal der Reihe nach, was macht dieser Parameter, was bewirkt er und warum waren manche Dienstleister der Meinung, dass das Aktivieren von AutoClose eine gute Idee sei.

Was ist dieses AutoClose

Gemäß Microsoft Dokumentation

AUTO_CLOSEWenn ON festgelegt wurde, wird die Datenbank heruntergefahren, und die Ressourcen werden freigegeben, wenn der letzte Benutzer die Datenbank beendet hat. Die Datenbank wird automatisch erneut geöffnet, wenn ein Benutzer versucht, die Datenbank nochmals zu verwenden.Wenn OFF festgelegt wurde, bleibt die Datenbank geöffnet, nachdem der letzte Benutzer die Datenbank beendet hat.Diese Option ist für alle Datenbanken auf True festgelegt, wenn Sie SQL Server 2000 Desktop Engine oder SQL Server Express verwenden, und unabhängig vom Betriebssystem auf False festgelegt, wenn Sie eine der anderen Editionen verwenden.
-- Aktivieren der AUTOCLOSE Funktion
USE [master]
GO
ALTER DATABASE [WideWorldImporters] SET AUTO_CLOSE ON WITH NO_WAIT
GO

-- Deaktivieren der AUTOCLOSE Funktion
USE [master]
GO
ALTER DATABASE [WideWorldImporters] SET AUTO_CLOSE OFF WITH NO_WAIT
GO

Heißt also, dass alle Datenbanken die irgendwann mal vor “Jahrzehnten” auf einem SQL Server Express oder einer Desktop Engine erstellt wurden, diesen Parameter (im worst-case seit 20 Jahren) bei jeder Migration mit sich mitnehmen… Warum schaut hier denn kein Admin hin und setzt diesen Wert wieder auf das Optimum “false” )? Natürlich muss ich zumindest daraufhin weisen, dass es unter ganz bestimmten Anwendungsfällen auch sinnvoll sein kann, diesen Parameter zu aktivieren! (dazu später mehr)

Also um das noch einmal im Detail zu erläutern, was AutoClose bewirkt… Die Datenbank schläft eigentlich immer, da Auto_Close aktiviert wurde, dann kommt der User und möchte Daten aus der Datenbank abfragen… dann muss der SQL Server diese Datendateien erst öffnen, einen DBCC CheckDB laufen lassen… die Folge davon ist natürlich ein gewisser Zeitverlust je nach Größe der Datenbank, der allgemeinen Leistung des System und der aktuellen Last auf dem System.

Ich kann mir gut vorstellen, warum man früher der Meinung war, dass die Nutzung dieser Option eine gute Idee war… früher – also rund um den SQL Server 2000 bzw 2005 – gab es noch nicht so performante Systeme und Ressourcen waren teurer, daher hat man sich somit erhofft System-Ressourcen zu sparen und für andere Datenbanken und Applikationen nutzen zu können. Ebenso habe ich gelesen, dass es damals was damit zu tun gehabt haben soll, dass der SQL Server auch auf FAT32-Filesystemen lauffähig (Windows 98) war und es hier Befürchtungen gab, dass Datenbanken “zerstört” werden könnten weil sie eben nicht richtig geschlossen (im Filesystem) wurden.*¹ Und natürlich wie in der Microsoft Dokumentation benannt, war das natürlich bei allen “freien” Versionen der Fall, da hier nur eine CPU genutzt werden konnte, hier dann einer Ressourcen-Knappheit vorgebeugt werden sollte.

SQL-Server - Database Properties - Options - Auto_Close

Worst-case: Performance-Impact

Der worst-case ist natürlich, dass die Aktivierung – ob gewollt, ungewollt oder eben per Default – zu Performancebeinträchtigung des SQL Servers und der nutzenden Applikationen kommt. Durch das ständige Öffnen und Schliessen der Datenbanken und das damit verbundene Überprüfen der Datenbank-Konsistenz. Wie bereits angedeutet, kann es Sinn machen, diese Funktion zu aktivieren, denn es gibt immer Ausnahmen… zum Beispiel könnte ich mir Entwickler-Server vorstellen, bei denen jeder Entwickler seine eigene Datenbank hat und ggfs nicht alle gleichzeitig arbeiten/entwickeln, dann könnte es unter Umständen Sinn machen, diesen Konfigurationspunkt zu verändern. Oder – und hier kommt wieder der Blogbeitrag von Greg*¹ zum Tragen – wenn man einen SQL Server mit vielen Datenbanken hat, die aber nicht alle gleichzeitig genutzt werden (zum Beispiel ein weltweit agierender Händler mit sehr vielen Standorten und jeder Standort eine eigene Datenbank hat). Aber wie immer gilt dann, dass man das testen muss, was ggfs sinnvoller ist, dauernd die Datenbank zu schliessen oder eben offen zu lassen.

Ich hatte zum Beispiel in der letzten Woche einen Kunden mit einem langsamen SQL Server, als ich dort ins Log schaute, waren 90% der Einträge genau die Meldungen “Starting database” und “Shutting down database” (das war nicht das einzige Problem hier), aber eben genau diese Kunden-Situation hat mich dazu bewogen, diesen Beitrag zu schreiben.

Wer jetzt – bei nächster Gelegenheit seine SQL Server überprüfen möchte, dem möchte ich den Blogpost aus dem Jahr 2013 von Rob Sewell ans Herz legen, wo er mit Powershell eine Liste von Servern überprüft und ggfs korrigiert. => SQL Express Migration Auto_Close Setting

*¹ – Thx an Greg Low

aMS Germany 2020 – ein weiterer virtueller Event

Am gestrigen Dienstag durfte ich zwei Sessions auf der aMS Germany 2020 halten, ein virtueller Event organisiert durch mehrere Community-bekannte Größen wie Sascha Fredrich und Martin Gudel. Diese Zusammenarbeit zeigt auch sehr schön, dass es möglich ist solche Veranstaltungen zu organisieren, auch wenn man 100te Kilometer auseinander wohnt. Sascha im Süden von Deutschland (also zumindest für mich – Süden 😉 ) und Martin in Hamburg. Dem Organisationsteam gehörten auch noch Patrick Guimonet an, sowie Mr. OneDrive Hans Brender, gemeinsam haben Sie einen Event erstellt, der insgesamt in 7 parallelen Tracks mit mehr als 50 Session beinhaltet.

Einen Überblick über alle Sprecher und Sessions könnt ihr auf den Schedule-Seiten der Veranstaltung finden. => https://ams-germany-2020.sessionize.com/

meine erste Session – Einstieg in Azure SQL Managed Instance

In dieser Session ging um einen ersten groben Einblick, was die Azure SQL Managed Instance ist, was sie kann und was man für sein Geld bekommt. Begonnen habe ich mit einem ersten Überblick welche Möglichkeiten Azure SQL alles bietet, zum Beispiel das Deployment eines normalen SQL Server in einer Azure virtuellen Maschine oder als Azure SQL Database in den unterschiedlichen Ausprägungen. Weiter ging es mit den verschiedenen Fakten zu aktuellen Features und Fakten rund um die Managed Instance und woran man bei der Vorbereitung und Planung eines Deployments denken sollte.

aMS Germany 2020 - Bjoern Peters - Einstieg in Azure SQL Managed Instance - Beispiele für Features und Capabilities - Business Continuity

In der Demo bin ich einmal ein exemplarisches Deployment einer Azure SQL Managed Instance über das Portal durchgegangen und habe zu den wichtigsten Konfigurationspunkten etwas erklärt, damit alle Teilnehmer der Session verstehen was wichtig ist und was man beachten sollte. In meiner Demo-Umgebung konnte ich abschließend noch zeigen, wie sich die neue Instanz sowohl im SQL Server Management Studio als auch im Azure Data Studio darstellt.

Fragen wurden leider keine gestellt, was darauf hindeutet, dass mein Vortrag verständlich und nicht zu kompliziert war. 😉

meine zweite Session – Change your skills – Überblick über aktuelle Lernpfade und Zertifizierungen

Da ich mich in diesem Jahr verstärkt um das Thema Zertifizierungen gekümmert habe, vor allem meine eigenen, und immer wieder in Gesprächen feststellen musste, das viele hier große Fragen haben, wollte ich hier einmal Licht ins Dunkel bringen. Also ging es in diesem Vortrag um die verschiedenen – unter anderem kostenfreien – Möglichkeiten wie man zum einen Wissen aufbauen kann zu den aktuellen Themen im Microsoft Umfeld, zum anderen wie man mit diesem Wissen sich die dazugehörigen Prüfungen vorbereiten kann.

aMS Germany 2020 - Bjoern Peters - Change your skills - Überblick über aktuelle Lernpfade und Zertifizierungen - von der produktspezifischen Prüfung zur Rollenbasierten Zertifizierung

Microsoft bietet mit Microsoft Learn ein sehr gute Plattform und vor allem in Zeiten der Corona-Pandemie erweiterte Möglichkeiten zur Weiterbildung, wie man hier seinen eigenen Bildungsweg findet und welche Inhalte für wen relevant sind, sowie was man mit diesem Wissen erreichen kann, darum ging es in diesem Vortrag. Ich wollte einen Überblick über die unterschiedlichen Plattformen und Wege aufzeigen mit denen man sich den neuen Herausforderungen in der aktuellen Projektsituation bewähren kann oder eben auf neue, zukünftige Aufgaben vorbereiten kann.

Gerade heute habe ich erst wieder ein längeres Gespräch mit einem Kollegen gehabt, der mich zu den Details in der Vorbereitung und Durchführung einer Microsoft Prüfung aus dem Home-Office heraus befragte. Ich erklärte im die wichtigen Punkte beim System-Test, dem CheckIn-Prozess und auf was man achten muss, wenn man die Prüfung aus den eigenen vier Wänden angehen möchte. Denn Microsoft hat diese Möglichkeit eingeräumt bzw ausgeweitet, damit viele neue Teilnehmer – trotz geschlossener Prüfungscenter – und gerade bei Kurzarbeit oder Unternehmungsschließung sich auf neue Abenteuer vorbereiten kann.

Hierzu gibt es auch eine neue Zusammenarbeit zwischen Microsoft und Linkedin, bei der es darum geht, Arbeitssuchenden oder Umschulungswilligen eine Plattform zu bieten, auf einfachen und unkomplizierten Wegen sich Wissen anzueignen und so sich Vorteile auf dem Arbeitsmarkt zu verschaffen.

meine Präsentationen der aMS Germany 2020

Mir haben diese beiden Vorträge – sowohl in der Vorbereitung und der Durchführung – sehr viel Spaß gemacht, ich hoffe ich konnte zumindest einem Teilnehmer ein wenig helfen. Vielen Dank den Organisatoren und Sponsoren der #aMSGermany2020.

Das Azure Meetup Hamburg im Juli 2019

Im Juli ist es nicht wie gewohnt der dritte Dienstag im Monat, sondern schon der zweite… natürlich mit einer gewissen Rücksicht auf die Ferien 😉 Also sind es nur noch knapp 10 Tage bis zum nächsten Azure Meetup in Hamburg… wir bekommen wieder Besuch von Microsoft Deutschland aus München, Andre Essing (Microsoft TSP) wird bei uns sein. Als ehemaliger MVP und immer noch stetiger Begleiter in der europäischen Data-Platform-Community ein immer wieder gern gesehener Gast, der mit seinem Know-How und seiner Erfahrung viel Wissen weitergeben kann. Daher freue ich mich sehr auf diesen sicherlich spannenden Abend mit euch.

Wir hatten zwar noch kurz inhaltlich diskutiert – hatte ich beim Juni-Meetup auch kurz angedeutet – ob wir noch was zu CosmosDB an diesem Abend machen sollen oder nicht, gemeinsam mit Andre sind wir aber zu dem Schluss gekommen, dass hier die Tiefe und Länge der zur Verfügung stehenden Zeit nicht ausreichen würde, um einer CosmosDB gerecht zu werden. Somit werden wir im Juli erst einmal nicht über CosmosDB reden, sondern “nur” über Modern Datawarehouse und Databricks.

Modern Datawarehouse and Databricks - Andre Essing - Azure Meetup Hamburg
Modern Datawarehouse and Databricks – Andre Essing – Azure Meetup Hamburg

Anmelden könnt ihr euch – wie gewohnt und natürlich kostenfrei über die Meetup-Seite des Azure Meetups in Hamburg
Hier geht es direkt zu unserer Juli Veranstaltung
Zwar gibt es mittlerweile eine Warteliste, aber es lohnt sich bestimmt auch dort einzutragen, da die Erfahrung gezeigt hat, dass der ein oder andere noch kurzfristig absagt, weil ihm/ihr etwas dazwischen gekommen ist. Also “aufpassen”!

Hier kommt der Abstract für das Meetup, damit ihr wisst worum es gehen soll 😉

Es gibt eine Menge Wege und Möglichkeiten Mehrwerte aus seinen Daten zu ziehen. Seit Jahren machen wir das mit den gleichen Techniken in unseren “klassischen” Data Warehouse Umgebungen. Aber die Welt ist im steten Wandel und so auch die Daten.

Wo die Daten vor ein paar Jahren noch ausschließlich strukturiert waren, wächst die Zahl von schemalosen Datentypen ins unermessliche, und eine Ende ist nicht in Sicht. Wir kämpfen mit Daten, bei denen sich ständig das Schemata ändert und versuchen Mehrwerte aus neuen Datentypen wie Soziale Medien, Videos und Bildern zu ziehen.

In dieser Whiteboard Session möchte ich mit euch über moderne Wege sprechen, Ihre Daten zu speichern, zu analysieren und zu visualisieren. Zusammen zeichnen wir ein Modern Data Warehouse, schauen uns an welche Möglichkeiten sich bieten verschiedenste Daten zu analysieren und warum uns die Cloud hier hilft.

Von Datawarehouse, über BI, hin zur modernen Datenanalyse und künstlicher Intelligenz – Azure Databricks, die Eierlegende Wollmilchsau

Hast Du schon von Azure Databricks, dem neuen Mitglied in der Azure Big Data Familie, gehört? Es wäre falsch von mir, Azure Databricks nur als einen verwalteten Apache Spark Dienst zu bezeichnen, da Databricks so viel mehr bietet.

Neben dem Transformieren von Daten kann Databricks nicht nur Deine Daten analysieren und streamen, es kann auch Deine ETL-Prozesse abbilden, Machine Learning Modelle trainieren und zur Exploration von Daten genutzt werden. All das steckt im leistungsstarken Kern von Databricks, gepaart mit einer integrierten Entwicklungsumgebung.

Als “First-Class Citizen” in Azure ist Databricks ein “Platform as a Service”-Angebot, das es jedem ermöglicht, Big Data für sich zu nutzen.

Selbstverständlich, sind die ersten Schritte mit einer neuen Technologie die schwierigsten. Genau deshalb möchte ich mir mit euch in dieser Session ansehen, wie man Azure Databricks bereitstellt. Du lernst wie man Cluster konfiguriert, zeitgesteuerte Jobs einplant, auf Sicherheit achtet und vieles mehr.

https://www.meetup.com/de-DE/Azure-Meetup-Hamburg/events/hhtbxqyzkbvb/