Azure SQL Database – Lasttest der TempDB

Auf Facebook wurde ich gefragt, wie leistungsstark denn die “TempDB” einer Azure SQL Database wäre bzw sehr man diese belasten könne… also was liegt näher als die “TempDB” mit einem Lasttest zu verproben. Also habe ich über die Suchmaschine meines Vertrauens eine einfache und schnelle Möglichkeit gesucht, wie man explizit die “TempDB” belasten kann. Bei SQLServerCentral bin ich dann fündig geworden => Load Generator for TempDB

CREATE PROC EXERCISE_TEMPDB_SILLY AS
   SET STATISTICS TIME ON
   SET STATISTICS IO ON
 
   CREATE TABLE #temp(RecNo INT PRIMARY KEY CLUSTERED, DATA VARCHAR(80))
 
   INSERT INTO #temp SELECT -1, CAST(NewID() AS VARCHAR(80))
 
   DECLARE @cnt AS INT
   SET @cnt = 0
 
   WHILE @cnt > -1
   BEGIN
      Print 'Loop ' + CAST(@cnt AS VARCHAR(9))
 
      INSERT INTO #temp 
      SELECT RecNo-POWER(2,@cnt) , RIGHT(DATA + CAST(NewID() AS VARCHAR(80)), 80)
      FROM #temp
 
      SET @cnt = @cnt+1
   END

Mit dieser Stored Procedure wird eine temporäre Tabelle in der “TempDB” erstellt und diese mit einfachen Werten befüllt, damit diese Werte nich “stupide” Hochzählen werden diese mit Rechenoperationen manipuliert. Da diese While-Schleife keinen Exist hat, läuft dieser Insert-Befehl in einer Endlos-Schleife mit dem Ziel die Grenze der TempDB zu ermitteln, da sich die Anzahl der einzufügenden Datenzeilen mit jedem Loop erhöht. Ein Kommentar in dem Forumsbeitrag deutet darauf, dass der Verprober auf seinem SQL Server 21 Loops geschafft hat, was ein erster Anhaltspunkt ist. Meine Azure VM mit SQL Server 2016 (Standard DS12 v2 (4 vCPUs, 28 GB memory)) schafft innerhalb von 2 Minuten 23 Loops…

Azure SQL Database - Lasttest

 

Lasttest-Bedingungen

Meine erste Tests zeigten, dass die Anzahl der Loops tatsächlich in einem gewissen Bereich liegen bzw eine gewisse Zeit benötigen, daraus machte ich einen einheitlichen Test von 2 Minuten… heißt das ich nach 2 Minuten Laufzeit auf den “STOP”-Knopf drücke, um somit die Ausführung der Stored Procedure zu unterbrechen bzw abzubrechen. Nachdem der SQL Server die Ausführung beendet hat, habe ich die Anzahl der durchlaufenen Loops ermittelt.

Loop 1 ergab 1 Insert
Loop 2 ergab 2 Inserts
Loop 3 ergab 3 Inserts
Loop 4 ergab 8 Inserts
[…]
Loop 10 ergab 512 Inserts
Loop 11 ergab 1024 Inserts
Loop 12 ergab 2048 Inserts
[…]
Loop 18 ergab 131072 Inserts
[…]
Loop 20 ergab 524288 Inserts
Loop 21 ergab 1048576 Inserts
Loop 22 ergab 2097152 Inserts
Loop 23 ergab 4194304 Inserts
Loop 24 ergab 8388608 Inserts

Wie man sehen kann hat die Datenbank bzw die TempDB ganz schön viel Daten zu verarbeiten, was auf deren Leistungsfähigkeit schließen lässt. Dieser Test soll erst einmal nur einen Anhaltspunkt für die Belastungsgrenzen aufzeigen… Die kleineren Leistungsklassen der Azure SQL Databases haben bei diesem Lasttest gezeigt, dass sie nach einer gewissen Anzahl Insert bzw Loops einfach am Ende sind und nicht mehr oder nur noch bedingt in der Lage sind Daten zu verarbeiten/aufzunehmen. Überrascht war ich in den höheren Leistungsklassen wie schnell die Inserts erfolgten und diese konnten sicherlich noch mehr Daten aufnehmen, hätte ich die Laufzeit des Testes erweitert (was ich sicherlich zu einem späteren Zeitpunkt nochmal machen könnte).

Lasttest-Ergebnis-Vergleich

Leistungsklasse Anzahl Loops Anzahl Inserts
Azure SQL Database S0 18 131072
Azure SQL Database S1 18 131072
Azure SQL Database S3 22 2097152
Azure SQL Database S9 25 16777216
Azure SQL Database P1 23 4194304
Azure SQL Database P6 24 8388608
Azure SQL Database P15 24 8388608
Azure SQL Database PR1 23 4194304
Azure SQL Database PR6 24 8388608
Azure SQL Server
(Standard DS12 v2 (4 vCPUs, 28 GB memory))
24 8388608
Azure SQL Server
(Standard DS15 v2 (20 vCPUs, 140 GB memory))
24 8388608

Wie man an der Ergebnis-Tabelle erkennen kann, sind die Unterschiede zwischen den höheren Leistungsklassen und den bewährten SQL Servern nicht sonderlich groß bzw gar nicht vorhanden. Was entweder heißt, man kann die Azure SQL Databases genau so stark belasten wie einen herkömmlichen SQL Server oder aber sie erreichen genauso schnell ihre Limits. Mein persönlicher Eindruck ist eher, dass die höheren Klassen bei diesem Lasttest noch mehr leisten können, wenn man ihnen mehr Zeit gibt. Anders herum würde ich sagen, dass man die Azure SQL Databases ohne zu zögern und ohne Bedenken mit einem “normalen” SQL Server mit SSDs vergleichen kann.

Azure SQL Database - Lasttest - TOP Ergebnis

Fazit des Lasttests

Aus aktueller Sicht würde ich jedem die Nutzung von Azure SQL Databases im Vergleich zu herkömmlichen SQL Servern empfehlen, sofern die Solution und das Umfeld/der Kunde dies ermöglichen.

Björn arbeitet in Hamburg als Datenbank-Administrator und Head of Competence für MS SQL und mySQL. Er nimmt regelmäßig an den PASS Regionalgruppen Treffen in Hamburg, den Veranstaltungen der PASS wie SQLSaturday und SQLGrillen teil und er organisiert in Hamburg das Azure Meetup. Er interessiert sich neben den Themen rund um den SQL Server, Powershell und Azure für Science-Fiction, Snowboarden, Backen 😉 und Radfahren.

Pause / Resume / Backup einer Azure SQL Database mit Powershell – Teil 3

Viele Services in Azure erlauben durch Automatisierung eine gewisse Kostenersparnis, wie man das mit dem Platform-as-a-Service “Azure SQL Database” erreichen kann, darum geht es in diesem Blogbeitrag. Ganz so einfach wie z.B. beim Azure Analysis Service ist es hier leider nicht, denn es gibt eigentlich keine Pause-Resume Funktionalität – wie hier das Backup mitspielt, dazu kommen wir als erstes.

Azure SQL Database und das Thema Backup

Bevor wir einsteigen in das Thema Azure SQL Database und dessen Pause-Resume-Funktionalität müssen wir vorher kurz einen Blick auf das Thema Backup werfen, welches in diesem Zusammenhang nicht ganz unwichtig ist. Einen großen Vorteil gegenüber einem SQL Server (onpremise oder IaaS) hat die Azure SQL Database auf jeden Fall… man muss sich nicht explizit um das Backup kümmern, da dieses automatisch erstellt wird. Soll heißen, je nach Datenbank-Größe und dem Aufkommen von Datenveränderungen sichert Microsoft automatisch die Datenbanken in regelmäßigen Abständen! Was heißen soll, die Kosten für eine extra Backup-Software oder gar die Entwicklung eigener Services fallen schon einmal weg. Je nach PerformanceLevel gibt es unterschiedliche Backup Retention Zeiten:

  • beim Basis Level beträgt die Aufbewahrungszeit 7 Tage.
  • beim Standard Level beträgt die Aufbewahrungszeit 35 Tage.
  • beim Premium Level beträgt die Aufbewahrungszeit 35 Tage.

Wann wird meine Datenbank denn aber nun gesichert? Auch darauf gibt es eine Anwort…
Das Full-Backup erfolgt jede Woche (leider) zu nicht fest definierten Zeiten, differentielle Backups werden generell alle paar Stunden erstellt und eben je nach Datenaufkommen erfolgt die Sicherung der TransaktionsProtokolle alle 5-10 Minuten. Ein erste Voll-Sicherung wird innerhalb der ersten 30 Minuten nach Erstellung der Datenbank erstellt. Diese Sicherungen werden entsprechend des Service-Tiers (siehe oben) aufbewahrt (Kostenersparnis : man braucht keinen extra Storage-Account, da das Backup bereits im Preis inkludiert ist). Möchte man sein Backup aber länger als 35 Tage aufbewahren, so hat man die Möglichkeit ein “Long-Time-Retention-Backup” zu aktivieren, hierzu ist ein weitere Storage-Account notwendig auf dem dann die Backups parallel abgelegt werden und eben dauerhaft abgelegt werden können.

Backup Azure SQL Database

Pause und Resume zwecks Kostenersparnis

Diese Funktionalität gibt es leider bei Azure SQL Database nicht… Wie kann ich trotzdem eine Kostenersparnis erwirken, wenn ich diesen Platform-as-a-Service verwenden möchte… natürlich kann man – wie bereits in einem anderen Blogpost erläutert – die Datenbank Performance verändern, um die auftretenden Lastspitzen abzufangen. Aber wir möchten doch eigentlich mit der Migration in die Cloud auch eine gewisse Kostenersparnis erreichen… wenn die Fachabteilung nur tagsüber arbeitet (8-20 Uhr), dann brauche ich diese Datenbank(n) doch während der Nacht nicht… kann man die dann nicht einfach stoppen, da man doch nur zahlt, wenn die Datenbank online ist?

Für genau dieses Szenario – die Fachabteilung braucht die Datenbank nur tagsüber – gibt es eigentlich keine Lösung, aber einen Workaround, denn hier hilft abends nur ein “Drop Database” und am nächsten Morgen  ein “Create Database from Backup”. Aber dieses Vorgehen hat Microsoft ausgesprochen angenehm gelöst und bedeutet keinen großen Aufwand.

# Dropping DB to stop costs
Get-AzureRmSqlDatabase -ResourceGroupName $resourcegroupname -ServerName $servername -DatabaseName $databasename -ev notPresent -ea 0
if ($notPresent) {
    Write-Host $databasename "already deleted" 
} else {
    Remove-AzureRmSqlDatabase -ResourceGroupName $resourcegroupname -ServerName $servername -DatabaseName $databasename
}

Hierzu sollte man beachten, dass man nur die Datenbank löscht/entfernt und nicht den logischen Server, denn die Backup-Historie hängt am Server. Man benötigt also das Datum des letzten Backups um diese Datenbank wieder herzustellen. Beim Neu-Erstellen der Datenbank am folgenden Morgen nutzt man dann diesen Backup-Zeitpunkt, um damit direkt einen Restore durchzuführen. In Powershell kann man diese Tätigkeiten sehr einfach kombinieren.

$deleteddatabase = Get-AzureRmSqlDeletedDatabaseBackup -ResourceGroupName $resourcegroupname -ServerName $servername #-DatabaseName $databasename
$deleteddatabase
# Do not continue until the cmdlet returns information about the deleted database.
 
Restore-AzureRmSqlDatabase -FromDeletedDatabaseBackup `
    -ResourceGroupName $resourcegroupname `
    -ServerName $servername `
    -TargetDatabaseName $databasename `
    -ResourceId $deleteddatabase.ResourceID `
    -DeletionDate $deleteddatabase.DeletionDate `
    -Edition "Standard" `
    -ServiceObjectiveName "S0"

Weitere Beispiele-Skripte zum Thema Backup/Restore findet ihr hier => https://docs.microsoft.com/de-de/azure/sql-database/scripts/sql-database-restore-database-powershell

Björn arbeitet in Hamburg als Datenbank-Administrator und Head of Competence für MS SQL und mySQL. Er nimmt regelmäßig an den PASS Regionalgruppen Treffen in Hamburg, den Veranstaltungen der PASS wie SQLSaturday und SQLGrillen teil und er organisiert in Hamburg das Azure Meetup. Er interessiert sich neben den Themen rund um den SQL Server, Powershell und Azure für Science-Fiction, Snowboarden, Backen 😉 und Radfahren.

Deutschlandweite Azure Meetups – die Azure Offline Community

In den letzten Monaten haben sich deutschlandweit zahlreiche Azure Usergruppen (aka Azure Meetups) gebildet, um dem wachsenden Interesse an der Microsoft Cloud Azure gerecht zu werden. Diese lokalen Usergruppen bieten jedem Interessierten eine Anlaufstelle zu allgemeinen oder speziellen Bereichen des Azure Portfolios, hier findet jeder einen Wissenden und kann sich mit anderen “Infizierten” über dieses spannende Thema austauschen.

Meetups zu Microsoft Azure in Deutschland

Diese lokalen Usergruppen sind unabhängig von Microsoft und organisieren sich selbst, selbstverständlich gibt es eine gewisse Nähe zu Microsoft, welche aber nur rudimentär ist. Die Usergruppen nutzen in der Regel die Meetup-Plattform zur Organisation und Informationsweitergabe an die Interessenten, auch ist jeder Teilnehmer – sofern er denn unterwegs ist – in jedem Azure Meetup ein gern gesehener Gast. Abhängig von der Region und dem Einzugsgebiet sind die einzelnen Treffen größer und kleiner, aber alle Organistoren geben sich größte Mühe eine informative und interessante Veranstaltung bereitzustellen. Durch die Nutzung der Meetup-Plattform entsteht auch ein “neuer” Name, anstatt Usergroup-Treffen heißt es jetzt einfach nur noch Meetup => Azure Meetup.

Je nach “Alter” der Meetup Gruppe verfügen die einzelnen Organistoren über Sponsoren, bei den die Events stattfinden oder welche die Events mit Snacks, Getränken oder Sprechern unterstützen.
Falls jemand Interesse hat und an einem solchen Event teilzunehmen, meldet sich bitte über die Webseite Meetup.com an und sucht sich die gewünschte Veranstaltung heraus und “RVSP”ed dort dann, so hat das Orga-Team einen Überblick über die Teilnehmerzahl und wer alles teilnimmt. Einen Nachteil haben solche Meetups für (uns) die Organisatoren, je nach Ballungszentrum bzw Einzugsgebiet und anderen Faktoren schwankt die sogenannte “No-Show-Rate” zwischen 20 und 60 Prozent… heißt es melden sich weit mehr Teilnehmer an, als tatsächlich erscheinen, was unter Umständen zu Problemen mit dem Sponsor oder dem Caterer führen kann.

StockSnap - Nerds lieben ihre Technik und Bier ;-)

Im Vergleich zu Online-Community wie zum Beispiel die “Azure Community Deutschland“, welche sich eben online zu den diversen Themen rund um die Microsoft Cloud austauschen. Ein Teil dieser Online-Community ist auch Teil der Offline-Community, so dass sich hier gewisse Schnittmengen ergeben und man sich gegenseitig kennt und unterstützt.

Microsoft hat uns in der letzten Woche zu einem “Come-together” aller Azure Meetup Organisatoren eingeladen und die Möglichkeit gegeben, dass wir uns mal gegenseitig kennenlernen bzw uns über unsere Erfahrungen mit der Meetup-Plattform und/oder der Organistation solcher Veranstaltungen auszutauschen. So dass wir in Zukunft uns untereinander besser unterstützen können, sowie ein entsprechendes Netzwerk in Deutschland aufbauen können. Unter den Organisatoren gibt es auch eine Vielzahl von Experten, Microsoft MVPs, Cloud-Dienstleister oder auch nur einfach “nur” Community-Begeisterte, man kann also behaupten, dass diese Azure Offline Community ein gewisses “Rückgrat” hat und daher ein qualifiziertes Anlaufpunkt ist für Neulinge in Sachen Cloud.

Wenn Sie also Interesse an der Microsoft Cloud haben und sich in Zukunft über die vielfältigen Möglichkeiten, Techniken und spannenden Erfahrungen beschäftigen möchten, so kommen Sie doch einfach mal zu einem unserer Meetups. Wir heißen Sie dort herzlich willkommen und freuen uns mit Ihnen gemeinsam ein Stück des Weges gehen zu können/dürfen.

das neue Meetup Logo

Björn arbeitet in Hamburg als Datenbank-Administrator und Head of Competence für MS SQL und mySQL. Er nimmt regelmäßig an den PASS Regionalgruppen Treffen in Hamburg, den Veranstaltungen der PASS wie SQLSaturday und SQLGrillen teil und er organisiert in Hamburg das Azure Meetup. Er interessiert sich neben den Themen rund um den SQL Server, Powershell und Azure für Science-Fiction, Snowboarden, Backen 😉 und Radfahren.

Microsoft Cloud Deutschland – Rechtliche Aspekte und Datenschutz

Im Rahmen unseres monatlichen Azure Meetups in Hamburg hatten wir dieses Mal Besuch aus Köln, Raphael Köllner kam extra für unser Meetup um über die rechtliche Aspekte und den Datenschutz in der neuen Microsoft Cloud Deutschland zu sprechen. Raphael ist ein Exot unter uns “Insidern”… er kennt sich nicht nur in der IT aus, er ist Windows Insider MVP und Office Server und Services MVP, sondern er ist auch noch Rechtswissenschaftler für IT- und IP-Recht und Wissenschaftlicher Mitarbeiter in einer Rechtsanwaltskanzlei. Somit kann er uns, der Azure-Community, Einblicke sowie wichtige Inhalte der einzelnen Vertragsinhalte optimal näherbringen.

Trumps Einfluss auf die Microsoft Cloud Deutschland

Die Executive Orders die Trump in den letzten Tagen und Wochen erlassen hat, betreffen uns nicht direkt, aber leider die vertraglichen Inhalte mit Microsoft und somit uns indirekt. Hier unter dem Namen “Privacy Shield Framework” wurde unter anderem der Paragraf/die Sektion 14 angepasst, hier geht es mehr oder weniger um den Datenschutz amerikanischer Staatsbürger im Vergleich zu Nicht-Amerikaner, Herr Trump hebt den Schutz der persönlichen Daten ausländischer Einreisewilliger auf.

Social media passwords are to be called upon entry

14-2985: Microsoft Corp. v. United States – Der Supreme Court hat die Urteile aus dem Juli 2016 bestätigt, Microsoft muss keine Kundendaten, die in einem Rechenzentrum einer Tochterfirma in Dublin gespeichert sind an die US Behörden weitergeben, der Stored Communication Act ist nicht anwendbar.
Das lässt zumindest in soweit hoffen, dass auch die europäischen Datenschutz-Rechte unangetastet bleiben.

Datenschutz in der Microsoft Cloud Deutschland

Durch die europäischen Datenschutzgesetze und die weiterreichenden deutschen Datenschutzbestimmungen in Verbindung mit den technischen Gegebenheiten hat ausser dem Kunden selber kein anderer Zugang zu den sensiblen Kundendaten, dies wird durch die spezifische deutsche Zertifizierungen und durch das Lockbox-Verfahren gesichert. Weitere Vorteile für die Nutzung der deutschen Microsoft Cloud liegen in der lokalen Datenverarbeitung und den besseren Latenzen und somit Geschwindigkeitsvorteilen.

Einzig bei den Verträgen sollte man genauer ins Detail schauen, da hier unter Umständen einige Haken versteckt sind, was aber nur für Reseller/Hoster/Softwareanbieter o.ä. relevant ist, da diese ihre eigenen Verträge on-top setzen. Wichtig anzumerken ist hier, dass es sich um einen Dreiecksvertrag handelt… man schliesst eigentlich einen Vertrag mit dem deutschen Treuhänder (T-Systems) ab, wenn man aber alle relevanten Vertragsunterlagen durchliest, stellt man fest dass neben T-System und Microsoft z.B. auch die Deutsche Telekom AG und weitere Töchtergesellschaften mit im Boot ist.

Microsoft Cloud Datenschutz 21.02.2017 - Unterauftragsverhältnis

 

Technisch gesehen ist die Microsoft Cloud Deutschland nahezu identisch mit anderen Azure Clouds also der Public Cloud von Microsoft, aber eben doch anders… denn hier werden nicht alle Servervarianten (IaaS) angeboten, einige Software-Produkte werden erst verspätet angeboten/implementiert und auch die Preise liegen im Vergleich zur Public Cloud etwas höher. Man muss also tatsächlich den Einzelfall überprüfen, für welches Szenario der Umstieg bzw Einstieg in die Microsoft Cloud Deutschland Sinn macht, ob man wirklich alle diese (in der Hauptsache) Datenschutz-relevanten Punkte braucht und wie man diese in seine Lösung einbinden kann.

Ich möchte mich nochmal bei Raphael Köllner recht herzlich bedanken für seinen fundierten und detailreichen Vortrag danken. Die Slides seines Vortrages findet ihr hier auf meinem Blog => Slides aus den Azure Meetups

Wenn ihr Interesse an weiteren Themen rund um Azure und die Microsoft Cloud Deutschland habt, dann kommt doch einfach mal zu einem Azure Meetup vorbei… für alle Hamburger bzw Nordlichter empfehle ich das Azure Meetup Hamburg ansonsten sucht euch bitte eine passendes Meetup je nach Wohnort hier raus, denn die Azure Meetups der Community gibt es deutschlandweit.

Björn arbeitet in Hamburg als Datenbank-Administrator und Head of Competence für MS SQL und mySQL. Er nimmt regelmäßig an den PASS Regionalgruppen Treffen in Hamburg, den Veranstaltungen der PASS wie SQLSaturday und SQLGrillen teil und er organisiert in Hamburg das Azure Meetup. Er interessiert sich neben den Themen rund um den SQL Server, Powershell und Azure für Science-Fiction, Snowboarden, Backen 😉 und Radfahren.

Azure Meetup – Erfahrungsbericht und Einblicke bei Microsoft

In der letzten Woche hatte ich die Ehre/das Vergnügen mein erstes Azure Meetup in Hamburg bei Microsoft zu veranstalten. Wie bereits in einem meiner letzten Beiträge verkündet, gibt es nun auch in Hamburg ein Azure Meetup. Innerhalb von rund vier Wochen hatten sich etwa 90 Mitglieder angesammelt und ihr Interesse an dem Thema Azure bekundet und mehr als 60 (am Nachmittag der Veranstaltung) wollten erscheinen. Am Montag Nachmittag musste ich sogar die Teilnehmerzahl auf 65 begrenzen, sonst hätte man mir den Raum “gesprengt”. Laut der Webseite waren es dann 57 Teilnehmer, vor Ort konnte ich etwa 50 Interessierte begrüßen.

Begrüssung Azure Meetup Hamburg - November 2016

Aufgrund von Terminschwierigkeiten mussten wir kurzfristig die Reihenfolge tauschen, da Sia am nächsten Morgen einen Kundentermin hatte und uns frühzeitig verlassen musste. Aber wir sind da ja flexibel und ich freute mich überhaupt, dass er trotz der widrigen Umstände und Zeitknappheit erschienen ist und seinen Erfahrungsbericht zum Umzug einer On-Premise Application nach Azure gehalten hat. VIELEN DANK dafür nochmal an Sia für diesen Einsatz!

Erfahrungsbericht von Sia Ghassemi

Sia erzählte uns viele interessante Punkte, welche vor Beginn der eigentlichen Migration nach Azure zu beachten waren, welche Hürden in seinem Projekt überwunden werden mussten und wie sie nach einem recht beschwerlichen Weg doch noch (mehr oder weniger) ans Ziel gekommen sind. Dass einige Teile der Applikation umgeschrieben werden mussten, andere komplett umgeschrieben wurden, damit sie in Azure performanter und stabiler laufen als zuvor. Sein Vortrag war eine perfekte Mischung aus Einblicken, Ideen, Beispielen und wahren “Begebenheiten”, seinem Vortrag zu lauschen war alles andere als langweilig. Dass letztendlich die Applikation nicht mehr in Azure läuft, lag nicht an Azure oder an Sia, sondern an anderen Randbedingungen welche leider nicht so ohne weiteres beseitigt werden konnten.

Sia Ghassemi mit einem Erfahrungsbericht zur Migration nach Azure

Sozusagen als Begrüßungsgeschenk haben wir von Microsoft Pizza und Bier erhalten, welche reichlich und gerne verspeist wurde. Ich denke alle Teilnehmer konnten auch unserem zweiten Teil des Azure Meetups gestärkt und gesättigt zuhören. Im zweiten Teil hielten Sebastian Klenk und Malte Lantin (beide Microsoft Technical Evangelisten) einen zwei geteilten Vortrag zu den neuen Azure Functions und zur Microsoft internen Nutzung von Azure.

Einblick und Überblick über die Microsoft interne Nutzung von Azure

Sebastian erläuterte anhand zahlreicher Folien, Zahlen und Beispielen sehr gut die vielfältige Nutzung der Azure Cloud bei Microsoft selber. Seinen Vortrag leitete er ein, in dem er erst einmal einen groben Überblick über die Möglichkeiten von Azure zeigte.

Azure Meetup Hamburg - MSFT Intro - Azure Services

Hier kommen ein paar Zahlen aus dem Vortrag 😉

Bei Microsoft nutzen weltweit etwa 120.000 Mitarbeiter die internen und externen Services von Azure => 29.000 Devices werden in Intunes gemonitored, ~400 Apps werden im Unternehmensportal angeboten, 150.000 Devices im Exchange Active Sync. Im Monitoring laufen täglich etwa 7 Milliarden Security Event-Meldungen auf und Microsoft verwaltet im Azure System Center etwa 330.000 Geräte, ob dies ein Microsoft Surface ist, ein Microsoft Lumia Handy oder ein “normaler” Arbeitsplatz oder sogar ein Fremdgerät (BYOD) spielt keine Rolle.

Microsoft intern nutzt in Azure ~19.000 virtuelle Maschinen zum Beispiel für Entwicklung und Tests, aber auch für Monitoring-Zwecke, desweiteren rund 5.000 SQL Instanzen als Datenquellen oder Datensenken.

die neuen Azure Functions

Malte gewährte noch einen Überblick in die brandneuen Azure Functions und zeigte uns eine kurze aber eindrucksvolle Demo, wie einfach und schnell man diese Functions erstellen und aktivieren kann. In seinen Erläuterungen ging auch darauf ein, dass die Zukunft eben Serverless sein wird, zumindest aus Sicht von Microsoft und der OnPrem-WebService aussterben wird. Denn mittels der Azure Functions lassen sich Funktionsaufrufe sehr schnell und unkompliziert deployen und das vor allem kostengünstig.

Bei den Azure Functions werden Ereignis-getriggerte Computefunktionen skalierend ausgeführt und man zahlt nur die tatsächliche Nutzung der Functions => also nur pro Aufruf/Ereignis-Trigger. So lassen sich in Zukunft eine Vielzahl von Funktionen kurzfristig und kostengünstig umsetzen, da man sich nicht erst mit einer geeigneten Infrastruktur beschäftigen muss.

Unser nächstes Azure Meetup : 13. Dezember ebenfalls bei Microsoft Hamburg

Alle IT Begeisterten und Azure-Freunde sind recht herzlich eingeladen, Simon Schwingel wird eine sehr interessanten Vortrag präsentieren, wie man die Migration einer SQL Server Landschaft nach Azure plant und durchführt bzw durchführen könnte.

Björn arbeitet in Hamburg als Datenbank-Administrator und Head of Competence für MS SQL und mySQL. Er nimmt regelmäßig an den PASS Regionalgruppen Treffen in Hamburg, den Veranstaltungen der PASS wie SQLSaturday und SQLGrillen teil und er organisiert in Hamburg das Azure Meetup. Er interessiert sich neben den Themen rund um den SQL Server, Powershell und Azure für Science-Fiction, Snowboarden, Backen 😉 und Radfahren.