Optimierung der TempDB für bessere Performance

Ich wurde gerade via E-Mail nach der optimalen Konfiguration der TempDB gefragt, daher möchte ich hier die Gelegenheit nutzen, meine persönliche Erfahrung und Best-Practice darstellen, denn im Grunde wiederholt sich alles und es gibt sicherlich technisch ausführlichere Darstellungen als meine folgende 😉

Ich möchte im folgenden meine Standard-Konfiguration für die TempDB auf allgemeinen SQL Servern (ab SQL Server 2016/2017) vorstellen und daraufhin weisen, dass es natürlich Abweichungen geben kann/sollte, die je nach Anwendung, Anforderungen oder Systemen davon abweichen können. Wenn mich ein Kunde nach einem “0815” SQL Server fragt, auf dem er mehrere gemischte Applikationen betreiben kann, dann erhält er von mir diese Konfiguration als Empfehlung.

Und natürlich sollte man sich bewusst sein, dass die TempDB eine System-Datenbank und für den Betrieb des SQL Servers unerlässlich ist, also eine gewisse Kenntnis und Vorsicht sollte vorhanden sein!

Festplatten für die TempDB

Die TempDB besteht wie alle Datenbanken auf einem SQL Server mindestens aus einer Datendatei und einem Transaktionsprotokoll, mittlerweile sollte allgemeinhin bekannt sein, dass man Datendateien und Transaktionsprotokolle – aufgrund des unterschiedlichen Schreib-Lese-Verhaltens – voneinander trennt, dies ist natürlich auch bei der TempDB der Fall.

Idealerweise liegt die TempDB auf einer eigenen Platte (und ich rede hier von einer eigenständigen Platte und nicht einer Partition) und verfügt idealerweise über einen eigenen Storage-Controller, dies hat nicht nur Bedeutung für die Performance des SQL Servers sondern auch administrative Vorteile… in der TempDB kann theoretisch jeder User unzählige eigenen Objekte anlegen, Daten ablegen, Gruppieren oder Sortieren, also eine ganze Menge Daten dort “speichern”, heißt das Datenfile der TempDB kann enorm wachsen… wenn dies jetzt auf der selben Platte wie die User-Datenbanken liegt… könnte man sehr schnell in ein Problem laufen!

Da die TempDB eigentlich eher selten Transkationen protokollieren möchte/muss, kann das Transaktions-Protokoll der TempDB gerne auf dem Laufwerk der allgemeinen Laufwerk für die Transaktionsprotokolle abgelegt werden.

Fazit => Wir brauchen also eine sehr performante Platte – in einer Azure VM ist es immer die performanteste Platte, die lokale SSD.

Aber wie groß soll diese Platte werden? – Das ist immer schwierig zu sagen, sollte man die Platte so dimensionieren, dass die größte Datenbank (theoretisch) hineinpasst, oder der größte Index… das ist schwierig zu sagen, meine Empfehlung ist meistens => Schauen Sie sich die Gesamtgröße ihrer User-Datenbanken an und orientieren sich daran.

Beispiel:
Alle Datendateien der User-Datenbanken auf dem SQL Server haben in Summe eine Größe von 365GB, die Größe der Transaktionsprotokolle spielt hierfür erst einmal keine Rolle.

dann nehme ich diese Größe als 100% Data an und um nicht in ein Problem zu laufen, addiere ich einen Puffer von 25%, dann habe ich die Größe der Daten-Platte => 365GB + 25% = 456GB (ich rechne noch gerne in den “alten” Plattenkapazitäten, die es zu kaufen gab), also würde ich meinem Kunden empfehlen dem SQL Server eine Festplatte von 450-480GB für die Datendateien der User-Datenbanken zur Verfügung zu stellen.

Davon ausgehend errechne ich die Größen für die TLog-Platte und die TempDB => je nach Vorgespräch und Nutzungsverhalten der Applikationen empfehle ich eine Größe der Platte für diese Systemdatenbank zwischen 25 und 33 Prozent von Data, in unserem Beispiel dann 120-160GB.

Konfiguration der TempDB

Nun kann man mittlerweile im Rahmen des SQL Server Setups zweierlei Dinge tun

  • Berechtigungen des SQL Server Service-Users für “Instant File Initialization” vergeben
  • TempDB Konfiguration anpassen
TempDB-Konfiguration - SQL Server 2019 Setup - Screenshot

Hier ist es eine gute Empfehlung einfach mit den Vorgaben von Microsoft weiterzumachen, oder den Best-Practices zu folgen. 😉

Zum einen ist “Instant File Initialization” für das Handling der Datendateien relevant, sollte man also auf jeden Fall die Berechtigungen für den SQL Server Service-User setzen! Zum anderen ist die Default-Konfiguration der TempDB durch das Setup schon einmal ein sehr guter Einstieg.

Also der SQL Server sollte zwischen 1 und 8 Datendateien für die TempDB erhalten, je nach Anzahl der zur Verfügung stehenden Kerne. Wer es ganz genau wissen möchte, und ob 8 für sein System der maximale Wert ist, sollte sich den Artikel zum KB2154548 durchlesen, hier werden die genauen Details beschrieben. Für meinen “0815”-SQL Server gilt daher die grobe Formel:

Anzahl Datendateien der TempDB = wenn Anzahl Kerne kleiner 8, dann Anzahl Kerne sonst 8

Jetzt kommt ein Teil in der Konfiguration über den man sich streiten kann/könnte oder in eine Richtung “Glauben” gehört… sollte man die Datendateien initial klein lassen und mit der Nutzung wachsen oder sollte man die Dateien gleich auf das Platten-Maximum aufblasen?
Ich halte es hier wie Brent Ozar, wenn ich schon eine ganze Festplatte nur für die TempDB habe, dann kann ich diese auch gleich voll nutzen 😉 Also berechne ich wie folgt die Größe der einzelnen Datendatei (aus unserem obigen Beispiel):

160 GB Platten-Kapazität für die TempDB
die meisten Monitoring-Systeme schlagen bei 90% Füllgrad an, daher wird ein Maximum von 89% der Plattenkapazität angenommen => ~142GB
mein SQL Server verfügt über 8 Kerne (siehe Screenshot) = 142GB / 8 Datendateien = 18.176 MB pro Datendatei

Diese Konfiguration lässt sich auch sehr schön und einfach mit dbatools realisieren, denn übernimmt das PowerShell für mich die komplette Konfiguration und Kalkulation.

Set-DbaTempDbConfig -SqlInstance ServerName\InstanceName -DataFileCount 8 -DataFileSize 145408 -DataFileGrowth 0

TempDB diverse Contention Probleme

Nur um die Vollständigkeit zu waren, es kann auch Probleme mit der TempDB geben, diese sind – bei 0815-Systemen – eher selten, können aber vorkommen:

Lassen sich aber auch mit den entsprechenden Anleitungen verhindern oder beseitigen. Mittels dem neuen Feature “Memory Optimized MetaData for TempDB” kann in gewissen Szenarien die Performance der TempDB noch weiter erhöht werden, dazu mehr in diesem Artikel bzw in dem dazugehörigen Video. Ansonsten folgen im Anhang noch relevante Links zur Konfiguration der TempDB.

Zusammenfassung

Der SQL Server Service User sollte die Rechte zum Ausführen der “Instant File Initialization” erhalten, die Datendateien der TempDB auf einer eigenständigen Platte abgelegt werden, es sollten 2-8 Datenfiles angelegt werden und die Datenbank initial voll aufgeblasen werden ohne AutoGrowth.

Sehr guter technischer Artikel zur TempDB

Microsoft Dokumentation zur TempDB

Beitragsfoto von Mike Newbry auf Unsplash

PDW aka APS – Extended Support bis 2026 verlängert

Vor ein paar Jahren durfte ich bei einem deutschen Mobilfunk-Anbieter die Migration von Oracle auf ein PDW (damals noch Parallel Data Warehouse) aus Infrastruktursicht begleiten. Das war ganz schön spannend, wenn man aus der “einfachen” SQL Server Welt kommt, und plötzlich hat man so einen “Oschi” vor sich… in der zwischenzeit wurde aus dem PDW, dann (wahrscheinlich aus Marketing-technischen Gründen) ein APS (Analytics Platform System). Schon damals basierte das System aus mehreren SQL Servern, die nach bestimmten Vorgaben miteinander verbunden waren und sich die Workload entsprechend von Quellcode und Datenstruktur aufteilen konnte und somit zu einer immensen Beschleunigung der Verarbeitung im Data Warehouse Umfeld beitragen konnte. Mein Kunde damals, hatte eine Umgebung mit 60 TB an Daten im Data Warehouse, die für die entsprechenden Marts, Abteilungen und Berichte optimiert worden war und so schneller dem Unternehmen Auskunft erteilen konnte. Das System bestand aus einem (oder mehreren – wegen der Hochverfügbarkeit) Eingangsknoten, die die eingehende Workload analysiert und weiterverteilt auf die 4-12 Compute-Nodes verteilte, diese hochperformante SQL Server Umgebung basiert(e) allerdings auf SQL Server 2012 und wurde auch nicht mehr weiterentwickelt, also zumindest für spätere SQL Server Versionen.

Aber was ist eigentlich ein PDW?

Aus der Microsoft Dokumentation ist folgendes zu entnehmen:

Microsoft Analytics Platform System (APS) ist eine Datenplattform, die für Data Warehousing und Big Data-Analysen entwickelt wurde. Sie bietet nahtlose Datenintegration, schnelle Abfrageverarbeitung, hochgradig skalierbaren Speicher sowie eine unkomplizierte Wartung für End-to-End-Lösungen für Business Intelligence.

APS hostet SQL Server Parallel Data Warehouse (PDW). Dabei handelt es sich um eine Software, die ein MPP-Data Warehouse (Massively Parallel Processing) ausführt.

Die PolyBase-Technologie kombiniert relationale PDW-Daten mit Hadoop-Daten aus mehreren Quellen, einschließlich Hortonworks auf Windows Server, Hortonworks unter Linux, Cloudera unter Linux und Azure Blob Storage von HDInsight. Durch diese erweiterten Datenintegrationsfunktionen und die nahtlose Integration in Business Intelligence-Tools kann Analytics Platform System integrierte Analysen zurückgeben, mit denen Entscheidungsträger Ihres Unternehmens bessere und informiertere Unternehmensentscheidungen treffen können.

Analytics Platform System wird als Appliance mit Hardware und vorinstallierter Software in Ihr Rechenzentrum geliefert, und ist so konfiguriert, dass es mehrere Workloads ausführen kann. Wenn Sie Analytics Platform System erwerben, kaufen Sie auch Computeknoten für PDW entsprechend Ihren Geschäftsanforderungen.

https://docs.microsoft.com/de-de/sql/analytics-platform-system/home-analytics-platform-system-aps-pdw
Parallel Data Warehouse - Microsoft APS - Massive Parallel Processing

Aus meiner Sicht eigentlich ein guter Ansatz und eine gute Möglichkeit für größere Unternehmen, aber gleichzeitig auch schon wieder ein totaler Overkill… wenn man bedenkt, was man alles in Sachen Infrastruktur, Datenmodellierung und -prozessierung anpassen muss, entstehen weitere zusätzliche Kosten nicht nur für die Hardware sondern auch für die Entwicklungsarbeit. Vielleicht haben sich aus diesen Gründen nicht so viele Kunden für dieses System entschieden, und Microsoft verabschiedet sich langsam aber sicher von diesen Hardware-Systemen.

Alternativen zum eigenen APS?

Da Microsoft sehr viele Services in die Cloud verschiebt bzw mittlerweile aus der Cloud anbietet, was für den Kunden effektiver und kostengünstiger ist, wurden die Möglichkeiten einer “Massive Parallel Processing”-Infrastruktur initial als Azure Data Warehouse angeboten. Hier konnte man sich die Leistung und Technolgie eines Analytics Platform Systems aus der Cloud mieten und musste nicht erst teure (bestimmte/besondere) Hardware kaufen und ins Rechenzentrum integrieren.

Mittlerweile ist aus dem ursprünglichen Azure Data Warehouse die viele Services umfassende Synapse Analytics Platform geworden, hier werden mehrere Lösungen und Ansätze kombiniert und aus einem Service heraus angeboten. Microsoft verfolgt damit den ganzheitlicheren Ansatz und möchten seinen Kunden EINE Plattform für alle Business Intelligence (BI) Entscheidungen anbieten. Mit Azure Synapse werden nicht nur ETL oder ELT Prozesse dargestellt, sondern bietet auch eine “Datensenke” aka SQL Pools zur Speicherung aller relevanten Daten, zusätzlich können viele automatisierte Workflow-Szenarien mit Azure Synapse abgebildet werden.

Main Stream und Extended Support für das APS

Wie bei den meisten (oder allen) Produkten von Microsoft wird unterschieden zwischen Main-Stream und Extended Support, dieser Support endet zu bestimmten Terminen, beim SQL Server zum Beispiel ist es in der Regel so, dass der Mainstream Support nach 5 Jahren nach der General Availibility des Produktes ausläuft und der Extended Support noch einmal 5 Jahre läuft, somit gewährt Microsoft in der Regel 10 Jahre Support für seinen SQL Server.

So nun auch beim PDW/APS… Das PDW wurde damals erstmalig offiziel in Betrieb genommen im Juli 2013, somit hätte der Mainstream Support bis Juli 2018 laufen müssen, allerdings hat Microsoft bereits hier den Zeitraum verlängert und der Mainstream Support lief bereits bis Oktober 2019. Heißt der Extended Support hätte eigentlich bis Oktober 2024 laufen sollen, sehr wahrscheinlich aufgrund der Pandemie (und weiteren Gründen) wurde dieser Zeit verlängert, so dass Kunden nun mehr Zeit haben Ihre Investionen zu sichern bzw voranzutreiben um neue Lösungen für Ihren Betrieb des Parallel Data Warehouse zu finden bzw die Migrationen voran zu treiben.

Als neues Ende-Datum für den Extended Support von Microsoft für das Analytics Platform System (APS) wurde der 31. März 2026 definiert, also wer ein solches “Gerät” betreibt, sollte sich auch hier bei der Migration nicht allzu viel Zeit lassen und die Umstellung entsprechend vorbereiten.

Ruhe – Veränderungen – Leben in Mexiko – Alltag kehrt ein – Teil 4

Zum Zeitpunkt des Schreibens, dieses vierten Artikels wohnen wir schon ein paar Monate in Mexiko, und ja es ist sowas wie Alltag eingekehrt, dazu nun im folgenden etwas mehr 😉
Nach Weihnachten kommt bekanntlich Sylvester, was hier irgendwie so gar nicht gefeiert wird, passt uns ganz gut, da wir die letzten Jahre ebenfalls zwar gefeiert aber nicht geknallt hatten, mit dem Januar begann dann erst einmal für mich wieder die Zeit des Arbeitens. DANKE an meinen alten Arbeitgeber, dass dieser so flexibel war/ist, mich weiterhin zu beschäftigen und meinem Wunsch nach weniger Stress und Arbeitszeit ebenfalls entsprochen hat! Also in unserer ersten 2-Zimmer Unterkunft den Laptop auf den Küchentisch und meine alten und neuen Projekte sowie Kundenanfragen bearbeiten… war schon spannend so mit sagenhaften 2,5 MBit in einem Teams-Meeting zu sitzen, aber auch hier lernt Tag für Tag dazu und findet Wege und Lösungen.

Da ich wieder arbeiten musste, fanden sich auch andere Zeitpläne für den Rest der Familie… der Hund bekam seine Gassi-Runden durch die neue Umgebung, unser Sohn machte sich (mal mit uns, mal ohne uns) auf Erkundungstour, nach Feierabend wurde dann erkundet, welcher Laden hat welches Angebot, was bekommen wir wo (und wann – in Deutschland war man es gewohnt immer alles im Supermarkt zu bekommen – hier sind die Lieferketten etwas anders) oder wo kann man was Essen gehen. Natürlich blieb auch die Freizeit nicht zu kurz, wir waren also regelmäßig am Strand, entweder einfach nur zum Spazieren mit dem Hund, zum Schnorcheln oder zum Sonne tanken.

Kein Urlaub sondern Alltag 😉

Mit solchen Aktivitäten mussten wir auch erst einmal gedanklich klar kommen, was es bedeutet jetzt an der Riviera Maya zu leben… jeden Tag feinen weißen Sand zwischen den Füßen, jeden Tag Sonne und Temperaturen in den Zwanzigern… jeden Tag sind wir hier umgeben von Urlaubern aus der ganzen Welt, die eigentlich nichts anderes tun, als ihre kurze Zeit (1-2 Wochen) Urlaub in dieser Gegend zu geniessen und 75% der Zeit in der Sonne liegen und sich versuchen von allen Seiten zu rösten… ich meine es ist absolut verständlich – zumal die meisten Hotels hier nicht unbedingt günstig sind – so viel Sonne wie möglich zu sehen, nichts tun und die Füße in den Pool oder den Ozean zu halten… WIR leben jetzt hier und können das 365 Tage haben !!!

Playa Brava - Riviera Maya - Puerto Morelos

Einkaufen in Mexiko (Quintana Roo)

Aus Deutschland sind wir es eher gewohnt in ein “Industriegebiet” zu fahren und dort alle relevanten oder notwendigen Dinge fürs Leben zu bekommen, bei uns waren das zum Beispiel Supermärkte wie Aldi, DM, Edeka, Famila, Denns oder real – einmal mit dem Auto hinfahren, aussteigen und im Umkreis von 250m konnte man alle Geschäfte erreichen und so seine Einkäufe relativ einfach erledigen… hier ist das etwas anderes… hier gibt es solche “Zentren” nicht wirklich oder nur als Mall (nach amerikanischem Vorbild) in den größeren Städten, was man hier finden kann sind kleine Läden oder kleine Supermärkte und je nach Ort mal einen größeren Supermarkt. Zum Beispiel hier im Ort gibt es eigentlich drei Supermärkte ( einen im Ortszentrum – Colonia, einen im Ortszentrum – Playa und am Ortseingang ), alle drei haben ein unterschiedliches Angebot und man bekommt nicht immer überall alles, so dass man auf jeden Fall fahren und suchen muss, und manchmal bekommt man eben auch etwas nicht… beispielsweise Obst und Gemüse bekommt man hier oft beim Laden an der Ecke frischer und günstiger als im Supermarkt, der nächste Obstladen ist aber nicht ideal mit dem Auto zu erreichen… (zu Autos und Verkehr komme ich später noch einmal)

Hier im Ort gibt es einen Supermarkt (Chedraui – Selecto) mit einem eher touristischem (amerikanisch/kanadisch) orientierten Sortiment, da dieser in Strandnähe liegt und so von vielen Touristen frequentiert wird, den anderen Chedraui (der auch noch etwas größer ist) wird eher von Einheimischen oder im Ort wohnenden genutzt, der Super-Aki am Ortseingang (Highway-Ausfahrt) ist eher klein, unsortiert, etwas chaotisch und nicht so gut sortiert, wie man es sich erhoffen würde.

Andere Einkaufsmöglichkeiten haben wir in der Zwischenzeit gefunden, dazu müssen wir dann aber mit dem Auto nach Cancun (~35min) oder Playa del Carmen (~25min) fahren. Playa del Carmen bietet uns zwei weitere (größere/riesige) Chedrauis, bei Ihnen wir meistens fündig wurden oder auch mehrere Soriana-Supermärkte, hier ist ein Vergleich zu Deutschland wie famila zu real… riesiges Sortiment in riesigen Gebäuden mit leicht anderen Schwerpunkten… nicht zu vergessen Walmart, bei dem wir für uns feststellen mussten, dass das nicht unbedingt unser bevorzugter Laden ist… bei Sonderangeboten vielleicht aber nicht für die regelmäßigen Einkäufe.

Selbes Spiel mit Cancun, als Hauptstadt von Quintana Roo, bietet es natürlich eine Vielzahl an Supermärkten und Shopping-Malls, aber auch “Besonderheiten” wie Costco oder “Sams Club”, so dass wir alle 10-14 Tage auf jeden Fall mal nach Cancun zum Einkaufen fahren.

Essen gehen – Restaurants

Dank der Pandemie waren wir in Deutschland in den letzten zwei Jahren (wie viele andere natürlich auch) nur bedingt in der Lage ausserhalb zu essen… das ist hier (auch dank der sinkenden Zahlen) komplett anders… hier – in Mexiko – sind alle Restaurant jeden Tag offen und man hat die Qual der Wahl! Aber als Europäer muss man sich natürlich erst einmal zurecht finden 😉 das mexikanische Gericht schlecht hin sind Tacos, die gibt es hier an jeder Straßenecke, für jeden Gaumen etwas anders, mal mit Rind, mal mit Schwein oder Fisch, mal nach Yucatan-Art, mal nach Sinaloa-Art oder oder oder… 😉 und die Mexikaner essen ihre Tacos zu jeder Tageszeit, auch gerne schon reichhaltig zum Frühstück. Preislich gibt es hier große Unterschiede und man kann sich grob daran orientieren, ob diese an der Straße oder im Restaurant bestellt, aber sowie es diese Unterschiede gibt es natürlich auch geschmackliche und mengenmäßige Unterschiede… beispielsweise bekommt man Rindfleisch-Tacos mit Zwiebel, Soße und Koriander an der Straße für 30 Pesos (~1,40Euro), im Restaurant an der Hauptstraße kosten die gleichen Tacos dann 50 Pesos (~2,30Euro), mit Garnelen im Restaurant am Strand kosten diese dann auch gerne 90 Pesos (~4,20Euro) pro Stück.

Hier gibt es diese Taco-Läden als richtige Restaurants, als kleines gemütliches Restaurant im Vorgarten eines Wohnhauses oder als mobilen Straßen-Verkaufsstand und dann natürlich mit den unterschiedlichsten Saucen… und hier steht mal als ungebübter Europäer vor der ersten Herausforderung 😉 Für uns steht fest, dass es einen Zusammenhang geben muss zwischen, die Mexikaner essen gerne sehr feurig und mit viel Salz… die haben sich ihre Geschmacksknospen schon alle weggebrannt, dass sie nicht mehr merken wie salzig ihr Essen eigentlich ist 😉 Manche Soßen sind mit Vorsicht zu genießen – und ärgerlicherweise – kann man nicht sagen, dass Salsa Verde beim Hähnchen-Mann ganz ok ist und dann daraus schließen, dass Salsa Verde immer ganz ok ist… die Farbe sagt nicht unbedingt etwas über die Schärfe aus, mal ist Verde (grün) die schärfste, mal Rojo (rot) oder sogar Negro (schwarz), oder manchmal nimmt man einfach nur die Fruchtsauce mit 90% Mango-Anteil… super lecker und fruchtig aber nur wenige Tropfen und nicht löffelweise 😉

Aber hier bekommt man alles zu Essen, was man möchte, sollte aber nicht unbedingt zu viel erwarten… hier im Ort bekommt man von Indisch über Italienisch bis Sushi eigentlich alles (nur keine vernünftige Bratwurst), ob das einem Europäer schmeckt… ist eine andere Sachen oder wir waren zu verwöhnt.

An verschiedenen Geschmacksrichtungen, Nationalitäten und Geldbeutel mangelt die Auswahl hier im Ort nicht, man kann hier auch einen Monat lang auswärtig essen und hätte immer noch nicht alle Restaurants besucht.

Mexikanische Tacos mit Fisch, Gemüse und Avocado

Brauchen wir ein Auto?

Nachdem wir den täglichen Bedarf geklärt hatten, konnten wir uns dem nächsten Thema widmen… wir können ja schließlich nicht immer nur mit einem Leihwagen fahren, auch wenn wir mittlerweile eine örtliche Vermietung gefunden hatte, bei der wir nur etwa 40% von den großen Vermietungen zahlen… die ersten 2 Wochen waren bei einer großen grünen Vermietung und danach bei der örtlichen für etwa 10 Wochen, bis das Thema Auto für geklärt war. Dazu aber nun mehr…

Auch in den zahlreichen Facebook-Beiträgen finden sich immer wieder diese Frage, “braucht man vor Ort ein eigenes Auto”… Nein, nicht zwingend! Die täglichen Wege zum Einkaufen kann man auch mit dem Fahrrad, dem Taxi (30Pesos ~1,40Euro) oder dem Collectivo (Pendel-Kleinbus – 10Pesos ~50Cent) erledigen oder sogar zu Fuß gehen, aber wenn man es ein Leben lang gewohnt ist mit dem eigenen Auto sich zu bewegen, dann möchte man diese “Individualität” nicht aufgeben bzw wägt dann Vor- und Nachteile gegeneinander ab. Wir sind für uns zu dem Schluss gekommen, dass wir doch lieber ein eigenes Auto haben möchten. Also ging die Suche los, wie wir es aus Deutschland gewohnt waren… von Autohändler zu Autohändler, egal welche Marke… aber irgendwie hatten einige andere (mehr) den gleichen Gedanken und kein Autohändler im Umkreis von 100km hatte mehr einen gebrauchten Wagen in unserem Budget verfügbar! Also nach Alternativen suchen, da hier viel über Faccebook läuft und man über die lokale Autovermietung entsprechend Kontakte hatte, erhielten wir den Namen von einem zuverlässigen Menschen, der uns bei der Beschaffung eines entsprechenden Fahrzeuges unterstützen sollte.

Erick ist sein Name… Erick und der ganze Autokauf-Prozess waren uns in den ersten Zügen sehr suspekt… hier kann man eben nicht einfach mal ein Auto kaufen, es gibt einfach zu viele “schwarze Schafe” die einem ein gebrauchtes Auto andrehen wollen, was ihnen entweder gar nicht wirklich gehört, oder technisch nur hübsch gemacht wurde, oder wo die Papiere nicht stimmen oder oder oder… nach den ersten Gesprächen folgte dann ein persönliches Kennenlernen und Erklären des Prozesses mit Erick, danach waren wir entspannter und besser auf den ganzen Prozess eingestimmt und hatten Vertrauen gefasst.

Wie läuft ein Autokauf über Erick (oder einen vergleichbaren Service-Anbieter)? Anders als in Deutschland, wo man in der Regel erst einmal einen Vertrag unterschreibt, dann direkt oder ein paar Tage später (zur Übergabe hin) bezahlt und dann direkt sein Auto mitnehmen kann… hier läuft das etwas anders, aufgrund der Gesetzes- und Steuerlage sowie Anmelde-Prozesse gestaltete sich das für uns komplizierter…

Wir möchten ein Auto, es sollte ein Pickup werden, auf den man sich verlassen kann (also technisch einwandfrei) und nicht zu alt und nicht zu viele Kilometer gelaufen hatte… laut Internet sollte das kein Problem sein… aber die ersten Autos gingen uns durch die Lappen, da wir noch mit dem Geld-Trasnfer nach Mexiko kämpften und noch kein Bankkonto in Mexiko hatten. Dann hatten wir einen ersten Besichtigungstermin mit Erick für ein passendes Auto, wir hatten auch (zumindest für eine 50%ige Anzahlung) genügend Geld, dann stellte Erick auf den letzten Drücker fest, dass die Papiere manipuliert waren oder zumindest nicht 100% einwandfrei waren… also weitersuchen, diesmal sollten wir Erick die volle Summe übergeben, damit er schnell genug auf entsprechende Angebote reagieren konnte… übergebt mal eine nahezu wildfremden Person in einm fremden Land (ohne dass ihr der Sprache wirklich mächtig seid) eine 5-stellige Summe für einen Autokauf… aarrrggghhh

Aber wir wollten ja ein Auto… nach etwa 6 Wochen hatte Erick dann ein Angebot für uns, dass uns zusagte, im Budget lag und auch aus seiner Sicht einwandfrei war… es war zwar kein Pickup aber ein SUV, der in allen anderen Punkten passte… also zugeschlagen. Wir haben dieses Auto vor dem Kauf nur auf Fotos gesehen und mussten uns voll auf Erick verlassen, der sich auch um die Anmeldung und Steuern kümmern wollte… das war schon ein merkwürdiges Gefühl!

Aber irgendwann stand dann unser 2018er Toyota Highlander vor der Tür, innen und aussen frisch poliert und gewienert, mit unseren Nummernschildern auf unseren Namen zugelassen und alle Steuern für das erste Jahr bezahlt!
Fazit: Wir können jedem in Mexiko nur empfehlen, nehmt euch einen “Erick” als Unterstützung, alleine wären wir sehr wahrscheinlich voll auf die Schn…. gefallen. Wir werden Erick demnächst wieder kontaktieren, da unser Sohn auch ein Auto benötigt, zu den Gründen dann mehr im nächsten Blogpost.

Toyota Highlander

PS: Schöne Grüße an Frank, Bernhard und Dirk für die Aufmunterung weitere Mexiko-Blogposts zu schreiben.

SQL Server 2022 – CTP 2.0 – Azure Arc enabled SQL Server – Konfiguration

Nun ist der neue SQL Server 2022 im ersten Public Preview angekommen – als CTP 2.0 – und es gibt das erste “nicht so erfreuliche” Thema aus dieser Version zu berichten, hierbei handelt es sich um eine Kleinigkeit aus dem Setup und ist somit auch nicht “dramatisch”. Es geht einfach um ein Ärgernis, welches ein wenig Unmut beim Installateur hinterlässt, wenn man nicht daran denkt. Mir selber ist es gar nicht aufgefallen, nur über eine Diskussion in der Dataplatform MVP Verteilerliste. Ihr könnt das auch sehen, wenn ihr meinem Blogbeitrag zur SQL Server 2022 Installation lest, hier kann man die neue Auswahl-Möglichkeit für die direkte Eindbindung des SQL Servers in “Azure Arc enabled SQL Server” sehen bzw das dazugehörige Fenster mit den notwendigen Angaben.

Um was handelt es sich hierbei?

Kurz: Das neue SQL Server Setup beinhaltet einen neuen Punkt zur Aktivierung des neuen SQL Servers in die eigene Azure Arc Umgebung.

Lang:
Azure Arc ist die Möglichkeit das Azure Portal als zentrale Verwaltung aller Server zu benutzen, also einen Arc => Bogen zwischen on-premise, anderen Cloud-Providern und Microsoft Cloud Azure zu erstellen. Azure Arc bietet die Möglichkeit für normale Server, für Kubernetes Cluster und unter anderem auch SQL Server, diese über einen Agenten an Azure anzubinden, um so weitere Services wie zum Beispiel den Defender auch aus der Cloud heraus im eigenen Rechenzentrum zu benutzen.

Da dies ein sehr spannendes Umfeld ist und immer wieder Neuerungen unterliegt, verweise ich hier erst einmal nur auf die Microsoft Dokumentation zu Azure Arc bzw Azure Arc enabled SQL Server

Nun bietet uns das SQL Server Setup die Möglichkeit unseren neuen SQL Server direkt über das Setup eben in dieses Azure Arc einzubinden, hierzu kann man bei der Feature-Auswahl einen entsprechenden Haken setzen und im weiteren Verlauf des Setups dann die benötigten Informationen eingeben.

Die Diskussion entstand, und daher möchte ich mit diesem Beitrag explizit daraufhin weisen, dass der Haken für die Aktivierung dieses neuen Features per Default gesetzt wird, nicht so wie man es bisher kannte, man wählt alle notwendigen Feature eigentständig aus, sondern dieser Haken ist schon aktiv. Dies kann unter Umständen im späteren Verlauf des Setups zu Verwirrung und Ärger führen, wenn man plötzlich nach Informationen gefragt wird, die man a.) nicht hat und b.) auch gar nicht beibringen könnte, auch ein Überspringen mit “ich konfiguriere das später” ist nicht möglich. Daher hier meine Empfehlung, achtet beim Installieren des neuen SQL Servers 2022 (im aktuellen CTP2.0) darauf, dass dieser Haken bereits gesetzt ist und ihr ihn deaktivieren müsstet.

Ich persönlich finde Azure Arc bzw Azure Arc enabled SQL Server einen spannend Service bzw eine coole Idee, sowie ein “Centralized SQL Server Management Dashboard”, aber ich weiß auch, dass viele Kunden (noch) nicht bereit sind für die Cloud und somit ein solcher Service in weiter Zukunft zu sehen ist.

Ich gehe auch davon aus, dass Microsoft in weiteren CTPs diesen Haken wieder entfernen wird, also nur den Default-Haken und nicht das Feature! Also auf das Fach-Publikum hört, denn dazu gibt es schließlich den CTP = “Community Technology Preview”, dass wir (die Community) einmal ausprobieren, was sich wie handeln und konfigrieren lässt und wie sich neue Features unter mehr realistischen Workload-Szenarien verhält.

Ich wünsche euch weiterhin viel Spaß und Vergnügen mit dem SQL Server 😉

SQL Server 2022 – Installation des Public Preview – CTP 2.0

Ich möchte euch heute die Installation des neuen SQL Servers 2022 zeigen, es hat sich nicht grundlegend etwas geändert aber die Details wurden optimiert. 😉

Wie üblich beginnt alles mit einem Download des offiziellen ISO-Images, es geht natürlich auch in anderen Optionen wie dem Docker-Container, aber ich möchte hier auf die meisten Nutzungsszenarien eingehen. Also erst einmal den Installer herunterladen und starten… wir landen noch nicht im eigentlichen Installer aber hier werden wir gefragt, was wir machen wollen: Basis- oder Custom-Installation oder einfach nur das Installationsmedium aka ISO-Image herunterladen.

Auswahl des Installationstypen – SQL Server 2022 CTP2.0

Da ich sicherlich mehrere Installation zu Demo-Zwecken durchführen werde, habe ich mich für den Download des ISO-Images entschieden, die nächste Abfrage ist die Auswahl der Sprache, der Art des Download (ISO oder CAB) und die Wahl eines Download-Pfades.

Spezifizieren der Download-Details zum SQL Server 2022 CTP2.0

Progress und Abschluss erspare ich euch hier heute, das ist nicht spannend. Weiter geht es mit dem “Bereitstellen des ISO-Images” und Starten der eigentlichen Installation. Auch hier noch nicht viel neues im Vergleich zum SQL Server 2019, daher weiter mit dem Product-Key, auch hier nichts neues, was man unbedingt erwähnen sollte.

Natürlich sollte man die Lizenzbestimmungen lesen und verstehen, bevor man einen Haken bei diesen Bestimmungen setzt, ansonsten folgt nach den “Allgemeinen Bestimmungen” nur die Frage ob man eventuell vorhandene Patches gleich mitinstallieren möchte. Je nach Konfiguration, Domänen-Vorgaben und ähnlichem wird hier entweder direkt das Internet befragt oder der lokale WSUS-Server, das war aber auch schon in den letzten Versionen des SQL Servers so. Daher geht es nun endlich weiter mit einer Neuerung im Setup des SQL Server 2022 CTP2.0, für die Details bzw Probleme mit dem aktuellen Default bezogen auf die Feature Auswahl, kommt in einem eigenen Beitrag. (Installation des Features – SQL Server Extension for Azure). Womit wir eigentlich auch schon bei der Neuerung sind, man kann nun während der Installation ein Feature auswählen, was einem die Verbindung zu Azure vereinfacht. Microsoft hat also ein Feature implementiert, welches den SQL Server direkt mit Azure verbindet – Stichwort für dieses “neue” Feature – Azure Arc enabled SQL Server, lässt vermuten was mit diesem Feature erreicht werden soll bzw wozu man befähigt wird, denn der SQL Server bringt dieses Feature direkt mit.

Azure Arc enabled SQL Server – Login Informations – neues Feature im Rahmen des SQL Server 2022 CTP 2.0 Setups 1/2

Für mich persönlich sieht die Feature-Auswahl sehr viel aufgeräumter aus, als in vorherigen Versionen, mit einem entscheidenden neuen Feature – wie bereits oben erwähnt. Bei Aktivierung dieses Features wird man im weiteren Installationsverlauf nach den Zugangsdaten bzw weiteren Informationen zu Azure Arc gefragt, die das Setup dann für die Einbindung dieses neuen SQL Servers in “Azure Arc enabled SQL Server” nutzt. Man sieht auch oben rechts in der Beschreibung “Onboard installed SQL Server to Azure Arc environment”, man sollte dieses Feature also nur aktivieren, wenn man genau weiß was man tut, bzw wenn man schon eine Azure Arc Umgebung besitzt.

Azure Arc enabled SQL Server – Login Informations – neues Feature im Rahmen des SQL Server 2022 CTP 2.0 Setups 2/2

Die weitere Installation des SQL Servers ist wie bisher gehabt, hier gibt es nur “Schönheits-Korrekturen”, wie man schön sagen könnte, “alles bleibt beim Alten” 😉
Alles in allem hat man auch hier wieder an der Handhabung gearbeitet, was auf ein klareres Bild bei der Feature-Auswahl hinausläuft.

Ich freue mich auf spannende Themen und Projekte mit dem SQL Server 2022, in Zukunft wird es sicherlich den einen oder anderen Beitrag zum SQL Server 2022 und seinen Neuerung in der Datenbank-Engine geben.