In diesem Webinar erfahren Sie alles, was Sie über das wissen müssen NCache Bridge-Funktion für die WAN-Replikation des Caches über Rechenzentren hinweg.
Folgendes wird in diesem Webinar behandelt:
Das heutige Webinar-Thema lautet WAN-Replikation für eine Bereitstellung mit mehreren Rechenzentren NCache. Im heutigen Webinar gehen wir darauf ein NCacheBridge-Funktion von . Was auch dazugehört NCache's Bridge-Topologie, die erweiterten Bridge-Funktionen NCache hat, Multi-Site-Sitzungen in die Warteschlange stellen, sowie Bridge-Performance- und Debugging-Überwachungsoptionen.
Heute haben wir uns ein sehr wichtiges Thema vorgenommen. Insbesondere für Anwendungen, die in mehreren Rechenzentren bereitgestellt werden. Diese können verschiedene Gründe haben. Sie benötigen beispielsweise einen DR-Standort, Sie benötigen eine Aktiv-Aktiv-Bereitstellung mehrerer Rechenzentren oder es könnte eine Ost-West-Migration von Daten erforderlich sein.
Wir haben also eine WAN-Replikationsfunktion verfügbar, mit Hilfe unserer Bridge-Topologie und ich werde alle Details behandeln. So verwenden Sie das Objekt-Caching, während die WAN-Replikation aktiviert ist. Verwenden Sie es für Aktiv-Passiv-, Aktiv-Aktiv- und mehrere Aktiv-Aktiv-Rechenzentrumsbereitstellungen. Wir haben also viel abzudecken. Ich glaube, jeder kann meinen Bildschirm sehen und mich gut hören. Wenn ich schnelle Bestätigungen über die Registerkarte "Fragen und Antworten" von GoTo Meeting erhalten kann, wäre das wirklich gut, und dann können wir schnell mit der Präsentation beginnen. Bitte bestätigen Sie also, ob jeder unseren Bildschirm sehen kann und hier ohne Probleme funktioniert.
Ich beginne also mit den sehr grundlegenden Informationen darüber, warum Sie ein verteiltes Caching-System wie benötigen NCache? In der Regel ist es also der Engpass bei der Anwendungsleistung und Skalierbarkeit, der das Problem verursacht, das Ihre Anwendungen daran hindert, schneller und dann zuverlässiger zu arbeiten.
Ihre Anwendungsebene ist sehr skalierbar. Sie können eine Webanwendung oder eine Backend-Anwendung haben. Sie können jederzeit eine Webfarm oder Anwendungsserverfarm erstellen, in der Ihre Anwendung auf mehreren Servern bereitgestellt werden kann. Ihre Last kann verteilt werden. Mehrere Server helfen dabei, all diese Anwendungsanforderungen parallel und in Kombination miteinander zu bedienen, aber alle diese Anwendungen müssen mit einer Backend-Datenbank kommunizieren, und das ist normalerweise eine Quelle von Konflikten. Die Datenbank wird zu einem Leistungs- und Skalierbarkeitsengpass für Ihre Anwendung, da Sie Datenbankserver und ihre sehr teuren Ressourcen nicht skalieren können. Sie können also jederzeit hochskalieren, aber es gibt eine Grenze dafür, wie weit Sie einen Datenbankserver hochskalieren können? NoSQL ist normalerweise nicht die Antwort darauf, da Sie Ihre Anwendung neu strukturieren müssen. Sie müssen die Verwendung unserer relationalen Datenbank einstellen und mit der Verwendung von a beginnen NoSQL Datenquelle, um diese zu verwenden, und wir haben auch ein Produkt namens NosDB das ein NoSQL database aber wir projizieren einen anderen Weg, dies zu handhaben, und zwar durch ein verteiltes Caching-System.
Zunächst einmal ist die Lösung dieses Skalierbarkeitsproblems sehr einfach, indem Sie beginnen, ein verteiltes In-Memory-Caching-System zu verwenden. Es ist superschnell, weil es sich im Vergleich zur Festplatte im Speicher befindet. Die Leistung Ihrer Anwendung wird also sofort verbessert, sobald Sie ein Plug-in durchführen NCache.
Zweitens ist es ein Team von Servern. Es ist ein Cache-Cluster. Es ist nicht nur eine einzelne Quelle wie eine Datenbank. Sie haben mehrere Server, die einem Cache-Cluster beigetreten sind. Es ist also ein logischer Speicher, der von vielen Servern gepoolt wird, die Sie hinzufügen können. Dadurch ist es im Vergleich zu Ihren relationalen Datenbanken sehr skalierbar. Sie können mit 2 Servern beginnen und zur Laufzeit weitere Server hinzufügen. Es wird also immer skalierbarer und tatsächlich linear skalierbar, wobei Sie mehr Server hinzufügen können und dadurch Ihre Kapazität zur Bearbeitung von Anfragen weiter erhöhen NCache. Schöne Sache dabei NCache besteht darin, dass Sie neben einer Backend-Datenbank auch eine relationale Datenbank verwenden. Es gibt viele Funktionen, die Ihre Verwendung von Daten ergänzen, die aus einer Backend-Datenbank stammen. Kannst du also immer verwenden NCache in Verbindung mit Ihrer relationalen Datenbank. Es ist kein Ersatz für Ihre relationalen Datenquellen. Einige Skalierbarkeitszahlen.
NCache ist sehr skalierbar, wenn Sie weitere Server hinzufügen NCache ermöglicht es Ihnen, immer mehr Anfragen aus zu bearbeiten NCache Cluster. Wir haben diese Tests kürzlich in unserer QA-Umgebung durchgeführt. Wir nutzen unser AWS-Labor, in dem wir die Auslastung weiter erhöht und auch immer mehr Server und bis zu 5 hinzugefügt haben NCache Server, was eine sehr regelmäßige Konfiguration für unseren verteilten Cache ist. Wir konnten 2 Millionen Anfragen pro Sekunde erreichen, und das war ein steigender Trend, bei dem wir, wenn wir mehr Server hinzufügten, dem Cache-Cluster mehr Kapazität hinzufügten. Bei einer durchschnittlichen Objektgröße von 1 Kilobyte ist das auch die Leistung, die Sie erwarten können NCache und mit besserer Hardware können Sie diese Zahlen sogar erweitern und einen besseren Leistungsdurchsatz erzielen NCache. Übrigens diese Benchmarks gibt es a Whitepaper und einem Video Demonstration auch auf unserer Website veröffentlicht. Also auch das kann man sich mal anschauen.
Einige Bereitstellungsdetails. Wie würde eine typische Bereitstellung von NCache wird aussehen.
Hier ist eine Single-Site-Bereitstellung von NCache. Wie Sie sehen können, haben wir einen einzigen Standort und in Ihrem Fall, was wir über den WAN-Replikationsaspekt sprechen, hätten wir offensichtlich mehr als eine Bereitstellung, wir hätten ein separates Rechenzentrum, wo wir auch hätten NCache und bereitgestellte Anwendungen.
Lassen Sie uns also mit unserer verteilten Cache-Bereitstellung, wie im Diagramm gezeigt, darüber sprechen, wie eine typische Bereitstellung aussieht. Wir haben also wieder ein Team von Servern. Das Diagramm zeigt 4 bis 5 Server, auf denen Ihr Cache-Cluster gehostet wird, und wie Sie sehen können, befindet er sich zwischen Ihrer Anwendung und Ihrer Datenbank. Die Idee dabei ist, dass Sie diese Quellen in Kombination miteinander verwenden, für das Objekt-Caching, aber für das Session-Caching wird der Cache Ihre Hauptdatenquelle. So können alle Ihre Sitzungen in gespeichert werden NCache und Sie müssen nirgendwo anders hingehen. Ein sehr flexibles Bereitstellungsmodell ist verfügbar. NCache kann vor Ort gehostet werden. Dies können physische oder virtuelle Boxen sein. Es könnte auch in der Cloud sein. Es kann sich um eine Public oder Private Cloud handeln. Es könnte sich auch um Azure AWS handeln, da wir Marketplace-Images für diese beiden Cloud-Anbieter zur Verfügung haben. Aber im Allgemeinen jeder Server, der Windows oder Linux hat und nur Voraussetzung dafür ist NCache ist .NET bzw .NET Core Rahmen. Das sind also Vorraussetzungen. Es ist nur .NET und .NET Core welche NCache braucht als Voraussetzung Wenn das verfügbar ist, NCache ist sehr flexibel, um sowohl auf Windows- als auch auf Linux-Umgebungen bereitgestellt zu werden, und wie gesagt, es könnte auch jede Umgebung sein, es könnte sein, Sie können Docker verwenden und Sie können auch hosten NCache im Kubernetes-Cluster und das eröffnet viele andere Plattformen. Sie können es in OpenShift verwenden. Sie können es im Azure Kubernetes-Dienst verwenden. Sie wissen schon, der Elastic Kubernetes-Service. Also, all diese Plattformen sind ausgestattet und NCache ist für den Einsatz auf all diesen Plattformen gerüstet.
Es gibt zwei Bereitstellungsoptionen. Einer ist, dass Sie mit dem dedizierten Cache-Tier gehen, wie im Diagramm gezeigt, und der zweite ist, und dass Ihre Anwendungen auf separaten Boxen und dediziert ausgeführt werden NCache läuft auf einer separaten dedizierten Ebene. Wir haben auch einen gemeinsamen Tier-Ansatz zur Verfügung, auf dem Sie auch laufen können NCache neben Ihren Bewerbungsboxen. Also überall dort, wo Ihre Anwendungen gehostet werden NCache kann darüber gehostet werden. Also, ich glaube, das ist ziemlich einfach. In einer Bereitstellung mit mehreren Rechenzentren hätten Sie mehr als ein Rechenzentrum und Sie hätten die gleiche Bereitstellung für NCache auch auf das andere Rechenzentrum, das wir in den nächsten Folien behandeln werden, und übrigens, wenn es irgendwelche Fragen gibt, können Sie diese Frage jederzeit in unserem Fragen und Antworten-Tab posten und Zack und ich werden, wissen Sie, eine behalten Halten Sie Ausschau nach all den Fragen, die gepostet werden, und wir werden all diese Fragen sehr gerne für Sie beantworten. Apropos Fragen, da Sie es gerade erwähnt haben, möchte ich eine hervorheben, nun, es war sehr einfach, dass Sie jetzt Kubernetes erwähnten. Die Frage war also, wir werden über Bridges sprechen und dies im Allgemeinen, gibt es Betriebssystemanforderungen für all dies? Kannst du das unter Linux ausführen? Absolut. NCache ist sehr flexibel. Wie Sie sehen können, sogar auf unserem Bereitstellungsdiagramm. Du kannst sehen NCache wird auf Windows- und Linux-Servern unterstützt. Auf Linux-Servern brauchen Sie also nur .NET Core Veröffentlichung von NCache und wir haben sowohl einen Server als auch einen Client dafür. Also, wenn Sie laufen wollen NCache Server auf .NET unter Linux mit .NET Core das ist möglich und dann können Ihre Anwendungen immer unsere verwenden .NET Core veröffentlichen und sowohl unter Windows als auch unter Linux bereitstellen, also ja. Fantastisch. Ich lasse Sie den Rest durchgehen und werde später auf die Fragen eingehen.
Als nächstes werden wir über die Bereitstellung von Multi-Rechenzentren sprechen NCache. Nun, wenn Ihre Anwendung in mehreren Rechenzentren bereitgestellt wird, oder es könnte sein, dass Sie einen aktiven Standort haben und wir dann einen passiven Standort für DR-Szenarien haben. Beispielsweise fällt die aktive Site aus und Ihre Anwendung muss immer betriebsbereit sein, wenn es sich um eine unternehmenskritische Anwendung handelt, ist sie wichtig für Ihr Unternehmen. Eine Ausfallzeit auf Standortebene ist etwas, das sich auf Ihr Geschäft auswirken würde.
NCache Cluster ist so konzipiert, dass er bereits mit Hochverfügbarkeits- und Datenzuverlässigkeitsfunktionen ausgestattet ist. Wenn also auf einer einzelnen Site-Ebene ein oder zwei Server ausfallen, z. B. wenn Sie einen Server verlieren, NCache ist dafür gerüstet, diesen Ausfall problemlos zu bewältigen. Aber heute sprechen wir darüber, was passiert, wenn wir einen Ausfall auf Site-Ebene bekommen? Oder wir müssen die Website zu Wartungszwecken herunterfahren, wobei die gesamte Website heruntergefahren ist. Also sind alle Server down. NCache ist sogar für dieses Szenario gerüstet, und das wollen wir heute behandeln. Lassen Sie uns also darüber sprechen, warum wir eine WAN-Replikation benötigen.
Wenn Ihre Anwendungen Hochverfügbarkeit benötigen, kann ein einzelner Standort in der Regel zu einem Single Point of Failure werden. Wenn Ihre Website ausfällt, verlieren Sie alle Daten und es kann möglicherweise zu Ausfallzeiten bei den Benutzern Ihrer Anwendung kommen, was sich auf Ihr Geschäft auswirken könnte, das haben wir bereits festgestellt. Multiregionale Apps sind langsam, wenn sie über das WAN miteinander kommunizieren müssen. Sie haben beispielsweise ein Rechenzentrum bereitgestellt, Ihre Anwendung wird in einem Rechenzentrum in der US-Region bereitgestellt, und dann haben Sie eine andere Anwendung, die in Europa oder einer anderen Region, beispielsweise in Asien, bereitgestellt wird. Wenn sich Ihre Anwendungsdatenbanken also in einem der Rechenzentren befinden, muss die Remote-Site in diesem Fall über das Netzwerk gehen. Ihre Netzwerkgeschwindigkeit würde sich also auf die Latenz für diese andere Site auswirken. Sie wissen, dass Sie zur Bewältigung dieses Szenarios Ihre Datenquellen normalerweise auch über das WAN replizieren, und genau das empfehlen wir NCache auch das NCache repliziert werden soll. Aber wenn man bedenkt, dass Sie eine gemeinsame Datenquelle haben, muss der Remote-Standort über das WAN gehen, und das könnte sich möglicherweise auf die Leistung auswirken, da die Daten für diesen Standort nicht lokal sind. Die Entfernung zwischen den Rechenzentren würde sich auch auf Ihren Durchsatz auswirken . Es gibt nur so viele Daten, die Sie zwischen Standorten übertragen können. Das kann also Ihre Kapazität zur Bearbeitung von Anfragen einschränken.
Dies sind also zwei Probleme, wenn Sie über multiregionale Apps verfügen und beide Apps aktiv sind. Die Datenreplikation auf Anforderungsebene ist ebenfalls teuer. Beispielsweise replizieren Sie nicht die gesamte Datenbank und haben eine Datenquelle, die sich in einem Rechenzentrum befindet. Nun, eine Anfrage, die an unseren entfernten Standort, einen entfernten geografischen Standort, an Ihre Datenbank geht. Eine Replikation auf Anforderungsebene für alle Daten, Sie wissen schon, Anforderungseinheit, die zu unserer Datenquelle gelangt, das wird extrem teuer sein und eine Menge Bandbreite und Ressourcen verschlingen. Sie benötigen also einen aktiven Mechanismus, bei dem Sie Daten lokal verfügbar haben, und deshalb benötigen Sie unbedingt eine WAN-Replikation des Caches. Damit Ihre Daten von einem Rechenzentrum über das Netzwerk zum anderen Standort repliziert werden.
Einige Anwendungsfälle. Warum, wissen Sie, wo genau können Sie die WAN-Replikation einsetzen?
Die häufigste, auf die wir stoßen, ist die Disaster-Recovery-Site. Sie haben eine aktive Website, die Ihrem wichtigsten geschäftlichen Anwendungsfall dient. Dort wird Ihr Datenverkehr generiert und verarbeitet. Was ist, wenn die gesamte Website ausfällt? Sie brauchen eine Fallback-Option, richtig. Auf dieser DR-Site sollten also bereits Daten verfügbar sein. Andernfalls wären diese Datenanforderungen nicht gehandhabt worden, wenn es zu der Site zurückkehren müsste, die bereits heruntergefahren ist, richtig. Sie müssen also Daten auf der DR-Site verfügbar machen, damit sie bereits einsatzbereit ist. Sie müssen nur Ihren Datenverkehr auf diese DR-Site verlagern. Sie sollten nichts anderes tun, sondern Ihren Datenverkehr einfach an die Disaster-Recovery-Site weiterleiten, und es sollte mit demselben Leistungswert und denselben Leistungsmatrizen funktionieren, die Sie mit der aktiven Site hatten. Mit Hilfe von ist also eine 100%ige Datenwiederherstellung im Fehlerfall möglich NCache WAN-Replikation.
Multiregionale Anwendungen können sowohl Daten teilen als auch laden. Jetzt mit Active-Active-Sites, wenn Sie eine Region in den USA und eine in einem anderen Teil der Welt haben, z. B. Europa oder Asien. Wenn Sie möchten, dass Anfragen von einem Rechenzentrum basierend auf der Standortaffinität behandelt werden sollen, können Sie dies erreichen. Jetzt können Benutzer aus Asien eine Verbindung zu einer Site innerhalb dieser Region herstellen, die dieser Region am nächsten liegt, und sie können den Cache dort auch verwenden, und dieser Cache ist mit dem anderen Cache in der US-Region synchronisiert. Also, jeder Benutzer, der abprallt. Beispielsweise müssen Sie Überlauf verwalten oder Kapazität verteilen. Einige der Benutzer müssen jetzt in die US-Region wechseln, da die Region Asien vollständig erstickt ist, also können Sie das immer tun. Auf Site-Ebene können Sie also Ihre Anforderung basierend auf der Kapazität, die diese Site zu diesem Zeitpunkt und zu diesem Zeitpunkt verarbeitet, ausgleichen. Da Cache-Daten bereits über Rechenzentren hinweg repliziert werden und wir darüber sprechen werden, wie dies erreicht werden kann, können Ihre multiregionalen Anwendungen ihre Anwendungsdaten effizient gemeinsam nutzen und auch die Anforderungslast teilen, und sie können auch eine gleichmäßige Lastverteilung haben . Es erfolgt keine redundante Datenmigration. Es basiert nur darauf, dass die Anfrage von einem Rechenzentrum zum anderen springt, und Sie können diese Daten immer aus dem Cache abrufen, der dort bereits verbunden ist.
Die Migration von Anwendungsdaten von Ost nach West ist ein weiterer Anwendungsfall. Zum Beispiel starten die asiatischen Märkte früher als die westlichen Märkte, richtig. Ihr Datentrend folgt also normalerweise von Ost nach West. So kann Ihr östlicher Standort unseren Cache eingerichtet haben und mit der Zeitzone werden Daten zwischen Rechenzentren in die westliche Region verschoben und erreichen den Westen. Wenn Sie also Daten über Rechenzentren repliziert haben, die Cache-Daten, könnte die westliche Region alle Daten nutzen, die aus der östlichen Region verfügbar gemacht werden. Sie können also die Datenmigration von Ost nach West zur Verfügung stellen, und der Wartungsanwendungsfall ist der dritte.
Viertens, wo wir Upgrades bereitstellen und ohne Ausfallzeiten warten können. Das wird zu einem sehr dringenden Anwendungsfall, mit NCache auch. Das heißt, wenn Sie ein Upgrade planen, können Sie Upgrades zwischen älteren und neueren Versionen durchführen, indem Sie unsere Bridge-Topologie verwenden. Wo ältere Daten, Versionsdaten auf die neuere Version mit Live-Upgrade-Funktion übertragen werden können. Es könnte z. B. zwischen Standorten sein, Sie können einen Standort verwenden und Daten aktiv auf den passiven Standort replizieren, und Sie können ein Upgrade durchführen, einen neuen Code bereitstellen, die Leistung aufrechterhalten, den aktiven Standort warten und Sie haben alle Daten zur Verfügung gestellt und Ihre Datenverkehr kann für diese Angelegenheit an die passive Site geleitet werden. So können beide Standorte immer ohne Ausfallzeiten und ohne Verlust von Anwendungsdaten betriebsbereit sein.
Reden wir also darüber, wie man damit umgeht? Der Name der Funktion lautet NCache Brücke. Es ist Teil desselben Produkts. Sie benötigen dafür keine separate Installation. NCache Enterprise ist ausgestattet mit NCache Brückentopologie und lass uns darüber reden.
Also, unser Cache, NCache Mit der Bridge-Funktion können Sie den Cache über Rechenzentren hinweg replizieren.
Es basiert auf einem asynchronen Replikationsmodell. Auf der Anwendungsseite kommt es zu keinerlei Leistungseinbußen. Ihre Cache-Anwendungen sind aktiv mit dem Cache in einem Rechenzentrum verbunden. Sie haben beispielsweise Clients hier und dann können Sie eine Brücke erstellen, die auch eine Aktiv-Passiv-Warteschlange ist und die Daten asynchron an die anderen Standorte überträgt.
Es basiert also auf asynchroner Replikation, sodass es bei der Replikation von Daten zu keinen Leistungseinbußen kommt. Es ist sehr zuverlässig. Es ist fehlertolerant. Verbindungsabbrüche werden automatisch erkannt. Es verbindet sich automatisch wieder. Es sind automatische Wiederholungsoptionen verfügbar, so dass Bridge auch in der Aktiv-Passiv-Warteschlange gesichert wird.
Es gibt also einen Active Bridge-Server und dann gibt es auch noch einen Passive Bridge-Server. Wenn der Active Bridge-Server ausfällt, würde der Passive alle Replikationsvorgänge ohne Verzögerungen aufnehmen und starten. Es ist sehr einfach einzurichten, Sie brauchen keine Code-Änderungen, Sie brauchen keine zusätzlichen Installationen. Es ist Teil desselben Produkts, Enterprise, und bietet seine eigene Überwachungs- und Verwaltungsunterstützung, die in dasselbe integriert ist NCache Enterprise Produkt und es unterstützt mehrere Topologien, die ich als nächstes behandeln werde.
Wir haben also drei Haupttopologien.
Wir haben Aktiv-Passiv. Wo wir eine aktive Seite haben und dann haben wir eine passive Seite. Die passive Site nimmt auch Client-Anforderungen entgegen, aber der Datenfluss verläuft von aktiv nach passiv. Wenn Sie also DR-Standortanforderungen haben, können Sie einen Standort verwenden, um aktiv zu sein, mit der Bridge verbunden zu sein, und dann können Sie einen anderen Standort passiv haben. Die aktive Seite überträgt Daten an die passive Seite. Es handelt sich also um eine Einwegübertragung. Der Begriff „passiv“ bedeutet im Wesentlichen, dass der passive Standort keine Daten zurück zum aktiven Standort überträgt. Es läuft noch und Sie haben Client-Anwendungen, die davon profitieren. Es ist also nichts, was auf jeden Fall gestoppt wird. Die Ost-West-Migration kann mit aktiv passiv erreicht werden. Ihre Wartung und ein Upgrade-Anwendungsfall können mit Hilfe von Aktiv-Passiv behandelt werden.
Die Aktiv-Aktiv-Topologie liegt vor, wenn Sie eine Anwendung an zwei verschiedenen geografischen Standorten bereitgestellt haben und Daten von Standort 1 auf Standort 2 und die Daten von Standort 2 auf Standort 1 verfügbar gemacht werden sollen Geografische Standorte können Sie auf aktiv-aktiv zielen, wo Sie Benutzer haben, die in beiden Rechenzentren aktiv sind. Clients sind mit beiden Rechenzentren verbunden, und es findet eine bidirektionale Replikation zwischen zwei verschiedenen Standorten statt, und dann haben wir eine 3-, 2+- oder 3+-Aktiv-Aktiv-Topologie, bei der wir einen primären Gebotsserver haben, der jedoch Daten an alle überträgt Sites und diese Sites übertragen auch Daten zurück zu jeder anderen Site. Daher muss ein Update auf alle Rechenzentren angewendet werden und umgekehrt.
Also, hier ist unser Aktiv-Passiv.
Darin haben wir eine Brücke, die eine Warteschlange ist, die auch aktiv-passiv ist. Wir haben Cache-Cluster auf Standort 1, der nur Client-Anfragen bearbeitet. Wir haben hier 3 Server. Es ist mit der Brücke verbunden. Bridge befindet sich auch auf einem der Standorte. Oder in einigen Fällen können Sie eine aktive Bridge auf Standort 1 und einen passiven Bridge-Server auf Standort 2 haben. Das ist auch möglich, aber wir empfehlen normalerweise, dass Sie die Bridge auf einen der Standorte in Ihrer Bereitstellungsarchitektur verschieben. Die zweite Seite ist eine passive Seite und läuft noch einmal passiv. Es ist nur so, dass der passive Standort keine Daten zurück zum aktiven repliziert. Es ist eine Datenübertragung in eine Richtung und das ist alles, was es bedeutet, wenn wir sagen, dass dies eine passive Seite ist. Sie können hier im Wesentlichen Client-Anwendungen ausführen und es ist auch in diesem Zustand voll funktionsfähig. Es handelt sich also um eine aktiv-passive Replikation von Daten. Wenn also dieser Server ausfällt, wird das passive automatisch aktiviert. Es sind keine Codeänderungen erforderlich. Ich zeige Ihnen, wie Sie Bridge konfigurieren, sobald wir mit unserem praktischen Teil fortfahren. Es ist also ziemlich einfach.
Eine Frage kam herein und es hat mit diesem Aktiv-Passiv zu tun, es geht hauptsächlich darum, wenn Sie eine aktive und eine passive Seite haben, wie machen Sie die passive Seite aktiviert? Handelt es sich um einen manuellen Vorgang? Ist die Seite gestoppt? Wie machst du das? Okay, also, wenn ich diese Frage richtig verstanden habe, die passive Seite in Bezug darauf, wie wir sie aktivieren? Es ist bereits aktiviert. Es wird ausgeführt, und wenn wir diese Website herunterfahren oder den Datenverkehr hierher verschieben möchten, ist es Ihre Anwendungsverkehrslast, die Sie auf diese Website verschieben müssen. Sie haben hier also Anwendungsserver, Sie haben hier Anwendungsserver, alle Daten, die Sie haben, werden hierher übertragen, und die Benutzer dieser Site können die Daten aus dem Cache selbst zur Verfügung stellen. Jetzt können Sie Ihren Datenverkehr immer auf die passive Seite leiten und erhalten alle zur Verfügung gestellten Daten. Es sind also keine Schritte erforderlich, um es zu aktivieren. Wenn Sie jedoch möchten, dass diese Site ebenfalls mit der Übertragung von Daten an die aktive Site beginnt, können Sie sie mit unseren GUI-Tools aktivieren. Wenn Sie also in Bezug auf die Replikation Daten zurück zum aktiven replizieren möchten, können Sie dies immer aktiv machen, und dies ist ein Laufzeitprozess. Sie können das also mit nur einer Zeile, mit einem Klick im GUI-Tool erreichen, oder Sie können unser PowerShell-Tool verwenden, um dies zu erreichen. Aber wenn sich Ihre Frage darauf bezieht, den passiven Knoten aktiv zu machen. Wenn es einen manuellen Schritt gibt, damit sich Client-Anwendungen damit verbinden und Daten verwenden können, wird es bereits ausgeführt. Ihre Anwendungen beginnen damit, es zu verwenden, wenn Sie damit beginnen, Datenverkehr an diesen Cache-Cluster zu leiten. Also innerhalb Ihres Load Balancers. Sie schalten diese Site aus und leiten Ihren gesamten Datenverkehr an die verfügbare Site weiter, die bereits eingerichtet ist und ausgeführt wird, und Sie können alle Daten, die repliziert werden, abrufen/nutzen.
Also, aktiv-aktiv, es basiert wieder auf demselben Prinzip. Wo wir Brücken auf einem der Standorte haben.
Wir haben Cache 1, Cache 2. Beide Sites sind aktiv und sogar die passive Topologie kann aktiv gemacht werden, indem Sie mit der rechten Maustaste klicken und sie aktiv machen, und in diesem Fall werden Daten vom Cache der Site 1 an Site 2 übertragen, asynchron von Cache zu Bridge und von Bridge zu Cache und dann in ähnlicher Weise überträgt Site 2 auch Daten zurück zu Site 1.
3+ Aktiv-Aktiv-Rechenzentren, wo wir drei oder mehr aktiv-aktiv haben, wo wir eine der Seiten als Bridge-Server haben. Wir können auch eine Fallback-Site für Bridge haben. Wir können auch einen Backup-Bridge-Standort haben. Aber im Allgemeinen hätten wir eine der Sites, die hosten würden, die Bridge hosten würden, und dann überträgt diese Site Daten an andere Sites, und in ähnlicher Weise überträgt Site 2 Daten an Site 1 über Bridge und an Site 3. Und für aktiv -aktiv, wir haben eine zeitbasierte Konfliktlösung, also gewinnt die letzte Aktualisierung. Alle von uns verwendeten Datenstrukturen sind konfliktfrei. Dies sind konfliktfreie Datentypen. Es gibt keine Race-Conditions oder bekannte Probleme mit der Datenkonsistenz, da das letzte Update allgemein auf den Cache-Cluster angewendet wird. So, NCache verwaltet, ob zwei Updates für denselben Schlüssel eingehen, NCache würde dies auswerten und Ihnen auch ermöglichen, Ihre eigene Konfliktlösung zu erstellen, wenn dies erforderlich ist. Es wird also als Teil von verwaltet NCache Topologien.
Hier ist also ein kurzer Blick auf unsere Bridge-Konfigurationen.
Wir haben NCache Brückenkonfig. NCache Bridge ist der Name und dann haben wir LondonCache Umgebung 1, sodass Sie auch mehrere Caches mit demselben Namen haben können. NewYorkCache und diese verbunden sind.
Also, lassen Sie mich Ihnen das alles in Aktion zeigen, wie man eine Brücke konfiguriert? Wie man damit anfängt und dann zeigen wir Ihnen Anwendungen für Objekt-Caching und Sitzungs-Caching. Bevor Sie darauf eingehen, Ron, ich hatte gerade auf der vorherigen Folie mit dem Code eine Frage, und die Frage ist, welche Codeänderungen erforderlich sind, um die Brücke einzurichten. Müssen sie Code schreiben, damit die Daten über die Bridge repliziert werden? Gar nicht. Wir brauchen keinen Code. Es ist nur eine Konfiguration. Sie haben also Cache 1 in Rechenzentrum 1 und Cache 2 in Rechenzentrum 2. Sie konfigurieren einfach Bridge und alle Daten, die bereits von Ihren Anwendungen hinzugefügt werden NCache, wird automatisch über Bridge repliziert. Es liegt also in der Verantwortung von Bridge, die gesamte Replikation zu übernehmen. Sie müssen keinen expliziten Code schreiben, um Daten über Rechenzentren hinweg zu replizieren, und wenn wir von den Datentypen sprechen, der Konfliktlösung, das ist etwas, das auch standardmäßig implementiert ist, was zeitbasiert ist, aber wenn Sie Ihren eigenen implementieren möchten Konfliktlösung, wenn Ihre Geschäftsanforderungen darin bestehen, dass Sie Objekte auswerten, falls mehrere Aktualisierungen eingehen, können Sie in diesem Fall diese Schnittstelle implementieren. Aber was die Replikation von Daten anbelangt, so liegt die Verantwortung bei Bridge. Sie müssen dafür keinen Code schreiben.
Also, lass mich schnell anfangen, ich werde es tun einen Cache erstellen.
Nehmen wir an, ich nenne site1cache oder lasse mich hier tatsächlich SiteOneCache verwenden. Dies soll Ihnen nur eine Vorstellung davon geben, wie Sie schnell loslegen und die Brücke erstellen können. Ich werde alles standardmäßig beibehalten, weil NCache Architektur deckt all diese Details ab.
Also werde ich sie schnell durchgehen. Partition des Replikatcaches, beliebiger Cluster. Asynchrone Replikation der Topologie. Ich werde 101 wählen und mal sehen, ob ich 102 wählen kann, falls das verfügbar ist. Das sind meine beiden Server, um die Bridge zu hosten. Ich werde alle diese Standardeinstellungen beibehalten. Starten Sie dies und starten Sie auch automatisch. Beenden. Mein Cache befindet sich also auf 101 und 102, der erstellt werden soll. Mal sehen, wie es läuft, und dann werde ich weitermachen und einen weiteren Cache erstellen, der sich auf separaten Servern befinden würde, und dann werde ich die Bridge hosten und Ihnen zeigen, wie das alles funktionieren würde. Recht. Wir haben also SiteOneCache vollständig konfiguriert. Wie man sieht, ging es auch los.
Jetzt werde ich fortfahren und tatsächlich einen anderen Cache erstellen, nämlich SiteTwoCache. Ich denke, das kann ich gebrauchen. Ich habe früher damit rumgespielt. Halten Sie alles einfach und dieses Mal werde ich einen separaten Satz von Servern angeben, so dass wir dies insgesamt als separate Site darstellen. Behalten Sie alles als Standard bei und übrigens ermöglicht Ihnen unsere Bridge die Fernverwaltung aller Sites, von den Verwaltungs- und Finanztools können Sie tatsächlich alle Sites zusammen mit Bridge von einem zentralen Ort aus verwalten. Also, wenn Sie Netzwerkzugriff haben. Wenn zwischen Ihrem SiteOne und SiteTwo eine WAN-Verbindung verfügbar ist, können Sie im Wesentlichen alles verwalten. Wir haben hier also SiteTwoCache. SiteOneCache gleich hier. 101 102 repräsentiert SiteOneCache. 107 und 108 repräsentieren SiteTwoCache. Nun, und diese werden ebenfalls gestartet.
Wenn ich auf Statistiken klicke, sehen Sie, dass hier noch keine Objekte hinzugefügt wurden. Daten werden nicht in SiteOneCache oder SiteTwoCache hinzugefügt, also sind wir gut. Ich würde das einfach ausführen. Ich glaube, ich habe ein Berechtigungsproblem, um diesen Zähler zu überprüfen. Ich denke, ich kann, okay. Sie können also sehen, dass noch keine Artikel verfügbar sind. Diese beiden Caches verbinde ich nun mit Hilfe einer Bridge, die ich als nächstes konfiguriere.
Also, hier werden wir eine Brücke bauen.