Diese Seite wurde exportiert von Free Exams Dumps Materials [ http://exams.dumpsmaterials.com ] Exportdatum:Fri Dec 27 0:52:34 2024 / +0000 GMT ___________________________________________________ Titel: Gültige MuleSoft-Platform-Architect-I Exam Dumps Sichern Sie sich ein HIGH SCORE (2024) [Q27-Q48] --------------------------------------------------- Gültige MuleSoft-Platform-Architect-I Exam Dumps garantieren Ihnen einen HIGH SCORE (2024) Bestehen Sie die MuleSoft-Platform-Architect-I Prüfung mit den neuesten Fragen Salesforce MuleSoft-Platform-Architect-I Prüfung Syllabus Themen: ThemaDetailsThema 1Erläuterung der Grundlagen von Anwendungsnetzwerken: Dieses Thema umfasst Unterthemen, die sich auf die Identifizierung und Unterscheidung von Technologien für API-gesteuerte Konnektivität, die Beschreibung der Rolle und der Merkmale von Web-APIs, die Zuordnung von APIs zu Ebenen und das Verständnis von Anypoint Platform-Komponenten beziehen.Thema 2Entwerfen und gemeinsame Nutzung von APIs: Identifizieren von Abhängigkeiten zwischen API-Komponenten, Erstellen und Veröffentlichen von wiederverwendbaren API-Assets, Zuordnen von API-Datenmodellen zwischen Bounded Contexts und Erkennen von idempotenten HTTP-Methoden.Thema 3Der Einsatz von API-Implementierungen in CloudHub: Verstehen der Object Store-Nutzung, Auswahl der Worker-Größen, Vorhersage der Zuverlässigkeit und Leistung von Anwendungen und Vergleich von Load Balancern. Das Vermeiden von Single Points of Failure in Implementierungen ist ebenfalls ein Unterthema.Thema 4Erfüllung von API-Qualitätszielen: Dieses Thema konzentriert sich auf die Entwicklung von Ausfallsicherheitsstrategien, die Auswahl geeigneter Caching- und Betriebssystem-Nutzungsszenarien und die Beschreibung der Vorteile horizontaler Skalierung.Thema 5Einrichten von organisatorischen und plattformspezifischen Grundlagen: Die Beratung über ein Center for Enablement (C4E) und die Identifizierung von KPIs, die Beschreibung der Struktur von MuleSoft Catalyst, der Vergleich von Identitäts- und Client-Management-Optionen und die Identifizierung von Datenresidenztypen sind wesentliche Unterthemen. FRAGE 27Eine Organisation stellt ihre neue Implementierung der OrderStatus System API für mehrere Mitarbeiter in CloudHub bereit. Diese API bildet die Schnittstelle zum lokalen Auftragsverwaltungssystem des Unternehmens, auf das die API-Implementierung über einen IPsec-Tunnel zugreift. Welche Art von Fehler führt typischerweise NICHT zu einem Serviceausfall der OrderStatus System API? Ein CloudHub-Worker schlägt mit einer Out-of-Memory-Ausnahme fehl API Manager hat einen längeren Ausfall während der anfänglichen Bereitstellung der API-Implementierung Die AWS-Region ist aufgrund eines größeren Netzwerkausfalls in den betreffenden AWS-Rechenzentren offline Das Auftragsverwaltungssystem ist aufgrund eines Netzwerkausfalls im lokalen Rechenzentrum des Unternehmens unzugänglich. Richtige Antwort : Ein CloudHub-Arbeiter fällt mit einer Out-of-Memory-Exception aus.*****************************************>> Der Ausfall einer AWS-Region selbst führt definitiv zu einem Ausfall, da es keine Rolle spielt, wie viele Arbeiter der Mule-App zugewiesen sind, da alle Arbeiter in dieser Region ausfallen werden. Ein längerer Ausfall des API-Managers während der anfänglichen Bereitstellung der API-Implementierung führt natürlich zu Problemen beim ordnungsgemäßen Start der Anwendung selbst, da die automatische API-Erkennung fehlschlagen könnte oder API-Richtlinienvorlagen und -richtlinien zum Zeitpunkt des Anwendungsstarts nicht heruntergeladen und eingebettet werden können usw. Es gibt viele Gründe, die Probleme verursachen können.>> Ein Netzwerkausfall vor Ort würde natürlich dazu führen, dass das Order Management System nicht erreichbar ist und es spielt keine Rolle, wie viele Worker der Anwendung zugewiesen sind, sie werden alle ausfallen und mit Sicherheit einen Ausfall verursachen. Selbst wenn ein Worker ausfällt, gibt es immer noch andere Worker, die die Anfragen bearbeiten und die API am Laufen halten. Dies ist also die richtige Antwort.FRAGE 28Eine Mule-Anwendung stellt einen HTTPS-Endpunkt zur Verfügung und wird auf drei CloudHub-Workern bereitgestellt, die keine statischen IP-Adressen verwenden. Die Mule-Anwendung erwartet ein hohes Volumen an Client-Anfragen in kurzen Zeiträumen. Welches ist die kostengünstigste Infrastrukturkomponente, die verwendet werden sollte, um das hohe Volumen an Client-Anfragen zu bedienen? Ein vom Kunden gehosteter Load Balancer Der gemeinsame Load Balancer von CloudHub Ein API-Proxy Automatische Laufzeitmanager-Skalierung Richtige Antwort : Der CloudHub Shared Load Balancer*****************************************Das Szenario in dieser Frage kann wie folgt aufgeteilt werden:>> Es gibt 3 CloudHub-Worker (Es gibt also bereits eine gute Anzahl von Workern, um ein hohes Volumen an Anfragen zu bewältigen)>> Die Worker verwenden keine statischen IP-Adressen (Man kann also KEINE Kunden-Load-Balancing-Lösungen ohne statische IPs verwenden)>> Wir suchen nach der kosteneffektivsten Komponente, um die Client-Anfragen auf die Worker zu verteilen.>> Basierend auf den oben genannten Details im Szenario:>> Runtime-Autoskalierung ist überhaupt nicht kosteneffektiv, da sie zusätzliche Kosten verursacht. Wir können uns nicht für einen vom Kunden gehosteten Load Balancer entscheiden, da dieser ebenfalls NICHT kosteneffizient ist (Wartung und Lizenzierung eines eigenen Load Balancers erforderlich) und die Mule App keine statischen IP-Adressen hat, was den Einsatz eines eigenen Load Balancers einschränkt.>> Ein API Proxy ist hier irrelevant, da er keine Rolle bei der Handhabung hoher Volumina spielt.Die einzig richtige und für den Zweck des Szenarios kostengünstigste Option ist also die Verwendung eines CloudHub Shared Load Balancers.FRAGE 29Ein Unternehmen hat mit dem Aufbau eines Anwendungsnetzwerks begonnen und plant nun die Implementierung eines Center for Enablement (C4E) Organisationsmodells. Welcher Schlüsselfaktor würde das Unternehmen dazu veranlassen, sich für ein föderiertes und nicht für ein zentralisiertes C4E zu entscheiden? Wenn es eine große Anzahl vorhandener gemeinsamer Ressourcen gibt, die von den Entwicklungsteams gemeinsam genutzt werden Wenn verschiedene Teams, die für die Erstellung von APIs verantwortlich sind, neu in der Integration sind und daher eine umfassende Schulung benötigen Wenn die Entwicklung bereits in mehreren unabhängigen Initiativen oder Gruppen organisiert ist Wenn die Mehrheit der Anwendungen im Anwendungsnetzwerk cloudbasiert ist Richtige Antwort : Wenn die Entwicklung bereits in mehreren unabhängigen Initiativen oder Gruppen organisiert ist *****************************************>> Ein einzelnes C4E-Team, das sich mit mehreren bereits organisierten Entwicklungsteams, die in mehreren unabhängigen Initiativen tätig sind, abstimmt, würde einen hohen Prozessaufwand in einer Organisation erfordern. Ein einziges C4E-Team funktioniert gut, wenn verschiedene Teams zumindest eine gemeinsame Initiative haben. QUESTION 30Beziehen Sie sich auf die Abbildung: Was ist eine gültige API im Sinne von API-geführter Konnektivität und Anwendungsnetzwerken?A) Java RMI über TCPB) Java RMI über TCPC) CORBA über HOPD) XML über UDP Möglichkeit A Möglichkeit B Möglichkeit C Möglichkeit D Richtige Antwort : XML over HTTP*****************************************>> API-geführte Konnektivität und Anwendungsnetzwerke drängen darauf, die APIs auf HTTP-basierten Protokollen zu haben, um die effektivsten APIs und Netzwerke darauf aufzubauen.>> Die HTTP-basierten APIs erlauben es der Plattform, verschiedene Varianten von Richtlinien anzuwenden, um viele NFRs zu adressieren>> Die HTTP-basierten APIs erlauben es auch, viele standardmäßige und effektive Implementierungsmuster zu implementieren, die sich an HTTP-basierte w3c-Regeln halten.Unten im FormularOben im FormularFRAGE 31Was trifft auf die Technologiearchitektur von Anypoint VPCs zu? Der private IP-Adressbereich eines Anypoint VPCs wird automatisch von CloudHub ausgewählt Der Verkehr zwischen Mule-Anwendungen, die in einer Anypoint VPC bereitgestellt werden, und lokalen Systemen kann innerhalb eines privaten Netzwerks bleiben Jede CloudHub-Umgebung erfordert einen separaten Anypoint VPC VPC-Peering kann verwendet werden, um die zugrundeliegende AWS VPC mit einem privaten Netzwerk vor Ort (nicht AWS) zu verbinden Richtige Antwort : Der Verkehr zwischen Mule-Anwendungen, die in einer Anypoint VPC bereitgestellt werden, und lokalen Systemen kann innerhalb eines privaten Netzwerks bleiben*****************************************>> Der private IP-Adressbereich einer Anypoint VPC wird NICHT automatisch von CloudHub ausgewählt. Er wird von uns zum Zeitpunkt der Erstellung der VPC unter Verwendung von CIDR-Blöcken ausgewählt.CIDR-Block: Die Größe des Anypoint VPC in Classless Inter-Domain Routing (CIDR) Notation.z.B. wenn Sie ihn auf 10.111.0.0/24 setzen, erhält der Anypoint VPC 256 IP-Adressen von 10.111.0.0 bis 10.111.0.255.Idealerweise stammen die CIDR-Blöcke, die Sie für die Anypoint VPC wählen, aus einem privaten IP-Raum und sollten sich nicht mit den CIDR-Blöcken anderer Anypoint VPCs oder mit CIDR-Blöcken überschneiden, die in Ihrem Unternehmensnetzwerk verwendet werden.dass jede CloudHub-Umgebung eine separate Anypoint VPC benötigt. Sobald eine Anypoint VPC erstellt ist, können wir dieselbe VPC für mehrere Umgebungen wählen. Es ist jedoch im Allgemeinen die beste und empfohlene Praxis, immer getrennte Anypoint VPCs für Non-Prod- und Prod-Umgebungen zu haben.>> Wir verwenden Anypoint VPN, um die zugrunde liegende AWS VPC mit einem privaten Netzwerk vor Ort (nicht AWS) zu verbinden. NICHT VPC Peering.Referenz:Die einzig wahre Aussage in den gegebenen Möglichkeiten ist, dass der Datenverkehr zwischen Mule-Anwendungen, die in einer Anypoint VPC bereitgestellt werden, und lokalen Systemen innerhalb eines privaten Netzwerks bleiben kann.https://docs.mulesoft.com/runtime-manager/vpc-connectivity-methods-conceptQUESTION 32Eine Organisation implementiert eine Quote of the Day API, die das heutige Zitat zwischenspeichert.Welches Szenario kann den GoudHub Object Store über den Object Store Connector verwenden, um den Zustand des Caches zu erhalten? Wenn es drei CloudHub-Einsätze der API-Implementierung in drei verschiedenen CloudHub-Regionen gibt, die den Cache-Status gemeinsam nutzen müssen Wenn es zwei CloudHub-Bereitstellungen der API-Implementierung durch zwei Anypoint Platform-Geschäftsgruppen in derselben CloudHub-Region gibt, die den Cache-Zustand gemeinsam nutzen müssen Wenn es eine Bereitstellung der API-Implementierung auf CloudHub und eineottV -Verteilung auf eine vom Kunden gehostete Mule-Laufzeit gibt, die den Cache-Status gemeinsam nutzen müssen Wenn es einen CloudHub-Einsatz der API-Implementierung für drei CloudHub-Arbeiter gibt, die den Cache-Status gemeinsam nutzen müssen Richtige Antwort : Wenn es eine CloudHub-Implementierung der API-Implementierung für drei CloudHub-Worker gibt, die den Cache-Status gemeinsam nutzen müssen. *****************************************Schlüsseldetails im Szenario:>> Verwenden Sie den CloudHub-Objektspeicher über den Objektspeicher-ConnectorUnter Berücksichtigung der obigen Details:>> CloudHub-Objektspeicher haben eine Eins-zu-Eins-Beziehung mit CloudHub-Mule-Anwendungen.>> Wir können den CloudHub Object Store einer Anwendung NICHT verwenden, um ihn zwischen mehreren Mule-Anwendungen zu teilen, die in verschiedenen Regionen oder Geschäftsgruppen oder von Kunden gehosteten Mule-Laufzeiten laufen, indem wir den Object Store Connector verwenden. >> Wenn es wirklich notwendig ist und sehr dringend benötigt wird, dann unterstützt die Anypoint-Plattform einen Weg, indem sie den Zugriff auf den CloudHub Object Store einer anderen Anwendung über die Object Store REST API ermöglicht. Das einzige Szenario, in dem wir den CloudHub Object Store über den Object Store Connector verwenden können, um den Cache-Status aufrechtzuerhalten, ist, wenn es eine CloudHub-Bereitstellung der API-Implementierung für mehrere CloudHub-Worker gibt, die den Cache-Status gemeinsam nutzen müssen.FRAGE 33Eine API erfährt eine hohe Rate an Client-Anfragen (TPS) bei kleinen Nachrichten-Paytoads. Wie können Nutzungsbeschränkungen für die API auf der Grundlage der Art der Clientanwendung festgelegt werden? Verwenden Sie eine SLA-basierte Richtlinie zur Ratenbegrenzung und weisen Sie eine Client-Anwendung einer passenden SLA-Stufe auf der Grundlage ihres Typs zu. Verwenden Sie eine Spike-Control-Richtlinie, die die Anzahl der Anfragen für jeden Client-Anwendungstyp begrenzt. Verwenden Sie eine CORS-Richtlinie (Cross-Origin Resource Sharing), um die gemeinsame Nutzung von Ressourcen durch Client-Anwendungen zu begrenzen, die nach dem Typ der Client-Anwendung konfiguriert sind. Verwenden Sie eine Richtlinie zur Ratenbegrenzung und eine Richtlinie zur Durchsetzung der Client-ID, die jeweils für den Client-Anwendungstyp konfiguriert werden Richtige Antwort : Verwenden Sie eine SLA-basierte Richtlinie zur Ratenbegrenzung und ordnen Sie eine Client-Anwendung auf der Grundlage ihres Typs einer passenden SLA-Ebene zu. *****************************************>> SLA-Ebenen kommen immer dann ins Spiel, wenn APIs auf der Grundlage des Client-Typs begrenzt werden sollenFRAGE 34 Vor der Bereitstellung von API-Implementierungen in einer Staging-Umgebung muss eine Reihe von Tests durchgeführt werden. Aufgrund von Datensicherheits- und Zugriffsbeschränkungen kann nicht getesteten APIs kein Zugang zu den Backend-Systemen gewährt werden, so dass stattdessen gespiegelte Daten für diese Tests verwendet werden müssen. Die Menge der verfügbaren Mocked-Daten und ihrer Inhalte reicht aus, um die API-Implementierungen vollständig zu testen, ohne dass aktive Verbindungen zu den Backend-Systemen bestehen. Welche Art von Tests sollte verwendet werden, um diese gespiegelten Daten einzubeziehen? Integrationstests Leistungstests Funktionale Tests (Blackbox) Unit-Tests (Whitebox) Richtige Antwort : Unit-Tests (Whitebox)*****************************************Referenz:Gemäß der allgemeinen IT-Testpraxis und der von MuleSoft empfohlenen Praxis sollten Integrations- und Leistungstests für eine korrekte Bewertung mit einem vollständigen End-to-End-Setup durchgeführt werden. Das bedeutet, dass alle Endsysteme während der Durchführung der Tests verbunden sein sollten. Wie in der beigefügten Referenzdokumentation von MuleSoft beschrieben, beschränken sich Unit Tests auf den Code, der realistisch ausgeübt werden kann, ohne dass er in Mule selbst ausgeführt werden muss. Gute Kandidaten sind also kleine Teile des modularen Codes, Sub-Flows, benutzerdefinierte Transformatoren, benutzerdefinierte Komponenten, benutzerdefinierte Ausdrucksauswerter usw.Funktionale Tests - sind diejenigen, die die Konfiguration der Anwendung am ausführlichsten testen. Bei diesen Tests haben Sie die Freiheit und die Werkzeuge zur Simulation von glücklichen und unglücklichen Pfaden. Sie haben auch die Möglichkeit, Stubs für Zieldienste zu erstellen und sie erfolgreich oder nicht erfolgreich zu machen, um glückliche bzw. unglückliche Pfade zu simulieren.Da das Szenario in der Frage verlangt, dass die API-Implementierung vor der Bereitstellung in Staging getestet wird, und auch deutlich darauf hinweist, dass es genügend/ausreichend viele Mock-Daten gibt, um die verschiedenen Komponenten der API-Implementierungen ohne aktive Verbindungen zu den Backend-Systemen zu testen, sind Unit-Tests das Mittel der Wahl, um diese Mock-Daten einzubinden.FRAGE 35Eine REST-API wird entwickelt, um eine Mule-Anwendung zu implementieren.Welche Standard-Schnittstellendefinitionssprache kann zur Definition von REST-APIs verwendet werden? Web Service Definition Language (WSDL) OpenAPI-Spezifikation (OAS) YAML AsyncAPI-Spezifikation FRAGE 36Frage 10: ÜbersprungenEine API-Implementierung gibt drei X-RateLimit-* HTTP-Antwort-Header an einen anfragenden API-Client zurück. Welche Art von Informationen zeigen diese Antwortheader dem API-Client an? Die Fehlercodes, die aus der Drosselung resultieren Eine Korrelations-ID, die in der nächsten Anfrage gesendet werden sollte Die Größe der HTTP-Antwort Die von der API-Implementierung erlaubte Restkapazität Richtige Antwort : Die verbleibende Kapazität, die von der API-Implementierung erlaubt wird. *****************************************>> Referenz: https://docs.mulesoft.com/api-manager/2.x/rate-limiting-and-throttling-sla-based-policies#response-headersQUESTION 37In einem Unternehmen untersucht das InfoSec-Team den Datenverkehr im Zusammenhang mit Anypoint Platform.Woher stammen die meisten der Daten, die Anypoint Platform für die Überwachung und Alarmierung zur Verfügung stehen? Von der Mule-Laufzeit oder der API-Implementierung, je nach Bereitstellungsmodell Von verschiedenen Komponenten der Anypoint Platform, wie dem Shared Load Balancer, der VPC und der Mule-Laufzeit Von der Mule-Laufzeit oder dem API-Manager, abhängig von der Art der Daten Von der Mule-Laufzeit, unabhängig vom Bereitstellungsmodell Richtige Antwort : Von der Mule-Laufzeit, unabhängig vom Bereitstellungsmodell*****************************************>> Überwachungs- und Alarmierungsmetriken stammen immer von der Mule-Laufzeit, unabhängig vom Bereitstellungsmodell.>> Es mag den Anschein haben, dass einige Metriken (Runtime Manager) von der Mule-Laufzeit und einige (API-Aufrufe/ API-Analysen) vom API-Manager stammen. Dies ist jedoch realistischerweise NICHT WAHR. Der Grund dafür ist, dass der API-Manager nur ein Management-Tool für API-Instanzen ist, aber alle Richtlinien, die auf APIs angewendet werden, werden letztendlich nur auf Mule-Laufzeiten ausgeführt (entweder eingebettet oder als API-Proxy).>> Ebenso laufen alle API-Implementierungen auch auf Mule-Laufzeiten.Die meisten der für die Überwachung und Warnungen erforderlichen Tage werden also nur von Mule Runtimes erzeugt, unabhängig davon, ob es sich um ein von MuleSoft gehostetes, ein vom Kunden gehostetes oder ein hybrides Bereitstellungsmodell handelt.FRAGE 38Eine API-Implementierung wird auf einem einzelnen Worker auf CloudHub bereitgestellt und von externen API-Clients (außerhalb von CloudHub) aufgerufen. Wie kann ein Alarm eingerichtet werden, der garantiert ausgelöst wird, sobald diese API-Implementierung nicht mehr auf API-Aufrufe reagiert? Implementieren Sie einen Heartbeat/Gesundheitscheck innerhalb der API und rufen Sie ihn von außerhalb der Anypoint Platform auf und schlagen Sie Alarm, wenn der Heartbeat nicht antwortet Konfigurieren Sie eine Warnung "Worker antwortet nicht" im Anypoint Runtime Manager Behandeln Sie API-Aufrufausnahmen innerhalb des aufrufenden API-Clients und lösen Sie eine Warnung von diesem API-Client aus, wenn die API nicht verfügbar ist Erstellen Sie eine Warnung, wenn die API innerhalb eines bestimmten Zeitraums keine Anfragen erhält. Richtige Antwort : Konfigurieren Sie eine "Worker not responding"-Warnung im Anypoint Runtime Manager. *****************************************>> Alle Optionen helfen schließlich dabei, die erforderliche Warnung zu generieren, wenn die Anwendung nicht mehr reagiert.>> Die Behandlung von Ausnahmen innerhalb der aufrufenden API und die anschließende Auslösung einer Warnung vom API-Client ist jedoch unangemessen und dumm. Es könnte viele API-Clients geben, die die API-Implementierung aufrufen, und es ist nicht ideal, dieses Setup konsistent in allen von ihnen zu haben. Keine realistische Vorgehensweise >> Die Implementierung einer Zustandsprüfung/eines Heartbeats innerhalb der API und der Aufruf von außen, um den Zustand festzustellen, klingt gut, erfordert aber eine zusätzliche Einrichtung, und gleichzeitig ist die Wahrscheinlichkeit sehr groß, dass falsche Alarme ausgelöst werden, wenn es zwischen dem externen Tool, das die Zustandsprüfungs-API aufruft, und der API-Implementierung intermittierende Netzwerkprobleme gibt. Die API-Implementierung selbst mag keine Probleme haben, aber aufgrund einiger anderer Faktoren können falsche Alarme ausgelöst werden.>> Das Erstellen eines Alarms im API-Manager, wenn die API innerhalb eines bestimmten Zeitraums keine Anfragen erhält, würde tatsächlich realistische Alarme erzeugen, aber selbst hier können einige falsche Alarme ausgelöst werden, wenn es wirklich keine Anfragen von API-Clients gibt.>> Der beste und richtige Weg, diese Anforderung zu erfüllen, ist das Einrichten eines Alarms im Runtime-Manager mit der Bedingung "Worker not responding". Dies würde einen Alarm generieren, sobald die Worker nicht mehr reagieren. unten im Formular oben im FormularFRAGE 39Beziehen Sie sich auf die Abbildung: Wie lässt sich ein End-to-End-Geschäftsprozess am besten in eine Zusammenarbeit von Erfahrungs-, Prozess- und System-APIs zerlegen?A) Behandeln Sie Anpassungen für die Endbenutzeranwendung eher auf der Ebene der Prozess-API als auf der Ebene der Erfahrungs-APIB) Erlauben Sie System-APIs, Daten zurückzugeben, die derzeit NICHT von den identifizierten Prozess- oder Erfahrungs-APIs benötigt werdenC) Verwenden Sie immer einen abgestuften Ansatz, indem Sie genau eine API für jede der drei Schichten (Erfahrungs-, Prozess- und System-APIs) erstellenD) Verwenden Sie eine Prozess-API, um Aufrufe an mehrere System-APIs zu orchestrieren, aber NICHT an andere Prozess-APIs Möglichkeit A Möglichkeit B Möglichkeit C Möglichkeit D Richtige Antwort : Erlauben Sie den System-APIs, Daten zurückzugeben, die derzeit NICHT von den identifizierten Prozess- oder Erfahrungs-APIs benötigt werden. *****************************************>> Alle Anpassungen für die Endbenutzeranwendung sollten nur in der "Erfahrungs-API" behandelt werden. Nicht in der Prozess-API>> Wir sollten einen abgestuften Ansatz verwenden, aber nicht immer genau eine API für jede der drei Schichten erstellen. Erfahrungs-APIs können eine sein, aber Prozess-APIs und System-APIs sind oft mehr als eine. System-APIs werden mit Sicherheit immer mehr als eine sein, da sie die kleinsten modularen APIs sind, die vor den Endsystemen gebaut werden >> Prozess-APIs können sowohl System-APIs als auch andere Prozess-APIs aufrufen. Es gibt kein solches Anti-Design-Muster in der API-gesteuerten Konnektivität, das besagt, dass Prozess-APIs keine anderen Prozess-APIs aufrufen sollten. Die richtige Antwort in der gegebenen Reihe von Optionen, die gemäß den API-gesteuerten Konnektivitätsprinzipien Sinn macht, ist also, System-APIs zu erlauben, Daten zurückzugeben, die derzeit NICHT von den identifizierten Prozess- oder Erfahrungs-APIs benötigt werden. Auf diese Weise können zukünftige Prozess-APIs diese Daten von System-APIs nutzen und wir müssen die APIs der Systemebene NICHT immer wieder anfassen.FRAGE 40Der Datenverkehr wird über einen API-Proxy zu einer API-Implementierung geleitet. Der API-Proxy wird von API Manager verwaltet und die API-Implementierung wird mit Runtime Manager in einer CloudHub VPC bereitgestellt. API-Richtlinien wurden auf diese API angewendet. An welchem Punkt werden in diesem Bereitstellungsszenario die API-Richtlinien für eingehende API-Client-Anforderungen durchgesetzt? Auf dem API-Proxy Bei der API-Implementierung Sowohl am API-Proxy als auch an der API-Implementierung Bei einem von MuleSoft gehosteten Load Balancer Richtige Antwort : Am API-Proxy*****************************************>> API-Richtlinien können an zwei Stellen in der Mule-Plattform durchgesetzt werden.>> Erstens - als Durchsetzung einer eingebetteten Richtlinie in derselben Mule Runtime, in der auch die API-Implementierung läuft.>> Zweitens - auf einem API-Proxy, der vor der Mule Runtime sitzt, in der die API-Implementierung läuft.>> Da in dem Einsatzszenario in der Frage der API-Proxy involviert ist, werden die Richtlinien am API-Proxy durchgesetzt.FRAGE 41Welche API-Richtlinie würde am WENIGSTEN verwendet werden, wenn man eine Experience-API entwirft, die mit einer Verbraucher-Mobiltelefon- oder Tablet-Anwendung arbeiten soll? Durchsetzung von OAuth 2.0-Zugangs-Token Durchsetzung der Client-ID JSON-Bedrohungsschutz IP-Whitellst Richtige Antwort: IP-Whitelist*****************************************>> OAuth 2.0-Zugangstoken- und Client-ID-Durchsetzungsrichtlinien werden sehr häufig auf Experience-APIs angewendet, da API-Kunden sich registrieren und über einen dieser Mechanismen auf die APIs zugreifen müssen>>> JSON-Bedrohungsschutz ist ebenfalls eine sehr häufig angewandte Richtlinie, die auf Experience-APIs angewendet wird, um zu verhindern, dass schädliche oder verdächtige Nutzdaten auf die API-Implementierungen treffen.>> Die IP-Whitelist-Richtlinie wird in der Regel sehr häufig bei Prozess- und System-APIs angewendet, um nur den IP-Bereich innerhalb der lokalen VPC zu whitelisten. Wenn wir die API-Kunden im Voraus kennen, die auf bestimmte APIs zugreifen werden, können wir statische IPs von diesen Kunden anfordern und sie auf die Whitelist setzen, um zu verhindern, dass jemand anderes auf die API zugreift. Das bedeutet, dass es unmöglich ist, alle möglichen IPs zu kennen, die auf die Whitelist gesetzt werden müssen, da es so viele Mobiltelefone und Tablets gibt und jedes Gerät in der Stadt/im Staat/im Land/auf der ganzen Welt. Daher ist es sehr unwahrscheinlich, IP-Whitelisting auf solche Erlebnis-APIs anzuwenden, deren Verbraucher typischerweise Mobiltelefone oder Tablets sind.FRAGE 42Eine neue Upstream-API wird entwickelt, um eine SLA von 500 ms mittlerer und 800 ms maximaler (99. Perzentil) Antwortzeit anzubieten. Die entsprechende API-Implementierung muss nacheinander 3 nachgelagerte APIs von sehr ähnlicher Komplexität aufrufen.die erste dieser nachgelagerten APIs bietet das folgende SLA für ihre Antwortzeit: Median: 100 ms, 80. Perzentil: 500 ms, 95. Perzentil: 1000 ms.Wie kann, falls möglich, in der vorgelagerten API eine Zeitüberschreitung für den Aufruf der ersten nachgelagerten API festgelegt werden, um die gewünschte SLA der neuen vorgelagerten API zu erfüllen? Festlegen einer Zeitüberschreitung von 50 ms; dadurch werden mehr Aufrufe dieser API verzögert, aber es bleibt zusätzlicher Raum für Wiederholungsversuche Legen Sie eine Zeitüberschreitung von 100 ms fest; damit verbleiben 400 ms für die beiden anderen nachgelagerten APIs zur Fertigstellung Es ist keine Zeitüberschreitung möglich, um die gewünschte SLA der vorgelagerten API zu erfüllen; eine andere SLA muss mit der ersten nachgelagerten API ausgehandelt werden oder eine alternative API muss aufgerufen werden Keine Zeitüberschreitung festlegen; der Aufruf dieser API ist obligatorisch und daher müssen wir warten, bis sie antwortet Richtige Antwort: Legen Sie eine Zeitüberschreitung von 100 ms fest; damit verbleiben 400 ms für die anderen beiden nachgelagerten APIs zur Fertigstellung*****************************************Schlüsseldetails aus dem gegebenen Szenario:>> Die geplante SLA der vorgelagerten API beträgt 500 ms (Median). Diese API ruft nacheinander 3 nachgelagerte APIs auf, die alle eine ähnliche Komplexität aufweisen.>> Die erste nachgelagerte API bietet eine mittlere SLA von 100 ms, 80. Perzentil: 500 ms; 95. Perzentil: 1000 ms.>> Basierend auf den obigen Details:>> Wir können die Option ausschließen, die vorschlägt, 50 ms Timeout einzustellen. Denn wenn der Median des SLA 100ms beträgt, werden die meisten Anrufe einen Timeout erleiden und die Zeit wird mit Wiederholungsversuchen vergeudet und schließlich mit allen Wiederholungsversuchen erschöpft. Selbst wenn einige Wiederholungen erfolgreich sind, wird die verbleibende Zeit nicht genug Raum für die 2. und 3. nachgelagerten APIs lassen, um innerhalb der Zeit zu antworten.>> Die Option, die vorschlägt, KEINE Zeitüberschreitung zu setzen, da der Aufruf dieser API obligatorisch ist und wir daher warten müssen, bis sie antwortet, ist dumm. Wenn die erste API nicht innerhalb der angebotenen mittleren SLA von 100 ms antwortet, würde sie höchstwahrscheinlich entweder in 500 ms (80. Perzentil) oder 1000 ms (95. Perzentil) antworten. In BEIDEN Fällen nützt eine erfolgreiche Antwort von der ersten nachgelagerten API nichts mehr, da zu diesem Zeitpunkt das Upstream-API-SLA von 500 ms bereits überschritten ist. Es ist NICHT wahr, dass keine Zeitüberschreitung möglich ist, um die gewünschte SLA der Upstream-APIs zu erfüllen, da die erste Downstream-API ihre mittlere SLA von 100 ms anbietet, was bedeutet, dass wir die Antworten in den meisten Fällen innerhalb dieser Zeit erhalten würden. Eine Zeitüberschreitung von 100 ms wäre also ideal für die meisten Aufrufe, da sie genügend Spielraum von 400 ms für die verbleibenden 2 Downstream-API-Aufrufe lässt.FRAGE 43Beziehen Sie sich auf die Abbildung: Drei Geschäftsprozesse müssen implementiert werden, und die Implementierungen müssen mit verschiedenen SaaS-Anwendungen kommunizieren.Diese Prozesse gehören zu separaten (isolierten) LOBs und sind größtenteils unabhängig voneinander, haben aber einige Geschäftseinheiten gemeinsam. Jede LOB verfügt über ein Entwicklungsteam und ein eigenes Budget. Welcher Ansatz ist in diesem organisatorischen Kontext am effektivsten, um die API-Datenmodelle für die APIs auszuwählen, die diese Geschäftsprozesse mit minimaler Redundanz der Datenmodelle implementieren werden?A) Erstellen Sie mehrere Bounded Context-Datenmodelle, die mit kohärenten Teilen der Geschäftsprozesse und den Definitionen der zugehörigen Geschäftseinheiten übereinstimmenB) Erstellen Sie unterschiedliche Datenmodelle für jede API, um etablierten Microservices und agilen API-zentrierten Praktiken zu folgenC) Erstellen Sie alle API-Datenmodelle unter Verwendung von XML-Schema, um die Konsistenz und Wiederverwendung im gesamten Unternehmen zu fördernD) Erstellen Sie ein zentralisiertes kanonisches Datenmodell (Unternehmensdatenmodell), das alle Datentypen aus allen drei Geschäftsprozessen vereint und sicherstellt, dass das Datenmodell konsistent und nicht redundant ist Möglichkeit A Option B Möglichkeit C Möglichkeit D Richtige Antwort: Erstellen Sie mehrere Bounded Context-Datenmodelle, die mit kohärenten Teilen der Geschäftsprozesse und den Definitionen der zugehörigen Geschäftseinheiten übereinstimmen. *****************************************>> Die Optionen zum Erstellen von API-Datenmodellen unter Verwendung von XML-Schema/agilen API-zentrierten Praktiken sind für das in der Frage genannte Szenario irrelevant. Der Aufbau eines EDM (Enterprise Data Model) ist für dieses Szenario nicht machbar oder geeignet, da die Teams und LOBs in Silos arbeiten und alle unterschiedliche Initiativen, Budgets usw. haben. Die richtige Lösung für dieses Szenario ist daher der Aufbau mehrerer Bounded Context Data Models, die mit kohärenten Teilen der Geschäftsprozesse und den Definitionen der zugehörigen Geschäftseinheiten übereinstimmen. FRAGE 44 In welcher Schicht der API-geführten Konnektivität befindet sich die Orchestrierung der Geschäftslogik? Systemschicht Erfahrungsschicht Prozess-Schicht Richtige Antwort : Prozessschicht*****************************************>> Erfahrungsschicht ist für die Anreicherung der Endbenutzererfahrung bestimmt. Diese Schicht dient dazu, die Bedürfnisse verschiedener API-Clients/Konsumenten zu erfüllen.>> Die Systemschicht ist APIs gewidmet, die modular aufgebaut sind und verschiedene individuelle Funktionalitäten von Backend-Systemen implementieren/offenlegen>> Die Prozessschicht ist der Ort, an dem einfache oder komplexe Business-Orchestrierungslogik geschrieben wird, indem eine oder viele modulare APIs der Systemschicht aufgerufen werden.QUESTION 45Sagen wir, es gibt ein Legacy-CRM-System namens CRM-Z, das folgende Funktionen bietet:1. Kundenanlage2. Ändern von Details eines bestehenden Kunden3. Abrufen von Details eines Kunden4. Einen Kunden sperren Implementieren Sie eine System-API mit dem Namen customerManagement, in der alle Funktionen als verschiedene Operationen/Ressourcen verpackt sind. Implementieren Sie verschiedene System-APIs mit den Namen createCustomer, amendCustomer, retrieveCustomer und suspendCustomer, da diese modular sind und eine Trennung der Belange aufweisen Implementieren Sie verschiedene System-APIs mit den Namen createCustomerInCRMZ, amendCustomerInCRMZ, retrieveCustomerFromCRMZ und suspendCustomerInCRMZ, da sie modular aufgebaut sind und eine Trennung der Bereiche ermöglichen Richtige Antwort: Implementieren Sie verschiedene System-APIs mit den Namen createCustomer, amendCustomer, retrieveCustomer und suspendCustomer, da sie modular sind und eine Trennung der Belange haben*****************************************>> Es ist ganz normal, eine einzige API und verschiedene Verb-/Ressourcen-Kombinationen zu haben. Dies passt jedoch gut zu einer Erlebnis-API oder einer Prozess-API, ist aber nicht der beste Architekturstil für System-APIs. Die Option mit APIs im Format createCustomerInCRMZ kommt der Modularisierung und dem Wartungsaufwand am nächsten, aber die Benennung der APIs ist direkt mit dem Altsystem gekoppelt. Ein besserer Ansatz wäre es, Ihre APIs zu benennen, indem Sie die Namen der Backend-Systeme abstrahieren, da dies jederzeit eine nahtlose Ersetzung/Migration eines beliebigen Backend-Systems ermöglicht. Dies ist also nicht die richtige Wahl.>> createCustomer, amendCustomer, retrieveCustomer und suspendCustomer ist der richtige Ansatz und die beste Lösung im Vergleich zu den anderen Optionen, da sie beide modular sind und gleichzeitig die Namen vom Backend-System entkoppelt haben und alle Anforderungen, die eine System-API benötigt, abgedeckt sind.FRAGE 46Eine Organisation trifft die strategische Entscheidung, sich in Richtung eines IT-Betriebsmodells zu bewegen, das die Nutzung wiederverwendbarer IT-Assets unter Verwendung moderner APIs (wie von MuleSoft definiert) betont.Wie lässt sich jede moderne API in Bezug auf dieses neue IT-Betriebsmodell am besten beschreiben? Jede moderne API hat ihren eigenen Lebenszyklus für die Softwareentwicklung, was den Bedarf an Dokumentation und Automatisierung reduziert. Jede moderne API muss wie ein Produkt behandelt und für eine bestimmte Zielgruppe (z. B. Entwickler von mobilen Anwendungen) konzipiert werden. Jede moderne API muss einfach zu nutzen sein und sollte daher komplexe Authentifizierungsmechanismen wie SAML oder JWT D vermeiden. Jede moderne API muss REST- und HTTP-basiert sein Richtige Antworten:1. Jede moderne API muss wie ein Produkt behandelt und für eine bestimmte Zielgruppe (z. B. Entwickler mobiler Anwendungen) konzipiert werden. *****************************************Formular untenFormular obenFrage 47Welche Schicht in der API-gesteu