Diese Seite wurde exportiert von Free Exams Dumps Materials [ http://exams.dumpsmaterials.com ] Exportdatum:Thu Dec 5 2:28:51 2024 / +0000 GMT ___________________________________________________ Titel: [2022] Professional-Cloud-Developer Dumps sind für sofortigen Zugriff verfügbar [Q30-Q54] --------------------------------------------------- [2022] Professional-Cloud-Developer Dumps sind für sofortigen Zugriff verfügbar Gültige Professional-Cloud-Developer Dumps für die Hilfe beim Bestehen der Professional-Cloud-Developer Prüfung! Google Professional-Cloud-Developer Prüfung Syllabus Themen: ThemaDetailsThema 1Einführen geeigneter Bereitstellungsstrategien basierend auf der Ziel-Compute-Umgebung Erstellen eines Load Balancers für Compute-Engine-InstanzenThema 2Integrieren einer Anwendung mit Daten- und Speicherdiensten Schreiben einer SQL-Abfrage zum Abrufen von Daten aus relationalen DatenbankenThema 3Lesen und Aktualisieren einer Entität in einer Cloud-Datenspeichertransaktion aus einer Application Using Apis To ReadWrite To Data ServicesTopic 4Publishing And Consuming From Data Ingestion Sources Authentic Users By Using Oauth2 Web Flow And Identity Aware ProxyTopic 5Launching A Compute Instance Using GCP Console And Cloud SDK Creating An Autoscaled Managed Instance Group Using An Instance TemplateTopic 6Setting Up Your Development Environment, Überlegungen Erstellen und Testen von AnwendungenThema 7Überprüfen von Testergebnissen der Continuous Integration Pipeline Entwickeln von Unit-Tests für den gesamten geschriebenen CodeThema 8Konfigurieren von Compute Services Netzwerkeinstellungen Konfigurieren eines Cloud PubSub Push-Abonnements zum Aufrufen eines EndpunktsThema 9Betriebssystemversionen und Basis-Laufzeiten von Diensten Oogle-Empfohlene Praktiken und DokumentationThema 10Sicherheitsmechanismen zum Schutz von Diensten und Ressourcen Auswahl von Datenspeicheroptionen basierend auf Überlegungen zum AnwendungsfallThema 11Definieren einer Schlüsselstruktur für Anwendungen mit hohem Schreibbedarf Verwenden von Cloud-Speicher Verwenden von Cloud-Speicher zum Ausführen einer statischen WebsiteThema 12Bereitstellen von Anwendungen und Diensten auf der Google Kubernetes Engine Bereitstellen von Anwendungen und Diensten auf der Google Kubernetes EngineThema 13Definieren von Datenbankschemata für Google-Managed Databases Re-Architecting Applications From Local Services To Google Cloud PlatformTopic 14Developing An Integration Pipeline Using Services Emulating GCP Services For Local Application DevelopmentTopic 15Google-Recommended Practices And Documentation Deploying And Securing An API With Cloud EndpointsTopic 16Eploying Applications And Services On Compute Engine Deploying An Application To App EngineTopic 17Designing Highly Scalable, verfügbarer und zuverlässiger Cloud-nativer Anwendungen Geografische Verteilung von Google Cloud Services Zertifizierungspfad für Google Professional Cloud Developer Die Google Professional Cloud Developer-Zertifizierung ist die höchste Zertifizierungsstufe, die sich hauptsächlich auf den Google Professional Cloud Developer konzentriert. Es gibt keine Voraussetzung für diese Prüfung, aber es wäre dennoch am besten, eine bestimmte Reihenfolge zu befolgen, um ein immenses Wissen als Google Professional Cloud Developer zu beweisen. Sie können die Google Associate-Zertifizierungen abschließen und sich dann für die professionelle Zertifizierung bewerben. Weitere Informationen zur Google Cloud-Zertifizierung finden Sie unter Google-Zertifizierungspfad Der Inhalt des Qualifikationstests für die Google Professional Cloud Developer-Zertifizierung besteht aus 5 Themen, die spezifische Kenntnisse und Fähigkeiten abdecken. Die Kandidaten müssen vor der Teilnahme an der Prüfung einen detaillierten Prüfungsleitfaden studieren, der auf der offiziellen Website verfügbar ist. Die wichtigsten Themen, die die Struktur der Prüfung bilden, sind im Folgenden aufgeführt: Abschnitt 1: Design hoch skalierbarer, verfügbarer und zuverlässiger Cloud-Native Apps In diesem Themenbereich müssen die Prüflinge ihre Fähigkeiten bei der Entwicklung hochleistungsfähiger Anwendungen und APIs, der Entwicklung sicherer Anwendungen, der Verwaltung von Anwendungsdaten und der Durchführung von Anwendungsmodernisierungen nachweisen. NEIN.30 Welche der folgenden Kundenaussagen würde Sie auf ein Sicherheitsproblem aufmerksam machen? (Wählen Sie zwei aus.) Mein iPhone hat geblitzt und Funken geschlagen, als ich es aufladen wollte. Die Ecke meines iPads ist stark verbogen. Die Lautstärke meines iPhones schwankt. Manchmal ist es ohrenbetäubend. Der Bildschirm ist zu hell. Das tut meinen Augen weh. Meine neue Apple Watch juckt mich und mein Handgelenk ist rot und gereizt. Die Home-Taste meines iPhones scheint gesunken zu sein. Rachel beginnt mit der Reparatur eines drei Jahre alten MacBook Pro. Nachdem sie das Gerät geöffnet hat, nimmt sie sich etwas Zeit, um die obere Gehäusebaugruppe mit der Batterie visuell zu inspizieren.Auf welche der folgenden Probleme sollte Rachel bei der Inspektion der eingebauten Batterie achten? (Wählen Sie zwei aus.) Aktualisierte Batterie-Firmware Pünktchenaufdrucke Der Akku hat die richtige Farbe Kratzer Versandetikett für die Batteriekonformität NO.32 Sie verwenden Cloud Build, um bei jeder Quellcodeübergabe an ein Cloud Source Repository ein neues Docker-Image zu erstellen. Ihre Anwendung wird bei jeder Übergabe an den Master-Zweig erstellt. Sie möchten bestimmte Commits für den Master-Zweig automatisiert freigeben. Was sollten Sie tun? Lösen Sie den Build für neue Releases manuell aus. Erstellen Sie einen Build-Trigger anhand eines Git-Tag-Musters. Verwenden Sie eine Git-Tag-Konvention für neue Versionen. Erstellen Sie einen Build-Trigger anhand eines Git-Branch-Namensmusters. Verwenden Sie eine Git-Branch-Namenskonvention für neue Versionen. Committen Sie Ihren Quellcode in ein zweites Cloud Source Repositories Repository mit einem zweiten Cloud Build Trigger. Verwenden Sie dieses Repository nur für neue Versionen. Referenz:https://docs.docker.com/docker-hub/builds/NO.33 Ihre Anwendung läuft gut, wenn sie lokal getestet wird, aber sie läuft deutlich langsamer, wenn Sie sie in der App Engine Standardumgebung einsetzen. Sie möchten das Problem diagnostizieren. Was sollten Sie tun? Reichen Sie ein Ticket beim Cloud-Support ein und geben Sie an, dass die Anwendung lokal schneller läuft. Verwenden Sie Stackdriver Debugger Snapshots, um eine Point-in-Time-Ausführung der Anwendung zu betrachten. Verwenden Sie Stackdriver Trace, um festzustellen, welche Funktionen innerhalb der Anwendung eine höhere Latenz aufweisen. Fügen Sie der Anwendung Protokollierungsbefehle hinzu und verwenden Sie Stackdriver Logging, um zu prüfen, wo das Latenzproblem auftritt. Thema 1, HipLocal FallstudieUnternehmensübersichtHipLocal ist eine Community-Anwendung, die die Kommunikation zwischen Menschen in unmittelbarer Nähe erleichtern soll. Sie wird für die Planung und Organisation von Sportereignissen und für Unternehmen verwendet, um mit ihren lokalen Gemeinschaften in Verbindung zu treten. HipLocal wurde vor kurzem in einigen Vierteln von Dallas eingeführt und entwickelt sich schnell zu einem globalen Phänomen. Der einzigartige Stil der hyperlokalen Community-Kommunikation und des Business Outreach ist auf der ganzen Welt gefragt.Executive StatementWir sind die Nummer eins der lokalen Community-Apps; es ist an der Zeit, unsere lokalen Community-Dienste global zu machen. Unsere Risikokapitalgeber wollen ein schnelles Wachstum und dieselbe großartige Erfahrung für neue lokale und virtuelle Gemeinschaften, die online gehen, unabhängig davon, ob ihre Mitglieder 10 oder 10.000 Meilen voneinander entfernt sind.LösungskonzeptHipLocal möchte seinen bestehenden Dienst mit aktualisierten Funktionen in neuen Regionen erweitern, um seine globalen Kunden besser bedienen zu können. Das Unternehmen möchte ein neues Team einstellen und schulen, um diese Regionen in ihren Zeitzonen zu unterstützen. Sie müssen sicherstellen, dass die Anwendung reibungslos skaliert und klare Betriebszeitdaten liefert.Bestehende technische UmgebungDie Umgebung von HipLocal ist eine Mischung aus lokaler Hardware und Infrastruktur, die in der Google Cloud Platform läuft. Das HipLocal-Team kennt sich mit seiner Anwendung gut aus, hat aber nur begrenzte Erfahrung mit Anwendungen im globalen Maßstab. Die bestehende technische Umgebung sieht wie folgt aus:* Bestehende APIs werden auf virtuellen Compute-Engine-Maschineninstanzen ausgeführt, die in GCP gehostet werden* Der Status wird in einer einzelnen MySQL-Datenbankinstanz in GCP gespeichert* Daten werden in ein lokales Teradata/Vertica Data Warehouse exportiert* Die Datenanalyse wird in einer lokalen Hadoop-Umgebung durchgeführt* Die Anwendung verfügt über keine Protokollierung* Es gibt grundlegende Indikatoren für die Betriebszeit; Warnungen werden häufig ausgelöst, wenn die APIs nicht reagieren Geschäftsanforderungen Die Investoren von HipLocal möchten ihre Präsenz ausbauen und die steigende Nachfrage unterstützen, die sie beobachten. Ihre Anforderungen sind:* Ausweitung der Verfügbarkeit der Anwendung auf neue Regionen* Erhöhung der Anzahl gleichzeitiger Benutzer, die unterstützt werden können* Sicherstellung einer konsistenten Erfahrung für Benutzer, wenn sie in verschiedene Regionen reisen* Gewinnung von Benutzeraktivitätsmetriken, um besser zu verstehen, wie das Produkt monetarisiert werden kann* Sicherstellung der Einhaltung von Vorschriften in den neuen Regionen (z. B., Technische Anforderungen* Die Anwendung und das Backend müssen Nutzungsmetriken und -überwachung bereitstellen* APIs erfordern eine starke Authentifizierung und Autorisierung* Die Protokollierung muss verstärkt werden, und die Daten sollten in einer Cloud-Analyseplattform gespeichert werden* Umstellung auf eine serverlose Architektur zur Erleichterung der elastischen Skalierung* Sicherer und autorisierter Zugriff auf interne AnwendungenNO.34 Welchen Dienst sollte HipLocal nutzen, um den Zugriff auf interne Anwendungen zu ermöglichen? Cloud-VPN Cloud Armor Virtuelle Private Cloud Cloud Identity-Aware Proxy Referenz:https://cloud.google.com/iap/docs/cloud-iap-for-on-prem-apps-overviewNO.35 Die Entwicklungsteams Ihres Unternehmens möchten Cloud Build in ihren Projekten verwenden, um Docker-Images zu erstellen und an Container Registry zu senden. Das Betriebsteam möchte, dass alle Docker-Images in einer zentralen, sicher verwalteten Docker-Registry veröffentlicht werden, die vom Betriebsteam verwaltet wird.Was sollten Sie tun? Verwenden Sie Container Registry, um eine Registry in jedem Projekt des Entwicklungsteams zu erstellen. Konfigurieren Sie den Cloud Build-Build, um das Docker-Image in die Registry des Projekts zu pushen. Gewähren Sie dem Betriebsteam Zugriff auf die Registry der einzelnen Entwicklungsteams. Erstellen Sie ein separates Projekt für das Betriebsteam, in dem die Container-Registry konfiguriert ist. Weisen Sie dem Cloud Build Service-Konto im Projekt jedes Entwicklerteams die entsprechenden Berechtigungen zu, um den Zugriff auf die Registry des Betriebsteams zu ermöglichen. Erstellen Sie ein separates Projekt für das Betriebsteam, in dem Container Registry konfiguriert ist. Erstellen Sie ein Dienstkonto für jedes Entwicklerteam und weisen Sie ihm die entsprechenden Berechtigungen zu, um den Zugriff auf die Registry des Betriebsteams zu ermöglichen. Speichern Sie die Schlüsseldatei des Dienstkontos im Quellcode-Repository und verwenden Sie sie zur Authentifizierung gegenüber der Registry des Betriebsteams. Erstellen Sie ein separates Projekt für das Betriebsteam, in dem die Open-Source-Docker-Registry auf einer virtuellen Compute-Engine-Maschineninstanz bereitgestellt wird. Speichern Sie den Benutzernamen und das Kennwort im Quellcode-Repository und verwenden Sie sie, um sich gegenüber der Docker-Registry des Betriebsteams zu authentifizieren. NO.36 Sie sind ein SaaS-Anbieter, der in seinem Google Kubernetes Engine (GKE)-Cluster spezielle Blogging-Software für Kunden bereitstellt. Sie möchten eine sichere mandantenfähige Plattform konfigurieren, um sicherzustellen, dass jeder Kunde nur auf seinen eigenen Blog zugreifen und die Arbeitslasten anderer Kunden nicht beeinträchtigen kann. Was sollten Sie tun? Aktivieren Sie Secrets auf der Anwendungsebene im GKE-Cluster, um den Cluster zu schützen. Stellen Sie einen Namespace pro Tenant bereit und verwenden Sie Netzwerkrichtlinien in jeder Blog-Bereitstellung. Verwenden Sie die GKE-Auditprotokollierung, um bösartige Container zu identifizieren und sie bei Entdeckung zu löschen. Erstellen Sie ein benutzerdefiniertes Image der Blogging-Software und verwenden Sie Binary Authorization, um die Bereitstellung eines nicht vertrauenswürdigen Images zu verhindern. NO.37 FallstudieDies ist eine Fallstudie. Fallstudien werden nicht gesondert gewertet. Sie können so viel Prüfungszeit verwenden, wie Sie möchten, um jeden Fall abzuschließen. Es kann jedoch zusätzliche Fallstudien und Abschnitte in dieser Prüfung geben. Sie müssen Ihre Zeit so einteilen, dass Sie in der Lage sind, alle Fragen dieser Prüfung in der vorgesehenen Zeit zu beantworten. Fallstudien können Exponate und andere Ressourcen enthalten, die weitere Informationen über das in der Fallstudie beschriebene Szenario liefern. Jede Frage ist unabhängig von den anderen Fragen in dieser Fallstudie, und am Ende der Fallstudie wird ein Überprüfungsbildschirm angezeigt. Auf diesem Bildschirm können Sie Ihre Antworten überprüfen und Änderungen vornehmen, bevor Sie zum nächsten Prüfungsabschnitt übergehen. Nachdem Sie einen neuen Abschnitt begonnen haben, können Sie nicht mehr zu diesem Abschnitt zurückkehren.So starten Sie die FallstudieUm die erste Frage in dieser Fallstudie anzuzeigen, klicken Sie auf die Schaltfläche Weiter. Verwenden Sie die Schaltflächen im linken Fensterbereich, um den Inhalt der Fallstudie zu erkunden, bevor Sie die Fragen beantworten. Wenn Sie auf diese Schaltflächen klicken, werden Informationen wie z. B. die Geschäftsanforderungen, die vorhandene Umgebung und die Problemstellung angezeigt. Wenn die Fallstudie über eine Registerkarte Alle Informationen verfügt, beachten Sie, dass die angezeigten Informationen identisch mit den Informationen sind, die auf den nachfolgenden Registerkarten angezeigt werden. Wenn Sie bereit sind, eine Frage zu beantworten, klicken Sie auf die Schaltfläche Frage, um zu der Frage zurückzukehren.UnternehmensübersichtHipLocal ist eine Community-Anwendung, die die Kommunikation zwischen Menschen in unmittelbarer Nähe erleichtern soll. Sie wird für die Planung und Organisation von Sportereignissen und für Unternehmen verwendet, um mit ihren lokalen Gemeinschaften in Kontakt zu treten. HipLocal wurde vor kurzem in einigen Vierteln von Dallas eingeführt und entwickelt sich schnell zu einem globalen Phänomen. Sein einzigartiger Stil der hyperlokalen Community-Kommunikation und des Business Outreach ist auf der ganzen Welt gefragt.Executive StatementWir sind die Nummer eins der lokalen Community-Apps; es ist an der Zeit, unsere lokalen Community-Dienste global zu machen. Unsere Risikokapitalgeber wollen ein schnelles Wachstum und dieselbe großartige Erfahrung für neue lokale und virtuelle Gemeinschaften, die online gehen, unabhängig davon, ob ihre Mitglieder 10 oder 10000 Meilen voneinander entfernt sind.LösungskonzeptHipLocal möchte seinen bestehenden Service mit aktualisierten Funktionen in neuen Regionen erweitern, um seine globalen Kunden besser zu bedienen. Das Unternehmen möchte ein neues Team einstellen und schulen, um diese Regionen in ihren Zeitzonen zu unterstützen. Die bestehende technische Umgebung von HipLocal ist eine Mischung aus lokaler Hardware und einer Infrastruktur, die in der Google Cloud Platform ausgeführt wird. Das HipLocal-Team kennt sich mit seiner Anwendung gut aus, hat aber nur begrenzte Erfahrung mit Anwendungen im globalen Maßstab.* Der Status wird in einer MySQL-Datenbank mit einer einzigen Instanz in GCP gespeichert.* Die Daten werden in ein lokales Teradata/Vertica-Data-Warehouse exportiert.* Die Datenanalyse wird in einer lokalen Hadoop-Umgebung durchgeführt.* Die Anwendung verfügt über keine Protokollierung.* Es gibt grundlegende Indikatoren für die Betriebszeit; Warnungen werden häufig ausgelöst, wenn die APIs nicht reagieren.GeschäftsanforderungenDie Investoren von HipLocal möchten ihre Präsenz erweitern und die steigende Nachfrage unterstützen, die sie beobachten. Ihre Anforderungen sind:* Ausweitung der Verfügbarkeit der Anwendung auf neue Regionen.* Erhöhung der Anzahl der gleichzeitigen Nutzer, die unterstützt werden können.* Sicherstellung einer konsistenten Erfahrung für Nutzer, wenn sie in verschiedene Regionen reisen.* Erhalt von Nutzeraktivitätsmetriken, um besser zu verstehen, wie das Produkt monetarisiert werden kann.* Sicherstellung der Einhaltung von Vorschriften in den neuen Regionen (z. B. GDPR).* Reduzierung des Zeit- und Kostenaufwands für die Infrastrukturverwaltung.* Übernahme der von Google empfohlenen Praktiken für Cloud Computing.Technische Anforderungen* Die Anwendung und das Backend müssen Nutzungsmetriken und -überwachung bereitstellen.* APIs erfordern eine starke Authentifizierung und Autorisierung.* Die Protokollierung muss verstärkt werden, und die Daten sollten in einer Cloud-Analyseplattform gespeichert werden.* Wechsel zu einer serverlosen Architektur, um eine elastische Skalierung zu ermöglichen.* Sicherer autorisierter Zugriff auf interne Anwendungen.HipLocal möchte die Anzahl der Techniker auf Abruf reduzieren und die manuelle Skalierung eliminieren.Welche beiden Dienste sollten gewählt werden? (Wählen Sie zwei.) Verwenden Sie Google App Engine-Dienste. Verwenden Sie serverlose Google Cloud Functions. Verwenden Sie Knative zum Erstellen und Bereitstellen von serverlosen Anwendungen. Verwenden Sie Google Kubernetes Engine für automatisierte Bereitstellungen. Verwenden Sie einen großen Google Compute Engine-Cluster für Bereitstellungen. NO.38 Ihr Unternehmen plant, seine lokale Hadoop-Umgebung in die Cloud zu migrieren. Die steigenden Speicherkosten und die Wartung der in HDFS gespeicherten Daten sind ein großes Problem für Ihr Unternehmen. Außerdem möchten Sie nur minimale Änderungen an den bestehenden Datenanalyseaufträgen und der bestehenden Architektur vornehmen. Wie sollten Sie bei der Migration vorgehen? Migrieren Sie Ihre in Hadoop gespeicherten Daten zu BigQuery. Ändern Sie Ihre Aufträge so, dass sie ihre Informationen aus BigQuery beziehen, anstatt aus der lokalen Hadoop-Umgebung. Erstellen Sie Compute-Engine-Instanzen mit HDD anstelle von SSD, um Kosten zu sparen. Führen Sie dann eine vollständige Migration Ihrer bestehenden Umgebung in die neue Umgebung in Compute Engine-Instanzen durch. Erstellen Sie einen Cloud Dataproc-Cluster auf Google Cloud Platform und migrieren Sie Ihre Hadoop-Umgebung in den neuen Cloud Dataproc-Cluster. Verschieben Sie Ihre HDFS-Daten auf größere HDD-Festplatten, um Speicherkosten zu sparen. Erstellen Sie einen Cloud Dataproc-Cluster auf Google Cloud Platform und migrieren Sie anschließend Ihre Hadoop-Codeobjekte in den neuen Cluster. Verschieben Sie Ihre Daten zu Cloud Storage und nutzen Sie den Cloud Dataproc Connector, um Aufträge mit diesen Daten auszuführen. NO.39 Ihr Dienst fügt Text zu Bildern hinzu, die er aus Cloud Storage liest. In Zeiten, in denen viel los ist, schlagen Anfragen an Cloud Storage mit einem HTTP 429 "Too Many Requests" Statuscode fehl. Fügen Sie einen Cache-Control-Header zu den Objekten hinzu. Fordern Sie eine Quotenerhöhung über die GCP-Konsole an. Wiederholen Sie die Anfrage mit einer verkürzten exponentiellen Backoff-Strategie. Ändern Sie die Speicherklasse des Cloud-Storage-Buckets auf Multi-regional. Erläuterung/Referenz: https://developers.google.com/gmail/api/v1/reference/quotaNO.40 Sie haben Ihre Anwendungen auf Google Cloud Platform migriert und Ihre bestehende Überwachungsplattform beibehalten. Nun stellen Sie fest, dass Ihr Benachrichtigungssystem bei zeitkritischen Problemen zu langsam ist. Ersetzen Sie Ihre gesamte Überwachungsplattform durch Stackdriver. Installieren Sie die Stackdriver-Agenten auf Ihren Compute Engine-Instanzen. Verwenden Sie Stackdriver, um Protokolle zu erfassen und zu melden, und leiten Sie diese dann an Ihre bestehende Plattform weiter. Migrieren Sie einen Teil des Datenverkehrs zurück auf Ihre alte Plattform und führen Sie gleichzeitig AB-Tests auf den beiden Plattformen durch. Referenz:https://cloud.google.com/monitoring/NO.41 Leigh gibt an, dass ihr MacBook Pro (Retina, 15 Zoll, Mitte 2015) die SD-Karte, die sie mitgebracht hat, nicht erkennt. Sie lassen sie das Problem reproduzieren und stellen fest, dass sie die Karte richtig einlegt. Allerdings wird sie von Fotos oder Image Capture nicht erkannt. Welche Frage sollten Sie als nächstes stellen, um das Problem auf die Hardware zu beschränken? Welche Art von Dateien oder Bildern befinden sich auf der SD-Karte? Verwenden Sie die neueste Version von Fotos? Haben Sie versucht, Ihr SMC und NVRAM zurückzusetzen? Tritt das Problem bei allen SD-Karten auf oder nur bei dieser einen? NO.42 Sie möchten die Speichernutzung Ihrer auf der Compute Engine bereitgestellten Anwendung anzeigen. Was sollten Sie tun? Installieren Sie die Stackdriver Client Library. Installieren Sie den Stackdriver Monitoring Agent. Verwenden Sie den Stackdriver Metrics Explorer. Verwenden Sie die Google Cloud Platform Console. Referenz:https://stackoverflow.com/questions/43991246/google-cloud-platform-how-to-monitor-memory-usage-of-vm-instancesNO.43 Sie haben kürzlich eine Anwendung entwickelt. Sie müssen die Cloud Storage API von einer Compute Engine-Instanz aufrufen, die keine öffentliche IP-Adresse hat. Was sollten Sie tun? Carrier Peering verwenden VPC-Netzwerk-Peering verwenden Gemeinsame VPC-Netzwerke verwenden Privaten Google-Zugang verwenden https://cloud.google.com/vpc/docs/private-google-accessNO.44 Ihre Anwendung nimmt eine Eingabe von einem Nutzer entgegen und veröffentlicht sie in den Kontakten des Nutzers. Diese Eingabe wird in einer Tabelle in Cloud Spanner gespeichert. Ihre Anwendung ist empfindlicher gegenüber Latenz und weniger empfindlich gegenüber Konsistenz. Wie sollten Sie Lesevorgänge von Cloud Spanner für diese Anwendung durchführen? Führen Sie Read-Only-Transaktionen durch. Stale Reads mit Single-Read-Methoden durchführen. Strong Reads mit Single-Read-Methoden durchführen. Stale Reads mit Read-Write-Transaktionen durchführen. NO.45 FallstudieUnternehmensübersichtHipLocal ist eine Community-Anwendung, die die Kommunikation zwischen Menschen in unmittelbarer Nähe erleichtern soll. Sie wird für die Planung und Organisation von Sportereignissen und für Unternehmen zur Verbindung mit ihren lokalen Gemeinschaften verwendet. HipLocal wurde vor kurzem in einigen Vierteln von Dallas eingeführt und entwickelt sich schnell zu einem globalen Phänomen. Sein einzigartiger Stil der hyperlokalen Community-Kommunikation und des Business Outreach ist auf der ganzen Welt gefragt.Executive StatementWir sind die Nummer eins der lokalen Community-Apps; es ist an der Zeit, unsere lokalen Community-Dienste global zu machen. Unsere Risikokapitalgeber wollen ein schnelles Wachstum und dieselbe großartige Erfahrung für neue lokale und virtuelle Gemeinschaften, die online gehen, unabhängig davon, ob ihre Mitglieder 10 oder 10000 Meilen voneinander entfernt sind.LösungskonzeptHipLocal möchte seinen bestehenden Service mit aktualisierten Funktionen in neuen Regionen erweitern, um seine globalen Kunden besser zu bedienen. Das Unternehmen möchte ein neues Team einstellen und schulen, um diese Regionen in ihren Zeitzonen zu unterstützen. Die bestehende technische Umgebung von HipLocal ist eine Mischung aus lokaler Hardware und einer Infrastruktur, die in der Google Cloud Platform ausgeführt wird. Das HipLocal-Team kennt sich mit seiner Anwendung gut aus, hat aber nur begrenzte Erfahrung mit Anwendungen im globalen Maßstab.* Der Status wird in einer MySQL-Datenbank mit einer einzigen Instanz in GCP gespeichert.* Die Daten werden in ein lokales Teradata/Vertica-Data-Warehouse exportiert.* Die Datenanalyse wird in einer lokalen Hadoop-Umgebung durchgeführt.* Die Anwendung verfügt über keine Protokollierung.* Es gibt grundlegende Indikatoren für die Betriebszeit; Warnungen werden häufig ausgelöst, wenn die APIs nicht reagieren.GeschäftsanforderungenDie Investoren von HipLocal möchten ihre Präsenz erweitern und die steigende Nachfrage unterstützen, die sie beobachten. Ihre Anforderungen sind:* Ausweitung der Verfügbarkeit der Anwendung auf neue Regionen.* Erhöhung der Anzahl der gleichzeitigen Nutzer, die unterstützt werden können.* Sicherstellung einer konsistenten Erfahrung für Nutzer, wenn sie in verschiedene Regionen reisen.* Erhalt von Nutzeraktivitätsmetriken, um besser zu verstehen, wie das Produkt monetarisiert werden kann.* Sicherstellung der Einhaltung von Vorschriften in den neuen Regionen (z. B. GDPR).* Reduzierung des Zeit- und Kostenaufwands für die Infrastrukturverwaltung.* Übernahme der von Google empfohlenen Praktiken für Cloud Computing.Technische Anforderungen* Die Anwendung und das Backend müssen Nutzungsmetriken und -überwachung bereitstellen.* APIs erfordern eine starke Authentifizierung und Autorisierung.* Die Protokollierung muss verstärkt werden, und die Daten sollten in einer Cloud-Analyseplattform gespeichert werden.* Wechsel zu einer serverlosen Architektur, um eine elastische Skalierung zu ermöglichen.* Sicherer autorisierter Zugriff auf interne Anwendungen.HipLocal möchte die Anzahl der Techniker auf Abruf reduzieren und die manuelle Skalierung eliminieren.Welche beiden Dienste sollten gewählt werden? (Wählen Sie zwei.) Verwenden Sie Google App Engine-Dienste. Verwenden Sie serverlose Google Cloud Functions. Verwendung von Knative zur Erstellung und Bereitstellung von serverlosen Anwendungen. Verwenden Sie Google Kubernetes Engine für automatisierte Bereitstellungen. Verwenden Sie einen großen Google Compute Engine-Cluster für Bereitstellungen. Erläuterung/Referenz:NO.46 Ihr Team entwickelt eine neue Anwendung mit einer PostgreSQL-Datenbank und Cloud Run. Sie sind dafür verantwortlich, dass der gesamte Datenverkehr auf Google Cloud privat gehalten wird. Sie möchten Managed Services nutzen und die von Google empfohlenen Best Practices befolgen. Was sollten Sie tun? 1. Aktivieren Sie Cloud SQL und Cloud Run in demselben Projekt.2. Konfigurieren Sie eine private IP-Adresse für Cloud SQL. Aktivieren Sie den Zugriff auf private Dienste.3. Erstellen Sie einen Serverless VPC Access-Konnektor.4. Konfigurieren Sie Cloud Run so, dass es den Konnektor für die Verbindung zu Cloud SQL verwendet. 1. Installieren Sie PostgreSQL auf einer virtuellen Maschine (VM) von Compute Engine und aktivieren Sie Cloud Run in demselben Projekt.2. Konfigurieren Sie eine private IP-Adresse für die VM. Aktivieren Sie den Zugriff auf private Dienste.3. Erstellen Sie einen Serverless VPC Access-Konnektor.4. Konfigurieren Sie Cloud Run so, dass es den Konnektor verwendet, um sich mit der VM zu verbinden, die PostgreSQL hostet. 1. Verwenden Sie Cloud SQL und Cloud Run in verschiedenen Projekten.2. Konfigurieren Sie eine private IP-Adresse für Cloud SQL. Aktivieren Sie den Zugriff auf private Dienste.3. Erstellen Sie einen Serverless VPC Access Connector.4. Richten Sie eine VPN-Verbindung zwischen den beiden Projekten ein. Konfigurieren Sie Cloud Run so, dass es den Konnektor verwendet, um sich mit Cloud SQL zu verbinden. 1. Installieren Sie PostgreSQL auf einer Compute Engine VM, und aktivieren Sie Cloud Run in verschiedenen Projekten.2. Konfigurieren Sie eine private IP-Adresse für die VM. Aktivieren Sie den Zugriff auf private Dienste.3. Erstellen Sie einen Serverless VPC Access-Konnektor.4. Richten Sie eine VPN-Verbindung zwischen den beiden Projekten ein. Konfigurieren Sie Cloud Run so, dass es den Konnektor verwendet, um auf die VM zuzugreifen, die PostgreSQL hostet. https://cloud.google.com/sql/docs/postgres/connect-run#private-ipNO.47 Ihr Code läuft auf Cloud Functions in ProjektA. Er soll ein Objekt in einen Cloud-Storage-Bucket schreiben, der Projekt B gehört. Der Schreibaufruf schlägt jedoch mit der Fehlermeldung "403 Forbidden" fehl.Was sollten Sie tun, um das Problem zu beheben? Gewähren Sie Ihrem Benutzerkonto die Rolle roles/storage.objectCreator für den Cloud-Storage-Bucket. Gewähren Sie Ihrem Benutzerkonto die Rolle roles/iam.serviceAccountUser für das service-PROJECTA@gcf-adminrobot.iam.gserviceaccount.com Servicekonto. Gewähren Sie dem Dienstkonto service-PROJECTA@gcf-admin-robot.iam.gserviceaccount.com die Rolle roles/ storage.objectCreator für den Cloud-Storage-Bucket. Aktivieren Sie die Cloud Storage API in Projekt B. NO.48 Sie verwenden Cloud Build, um ein Docker-Image in Entwicklungs-, Test- und Produktionsumgebungen zu verteilen. Sie müssen sicherstellen, dass in jeder dieser Umgebungen das gleiche Docker-Image bereitgestellt wird. Wie sollten Sie das Docker-Image in Ihrem Build identifizieren? Verwenden Sie das neueste Docker-Image-Tag. Verwenden Sie einen eindeutigen Docker-Image-Namen. Verwenden Sie den Digest des Docker-Images. Verwenden Sie ein semantisches Docker-Image-Tag für die Version. NO.49 FallstudieUnternehmensübersichtHipLocal ist eine Community-Anwendung, die die Kommunikation zwischen Menschen in unmittelbarer Nähe erleichtern soll. Sie wird für die Planung und Organisation von Sportereignissen und für Unternehmen zur Verbindung mit ihren lokalen Gemeinschaften verwendet. HipLocal wurde vor kurzem in einigen Vierteln von Dallas eingeführt und entwickelt sich schnell zu einem globalen Phänomen. Sein einzigartiger Stil der hyperlokalen Community-Kommunikation und des Business Outreach ist auf der ganzen Welt gefragt.Executive StatementWir sind die Nummer eins der lokalen Community-Apps; es ist an der Zeit, unsere lokalen Community-Dienste global zu machen. Unsere Risikokapitalgeber wollen ein schnelles Wachstum und dieselbe großartige Erfahrung für neue lokale und virtuelle Gemeinschaften, die online gehen, unabhängig davon, ob ihre Mitglieder 10 oder 10000 Meilen voneinander entfernt sind.LösungskonzeptHipLocal möchte seinen bestehenden Dienst mit aktualisierten Funktionen in neuen Regionen erweitern, um seine globalen Kunden besser zu bedienen. Das Unternehmen möchte ein neues Team einstellen und schulen, um diese Regionen in ihren Zeitzonen zu unterstützen. Die bestehende technische Umgebung von HipLocal ist eine Mischung aus lokaler Hardware und einer Infrastruktur, die in der Google Cloud Platform ausgeführt wird. Das HipLocal-Team kennt sich mit seiner Anwendung gut aus, hat aber nur begrenzte Erfahrung mit Anwendungen in globalem Maßstab.Die bestehende technische Umgebung sieht wie folgt aus:* Die bestehenden APIs laufen auf virtuellen Compute Engine-Instanzen, die in der GCP gehostet werden.* Der Status wird in einer MySQL-Datenbank mit einer einzigen Instanz in GCP gespeichert.* Die Daten werden in ein lokales Teradata/Vertica-Data-Warehouse exportiert.* Die Datenanalyse wird in einer lokalen Hadoop-Umgebung durchgeführt.* Die Anwendung verfügt über keine Protokollierung.* Es gibt grundlegende Indikatoren für die Betriebszeit; Warnungen werden häufig ausgelöst, wenn die APIs nicht reagieren.GeschäftsanforderungenDie Investoren von HipLocal möchten ihre Präsenz ausweiten und die steigende Nachfrage unterstützen, die sie beobachten. Ihre Anforderungen sind:* Ausweitung der Verfügbarkeit der Anwendung auf neue Regionen.* Erhöhung der Anzahl der gleichzeitigen Nutzer, die unterstützt werden können.* Sicherstellung einer konsistenten Erfahrung für Nutzer, wenn sie in verschiedene Regionen reisen.* Erhalt von Nutzeraktivitätsmetriken, um besser zu verstehen, wie das Produkt monetarisiert werden kann.* Sicherstellung der Einhaltung von Vorschriften in den neuen Regionen (z. B. GDPR).* Reduzierung des Zeit- und Kostenaufwands für die Infrastrukturverwaltung.* Übernahme der von Google empfohlenen Praktiken für Cloud Computing.Technische Anforderungen* Die Anwendung und das Backend müssen Nutzungsmetriken und -überwachung bereitstelle