Verwenden Sie echte Linux Foundation erreichen die CKAD Dumps - 100% Prüfung Bestehensgarantie [Q18-Q38]


5/5 - (1 Abstimmung)

Verwenden Sie echte Linux Foundation erreichen die CKAD Dumps - 100% Prüfung Bestehensgarantie

Verifizierte CKAD Q&As - Pass-Garantie CKAD Exam Dumps

NR. 18 Ausstellen:

Geben Sie einen Container an, der eine Protokolldatei im Format A schreibt, und einen Container, der Protokolldateien vom Format A in das Format B konvertiert. Erstellen Sie ein Deployment, das beide Container so ausführt, dass die Protokolldateien des ersten Containers vom zweiten Container konvertiert werden und Protokolle im Format B ausgegeben werden.
Aufgabe:
* Erstellen Sie eine Bereitstellung mit dem Namen deployment-xyz im Standard-Namensraum, die:
* Enthält eine primäre
lfccncf/busybox:1 Container, genannt logger-dev
* enthält einen Ifccncf/fluentd:v0.12-Container mit dem Namen adapter-zen als Nebenprodukt
* Mounten eines gemeinsamen Volumes /tmp/log auf beiden Containern, das nicht bestehen bleibt, wenn der Pod gelöscht wird
* Weist den Logger-dev
Container, um den Befehl auszuführen

die Protokolle in /tmp/log/input.log im Klartextformat mit Beispielwerten ausgeben sollte:

* Der adapter-zen Sidecar-Container sollte /tmp/log/input.log lesen und die Daten nach /tmp/log/output.* im Fluentd JSON-Format ausgeben. Beachten Sie, dass für diese Aufgabe keine Kenntnisse über Fluentd erforderlich sind: Sie müssen lediglich die ConfigMap aus der unter /opt/KDMC00102/fluentd-configma p.yaml bereitgestellten Spezifikationsdatei erstellen und diese ConfigMap in /fluentd/etc im adapter-zen-Sidecar-Container einhängen

 
 

NR. 19 Kontext

Aufgabe:
1) Aktualisieren Sie zunächst das Deployment cka00017-deployment im Namespace ckad00017:
So führen Sie 2 Replikate des Pods aus
Fügen Sie das folgende Etikett auf der Hülse hinzu:
Rolle userUI
2) Als Nächstes erstellen Sie einen NodePort-Dienst mit dem Namen cherry im Nmespace ckad00017, der die ckad00017-Einrichtung auf dem TCP-Port 8888 offenlegt.

NR. 20 Kontext

Kontext
Sie wurden damit beauftragt, eine vorhandene Bereitstellung für die Verfügbarkeit zu skalieren und einen Dienst zu erstellen, um die Bereitstellung innerhalb Ihrer Infrastruktur zu veröffentlichen.
Aufgabe
Beginnen Sie mit der Bereitstellung namens kdsn00101-deployment, die bereits im Namensraum kdsn00101 bereitgestellt wurde. Bearbeiten Sie es zu:
* Fügen Sie den Schlüssel/Wert func=webFrontEnd zu den Metadaten der Pod-Vorlage hinzu, um den Pod für die Dienstdefinition zu identifizieren.
* Haben 4 Repliken
Als Nächstes erstellen Sie einen Dienst im Namespace kdsn00l01, der die folgenden Aufgaben erfüllt:
* Der Dienst wird über den TCP-Port 8080 zugänglich gemacht.
* wird auf die durch die Spezifikation von kdsn00l01-deployment definierten Pods abgebildet
* Ist vom Typ NodePort
* Hat einen Namen von Kirsche

NR. 21 Ausstellen:

Kontext
Als Kubernetes-Anwendungsentwickler werden Sie häufig eine laufende Anwendung aktualisieren müssen.
Aufgabe
Bitte füllen Sie die folgenden Felder aus:
* Aktualisierung der Anwendungsbereitstellung im Namensraum kdpd00202 mit einem maxSurge von 5% und einem maxUnavailable von 2%
* Führen Sie ein rollierendes Update der web1-Bereitstellung durch und ändern Sie die Version des Ifccncf/ngmx-Images auf 1.13
* Zurücksetzen der App-Bereitstellung auf die vorherige Version

 
 

NR. 22 Ausstellen:

Kontext
Ein Benutzer hat gemeldet, dass ein Aopticauon aufgrund einer fehlgeschlagenen livenessProbe nicht gelehrt werden kann.
Aufgabe
Führen Sie die folgenden Aufgaben aus:
* Finde den defekten Pod und speichere seinen Namen und Namespace in /opt/KDOB00401/broken.txt im Format:

Die Ausgabedatei ist bereits erstellt worden
* Speichern der zugehörigen Fehlerereignisse in einer Datei /opt/KDOB00401/error.txt, Die Ausgabedatei wurde bereits erstellt. Sie müssen den -o wide output specifier mit Ihrem Befehl verwenden
* Behebung des Problems.

 
 

NR. 23 Kontext

Aufgabe:
Erstellen Sie einen Pod mit dem Namen nginx resources im bestehenden Pod-Ressourcen-Namespace.
Geben Sie einen einzelnen Container mit nginx:stable image an.
Geben Sie eine Ressourcenanforderung von 300m CPUs und 1G1 Speicher für den Container des Pods an.

NR. 24 Ausstellen:

Aufgabe
Sie müssen einen Pod erstellen, der eine bestimmte Menge an CPU und Arbeitsspeicher anfordert, damit er auf einem Knoten eingeplant wird, der über diese Ressourcen verfügt.
* Erstellen Sie einen Pod mit dem Namen nginx-resources im Namensraum pod-resources, der mindestens 200m CPU und 1Gi Speicher für seinen Container benötigt.
* Der Pod sollte das nginx-Image verwenden
* Der Namespace pod-resources wurde bereits erstellt

 
 

NR. 25 Kontext

Aufgabe:
Ändern Sie das bestehende Deployment namens broker-deployment, das im Namespace quetzal läuft, so dass seine Container.
1) Starten Sie mit der Benutzer-ID 30000 und
2) Privilegienerweiterung ist verboten
Die Manifestdatei für die Broker-Bereitstellung finden Sie unter:

NR. 26 Kontext
Jedes Mal, wenn ein Team einen Container in Kubernetes ausführen möchte, muss es einen Pod definieren, in dem der Container ausgeführt werden soll.
Aufgabe
Bitte füllen Sie die folgenden Felder aus:
* Erstellen eines YAML-formatierten Pod-Manifests
/opt/KDPD00101/podl.yml, um einen Pod mit dem Namen app1 zu erstellen, der einen Container mit dem Namen app1cont unter Verwendung des Images Ifccncf/arg-output mit diesen Befehlszeilenargumenten ausführt: -lines 56 -F
* Erstellen Sie den Pod mit dem Befehl kubect1 unter Verwendung der im vorherigen Schritt erstellten YAML-Datei
* Wenn der Pod läuft, zeigen Sie mit dem Befehl kubect1 eine Zusammenfassung der Daten des Pods im JSON-Format an und leiten die Ausgabe in eine Datei namens /opt/KDPD00101/out1.json um.
* Alle Dateien, mit denen Sie arbeiten müssen, wurden bereits leer erstellt, um Ihnen die Arbeit zu erleichtern.

NR. 27 Kontext

Geben Sie einen Container an, der eine Protokolldatei im Format A schreibt, und einen Container, der Protokolldateien vom Format A in das Format B konvertiert. Erstellen Sie ein Deployment, das beide Container so ausführt, dass die Protokolldateien des ersten Containers vom zweiten Container konvertiert werden und Protokolle im Format B ausgegeben werden.
Aufgabe:
* Erstellen Sie eine Bereitstellung mit dem Namen deployment-xyz im Standard-Namensraum, die:
* Enthält eine primäre
lfccncf/busybox:1 Container, genannt logger-dev
* enthält einen Ifccncf/fluentd:v0.12-Container mit dem Namen adapter-zen als Nebenprodukt
* Mounten eines gemeinsamen Volumes /tmp/log auf beiden Containern, das nicht bestehen bleibt, wenn der Pod gelöscht wird
* Weist den Logger-dev
Container, um den Befehl auszuführen

die Protokolle in /tmp/log/input.log im Klartextformat mit Beispielwerten ausgeben sollte:

* Der adapter-zen Sidecar-Container sollte /tmp/log/input.log lesen und die Daten nach /tmp/log/output.* im Fluentd JSON-Format ausgeben. Beachten Sie, dass für diese Aufgabe keine Kenntnisse über Fluentd erforderlich sind: Sie müssen lediglich die ConfigMap aus der unter /opt/KDMC00102/fluentd-configma p.yaml bereitgestellten Spezifikationsdatei erstellen und diese ConfigMap in /fluentd/etc im adapter-zen-Sidecar-Container einhängen

NR. 28 Kontext

Kontext
Für ein Projekt, an dem Sie arbeiten, müssen persistente Daten verfügbar sein.
Aufgabe
Um dies zu erleichtern, führen Sie die folgenden Aufgaben durch:
* Erstellen einer Datei auf dem Knoten sk8s-node-0 unter /opt/KDSP00101/data/index.html mit dem Inhalt Acct=Finance
* Erstellen Sie ein PersistentVolume mit dem Namen task-pv-volume unter Verwendung von hostPath und weisen Sie ihm 1Gi zu, wobei Sie angeben, dass sich das Volume unter /opt/KDSP00101/data auf dem Knoten des Clusters befindet. Die Konfiguration sollte den Zugriffsmodus "ReadWriteOnce" angeben. Sie sollte den StorageClass-Namen exam für das PersistentVolume definieren, der verwendet wird, um PersistentVolumeClaim-Anfragen an dieses PersistenetVolume zu binden.
* Erstellen Sie einen PefsissentVolumeClaim mit dem Namen task-pv-claim, der ein Volume von mindestens 100Mi anfordert und einen Zugriffsmodus von ReadWriteOnce angibt
* Erstellen eines Pods, der den PersistentVolmeClaim als Volume mit dem Label app: my-storage-app verwendet, Einhängen des resultierenden Volumes in einen mountPath /usr/share/nginx/html innerhalb des Pods

NR. 29 Kontext

Aufgabe:
1- Aktualisieren Sie die Propertunel-Skalierungskonfiguration des Deployments web1 im Namensraum ckad00015 und setzen Sie maxSurge auf 2 und maxUnavailable auf 59
2- Aktualisieren Sie die web1-Bereitstellung, um die Versionsnummer 1.13.7 für das Ifconf/nginx-Container-Image zu verwenden.
3- Führen Sie ein Rollback der web1-Bereitstellung auf ihre vorherige Version durch

NR. 30 Ausstellen:

Kontext
Entwickler müssen gelegentlich Pods einreichen, die in regelmäßigen Abständen ausgeführt werden.
Aufgabe
Führen Sie die folgenden Schritte aus, um einen Pod zu erstellen, der zu einem bestimmten Zeitpunkt gestartet wird und]der bei jedem Start nur einmal bis zum Ende läuft:
* Erstellen Sie ein YAML-formatiertes Kubernetes-Manifest /opt/KDPD00301/periodic.yaml, das den folgenden Shell-Befehl ausführt: date in einem einzelnen Busybox-Container. Der Befehl sollte jede Minute ausgeführt werden und muss innerhalb von 22 Sekunden abgeschlossen sein oder von Kubernetes beendet werden. Der Cronjob namp und der Containername sollten beide hello sein
* Erstellen Sie die Ressource im obigen Manifest und überprüfen Sie, ob der Auftrag mindestens einmal erfolgreich ausgeführt wird.

 
 

NR. 31 Ausstellen:

Aufgabe
Erstellen Sie eine neue Bereitstellung für running.nginx mit den folgenden Parametern;
* Führen Sie die Bereitstellung im Namensraum kdpd00201 aus. Der Namespace wurde bereits erstellt
* Benennen Sie das Bereitstellungs-Frontend und konfigurieren Sie es mit 4 Replikaten.
* Konfigurieren Sie den Pod mit einem Container-Image von lfccncf/nginx:1.13.7
* Setzen Sie die Umgebungsvariable NGINX__PORT=8080 und geben Sie diesen Port auch für den obigen Container frei

 
 

NR. 32 Ausstellen:

Kontext
Ein Container innerhalb des Poller-Pods ist so programmiert, dass er sich mit dem nginxsvc-Dienst an Port 90 verbindet. Wenn dieser Port auf 5050 geändert wird, muss dem Poller-Pod ein zusätzlicher Container hinzugefügt werden, der den Container so anpasst, dass er sich mit diesem neuen Port verbindet. Dies sollte als Ambassador-Container innerhalb des Pods realisiert werden.
Aufgabe
* Aktualisieren Sie den nginxsvc-Dienst, damit er an Port 5050 bedient wird.
* Fügen Sie dem Poller-Pod einen HAproxy-Container namens haproxy hinzu, der an Port 90 gebunden ist, und stellen Sie den erweiterten Pod bereit. Verwenden Sie das Image haproxy und injizieren Sie die Konfiguration unter /opt/KDMC00101/haproxy.cfg mit einer ConfigMap namens haproxy-config in den Container, so dass haproxy.cfg unter /usr/local/etc/haproxy/haproxy.cfg verfügbar ist. Stellen Sie sicher, dass Sie die Args des Poller-Containers aktualisieren, um eine Verbindung zu localhost statt zu nginxsvc herzustellen, damit die Verbindung korrekt zum neuen Dienst-Endpunkt weitergeleitet wird. Sie dürfen den Port des Endpunkts in den Args des Pollers nicht ändern. Die zur Erstellung des ersten Poller-Pods verwendete Spezifikationsdatei ist unter /opt/KDMC00101/poller.yaml verfügbar

 
 

NR. 33 Ausstellen:

Kontext
Ein Pod läuft auf dem Cluster, aber er reagiert nicht.
Aufgabe
Das gewünschte Verhalten ist, dass Kubemetes den Pod neu startet, wenn ein Endpunkt einen HTTP 500 auf dem Endpunkt /healthz zurückgibt. Der Dienst probe-pod sollte niemals Datenverkehr an den Pod senden, wenn dieser ausfällt. Bitte führen Sie die folgenden Schritte aus:
* Die Anwendung hat einen Endpunkt, /started, der anzeigt, ob er Datenverkehr annehmen kann, indem er ein HTTP 200 zurückgibt. Wenn der Endpunkt ein HTTP 500 zurückgibt, hat die Anwendung ihre Initialisierung noch nicht abgeschlossen.
* Die Anwendung hat einen weiteren Endpunkt /healthz, der anzeigt, ob die Anwendung noch wie erwartet funktioniert, indem er ein HTTP 200 zurückgibt. Wenn der Endpunkt ein HTTP 500 zurückgibt, ist die Anwendung nicht mehr ansprechbar.
* Konfigurieren Sie den mitgelieferten probe-pod pod, um diese Endpunkte zu verwenden
* Die Sonden sollten den Port 8080 verwenden.

 
 

NR. 34 Kontext

Kontext
Manchmal müssen Sie die Protokolle eines Pods beobachten und diese Protokolle zur weiteren Analyse in eine Datei schreiben.
Aufgabe
Bitte füllen Sie die folgenden Felder aus;
* Stellen Sie den Zähler-Pod im Cluster bereit, indem Sie die bereitgestellte YAMLspec-Datei unter /opt/KDOB00201/counter.yaml verwenden.
* Abrufen aller aktuell verfügbaren Anwendungsprotokolle aus dem laufenden Pod und Speichern in der bereits erstellten Datei /opt/KDOB0020l/log_Output.txt

NR. 35 Kontext
Jedes Mal, wenn ein Team einen Container in Kubernetes ausführen möchte, muss es einen Pod definieren, in dem der Container ausgeführt werden soll.
Aufgabe
Bitte füllen Sie die folgenden Felder aus:
* Erstellen eines YAML-formatierten Pod-Manifests
/opt/KDPD00101/podl.yml, um einen Pod namens app1 zu erstellen, der einen Container namens app1cont unter Verwendung des Abbilds Ifccncf/arg-output ausführt
mit diesen Befehlszeilenargumenten: -Zeilen 56 -F
* Erstellen Sie den Pod mit dem Befehl kubect1 unter Verwendung der im vorherigen Schritt erstellten YAML-Datei
* Wenn der Pod läuft, zeigen Sie mit dem Befehl kubect1 eine Zusammenfassung der Daten des Pods im JSON-Format an und leiten die Ausgabe in eine Datei namens /opt/KDPD00101/out1.json um.
* Alle Dateien, mit denen Sie arbeiten müssen, wurden bereits leer erstellt, um Ihnen die Arbeit zu erleichtern.

 
 

NR. 36 Ausstellen:

Kontext
Sie haben die Aufgabe, ein Geheimnis zu erstellen und das Geheimnis in einem Pod mit Hilfe von Umgebungsvariablen wie folgt zu konsumieren:
Aufgabe
* Erstellen eines Geheimnisses namens another-secret mit einem Schlüssel/Wert-Paar; key1/value4
* Starten Sie einen nginx-Pod mit dem Namen nginx-secret unter Verwendung des Container-Images nginx, und fügen Sie eine Umgebungsvariable hinzu, die den Wert des geheimen Schlüssels key 1 offenlegt, wobei Sie COOL_VARIABLE als Namen für die Umgebungsvariable innerhalb des Pods verwenden

 
 

NR. 37 Ausstellen:

Kontext
Es ist immer sinnvoll, sich die Ressourcen anzusehen, die Ihre Anwendungen in einem Cluster verbrauchen.
Aufgabe
* Von den Pods, die im Namensraum cpu-stress laufen, schreiben Sie nur den Namen des Pods, der die meiste CPU verbraucht, in die Datei /opt/KDOBG030l/pod.txt, die bereits erstellt worden ist.

 
 

NR. 38 Kontext

Aufgabe
Eine Bereitstellung mit dem Namen backend-deployment im Namespace staging führt eine Webanwendung auf Port 8081 aus.


Testen Sie die kostenlose Demo unserer CKAD Exam Dumps mit 33 Fragen: https://www.dumpsmaterials.com/CKAD-real-torrent.html

         

Eine Antwort hinterlassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Geben Sie den Text aus dem Bild unten ein