이 페이지는 무료 시험 덤프 자료 [ http://exams.dumpsmaterials.com ]에서 가져온 것입니다. 내보내기 날짜:Thu Dec 5 2:41:43 2024 / +0000 GMT ___________________________________________________ 제목: [2022] 전문가-클라우드-개발자 덤프에 즉시 액세스 가능 [Q30-Q54] --------------------------------------------------- [2022] Professional-Cloud-Developer 덤프는 즉시 액세스 할 수 있습니다. 유효한 Professional-Cloud-Developer덤프는 우리의 Professional-Cloud-Developer시험 합격을 돕는다! Google Professional-Cloud-Developer 시험 강의 계획서 주제: 주제내용주제 1대상 컴퓨팅 환경에 따라 적절한 배포 전략 구현하기컴퓨팅 엔진 인스턴스를위한로드 밸런서 만들기주제 2데이터 및 스토리지 서비스와 애플리케이션 통합 관계형 데이터베이스에서 데이터를 검색하기위한 SQL 쿼리 작성 주제 3 클라우드 데이터 저장소 트랜잭션에서 엔티티 읽기 및 업데이트 Apis를 사용하여 데이터 서비스에 읽기/쓰기하는 애플리케이션4주제 4데이터 수집 소스에서 게시 및 소비하기 Oauth2 웹 흐름 및 ID 인식 프록시를 사용하여 사용자 인증하기5주제 6GCP 콘솔 및 클라우드 SDK를 사용하여 컴퓨팅 인스턴스 시작하기 인스턴스 템플릿을 사용하여 자동 확장 관리 인스턴스 그룹 만들기6주제 개발 환경 설정하기, 애플리케이션 빌드 및 테스트 고려 사항주제 7지속 통합 파이프라인의 테스트 결과 검토하기 작성된 모든 코드에 대한 단위 테스트 개발하기주제 8컴퓨팅 서비스 네트워크 설정 구성하기 엔드포인트 호출을 위한 클라우드 PubSub 푸시 구독 구성하기주제 9운영 시스템 버전 및 서비스의 기본 런타임 Oogle-.권장 사례 및 문서주제 10서비스와 리소스를 보호하는 보안 메커니즘 사용 사례 고려 사항에 따라 데이터 스토리지 옵션 선택주제 11클라우드 스토리지를 사용하여 쓰기 빈도가 높은 애플리케이션을 위한 주요 구조 정의하기 클라우드 스토리지를 사용하여 정적 웹사이트 실행하기주제 12구글 쿠버네티스 엔진에 애플리케이션 및 서비스 배포하기 구글 쿠버네티스 엔진에 애플리케이션 및 서비스 배포하기주제 13구글을 위한 데이터베이스 스키마 정의하기-.관리형 데이터베이스 로컬 서비스에서 구글 클라우드 플랫폼으로 애플리케이션 재설계하기14주제 14로컬 애플리케이션 개발을 위해 GCP 서비스를 에뮬레이트하는 서비스를 사용한 통합 파이프라인 개발하기15주제 15구글 권장 사례 및 문서 클라우드 엔드포인트를 사용한 API 배포 및 보안하기16주제 16컴퓨팅 엔진에 애플리케이션 및 서비스 배포하기 애플리케이션을 앱 엔진에 배포하기17주제 18확장성 높은 설계하기, 사용 가능하고 안정적인 클라우드 네이티브 애플리케이션 설계하기Google 클라우드 서비스의 지리적 배포 구글 프로페셔널 클라우드 개발자 인증 과정 구글 프로페셔널 클라우드 개발자 인증은 주로 구글 프로페셔널 클라우드 개발자에게 초점을 맞춘 최고 수준의 인증입니다. 이 시험에 대한 전제 조건은 없지만 Google 전문가 클라우드 개발자로서 방대한 지식을 증명하기 위해 몇 가지 순서를 따르는 것이 가장 좋습니다. Google 어소시에이트 인증을 완료한 후 전문가 인증에 도전할 수 있습니다. Google 클라우드 인증과 관련된 자세한 내용은 Google 인증 경로를 참조하세요. Google 전문가 클라우드 개발자 인증의 자격 시험 내용은 특정 지식과 기술을 다루는 5가지 주제로 구성됩니다. 응시자는 시험에 응시하기 전에 공식 웹사이트에서 제공되는 자세한 시험 가이드를 꼼꼼히 공부해야 합니다. 시험의 구성을 구성하는 주요 주제는 다음과 같습니다: 섹션 1: 확장성, 가용성, 안정성이 뛰어난 클라우드 네이티브 앱 설계하기 이 주제 영역에서 수험자는 고성능 애플리케이션 및 API 설계, 보안 애플리케이션 설계, 애플리케이션 데이터 관리, 애플리케이션 현대화 실행에 대한 숙련도를 입증해야 합니다. 30번 다음 중 안전 문제를 경고하는 고객의 진술은 무엇입니까? (두 가지를 선택하세요.) iPhone을 충전하려고 할 때 깜박이고 불꽃이 일어났습니다. iPad의 모서리가 심하게 구부러졌습니다. iPhone의 소리 레벨이 변동합니다. 가끔 귀가 먹먹합니다. 화면이 너무 밝습니다. 눈이 아파요. 새 Apple Watch는 가렵고 손목이 붉고 자극적입니다. iPhone의 홈 버튼이 가라앉은 것 같습니다. NO.31 다음 정보를 참조하여 오른쪽 질문에 답하십시오.레이첼은 3년 된 MacBook Pro를 수리하기 시작했고, 기기를 개봉한 후 배터리가 있는 상단 케이스 어셈블리를 육안으로 검사하는 데 시간이 걸렸습니다.내장 배터리 검사 중에 레이첼은 다음 중 어떤 문제를 찾아야 합니까? (두 개를 선택하십시오.) 업데이트된 배터리 펌웨어 도트 인쇄 배터리의 올바른 색상 스크래치 배터리 호환 배송 라벨 32 Cloud 빌드를 사용하여 Cloud 소스 리포지토리 리포지토리에 대한 각 소스 코드 커밋에 대해 새 Docker 이미지를 만들고 있습니다. 애플리케이션은 마스터 브랜치에 대한 모든 커밋을 기반으로 빌드됩니다. 마스터 브랜치에 대한 특정 커밋을 자동화된 방법으로 릴리스하고 싶습니다. 어떻게 해야 하나요? 새 릴리스에 대해 수동으로 빌드를 트리거하세요. Git 태그 패턴으로 빌드 트리거를 만듭니다. 새 릴리스에 Git 태그 규칙을 사용한다. Git 브랜치 이름 패턴으로 빌드 트리거를 생성한다. 새 릴리스에 Git 브랜치 이름 지정 규칙을 사용하세요. 두 번째 Cloud 빌드 트리거를 사용하여 두 번째 Cloud 소스 리포지토리 리포지토리에 소스 코드를 커밋합니다. 이 리포지토리는 새 릴리스에만 사용하세요. 참조: https://docs.docker.com/docker-hub/builds/NO.33 애플리케이션이 로컬에서 테스트할 때는 잘 작동하지만 App Engine 표준 환경에 배포하면 상당히 느리게 실행됩니다. 문제를 진단하고 싶습니다. 어떻게 해야 하나요? 애플리케이션이 로컬에서 더 빠르게 실행된다는 것을 나타내는 티켓을 Cloud 지원팀에 제출하세요. Stackdriver 디버거 스냅샷을 사용하여 애플리케이션의 특정 시점 실행을 살펴봅니다. 애플리케이션 내에서 지연 시간이 더 긴 함수를 확인하려면 Stackdriver 추적을 사용하세요. 애플리케이션에 로깅 명령을 추가하고 Stackdriver 로깅을 사용하여 지연 문제가 발생하는 위치를 확인합니다. 주제 1, HipLocal 사례 연구회사 개요HipLocal은 가까운 곳에 있는 사람들 간의 커뮤니케이션을 용이하게 하기 위해 설계된 커뮤니티 애플리케이션입니다. 이벤트 계획 및 스포츠 이벤트 조직, 그리고 기업이 지역 사회와 소통하는 데 사용됩니다. 힙로컬은 최근 댈러스의 몇몇 지역에서 시작되어 전 세계적으로 빠르게 성장하고 있습니다. 독특한 스타일의 하이퍼 로컬 커뮤니티 커뮤니케이션과 비즈니스 지원은 전 세계적으로 수요가 많습니다.경영진 성명우리는 최고의 지역 커뮤니티 앱이며, 이제 지역 커뮤니티 서비스를 전 세계로 확장할 때입니다. 벤처 캐피탈 투자자들은 회원들이 서로 10마일 또는 10,000마일 떨어져 있든 상관없이 온라인에 접속하는 새로운 지역 및 가상 커뮤니티의 빠른 성장과 동일한 훌륭한 경험을 원합니다.솔루션 컨셉HipLocal은 글로벌 고객에게 더 나은 서비스를 제공하기 위해 새로운 지역에서 업데이트된 기능으로 기존 서비스를 확장하고자 합니다. 해당 시간대에 해당 지역을 지원할 새로운 팀을 고용하고 교육하고자 합니다. 애플리케이션이 원활하게 확장되고 명확한 가동 시간 데이터를 제공하는지 확인해야 합니다.기존 기술 환경HipLocal의 환경은 온프레미스 하드웨어와 Google Cloud Platform에서 실행되는 인프라가 혼합되어 있습니다. HipLocal 팀은 애플리케이션을 잘 이해하고 있지만 글로벌 규모의 애플리케이션에 대한 경험이 제한적입니다. 기존 기술 환경은 다음과 같습니다.* 기존 API는 GCP에서 호스팅되는 Compute Engine 가상 머신 인스턴스에서 실행* 상태는 GCP의 단일 인스턴스 MySQL 데이터베이스에 저장* 데이터는 온프레미스 Teradata/Vertica 데이터 웨어하우스로 내보내기* 데이터 분석은 온프레미스 Hadoop 환경에서 수행* 애플리케이션에는 로깅이 없음* 가동 시간에 대한 기본 지표가 있으며 API가 응답하지 않으면 알림이 자주 발생 비즈니스 요구 사항 HipLocal의 투자자들은 사업 영역을 확장하고 수요 증가를 지원하고자 합니다. 그들의 요구 사항은 다음과 같습니다:* 새로운 지역으로 애플리케이션의 가용성 확대* 지원할 수 있는 동시 사용자 수 증가* 사용자가 다른 지역을 여행할 때 일관된 경험을 보장* 사용자 활동 지표를 확보하여 제품 수익화 방법을 더 잘 이해* 새로운 지역의 규정 준수 보장(예, GDPR)* 인프라 관리 시간 및 비용 절감* 클라우드 컴퓨팅에 대한 Google 권장 관행 채택기술 요구사항* 애플리케이션과 백엔드는 사용 지표 및 모니터링을 제공해야 합니다* API에는 강력한 인증 및 권한 부여가 필요합니다* 로깅을 강화하고 데이터를 클라우드 분석 플랫폼에 저장해야 합니다* 서버리스 아키텍처로 전환하여 탄력적인 확장이 용이해야 합니다* 내부 앱에 안전한 방식으로 승인된 액세스 권한 제공NO.34 내부 앱에 대한 액세스를 활성화하기 위해 HipLocal은 어떤 서비스를 사용해야 하나요? 클라우드 VPN 클라우드 아머 가상 프라이빗 클라우드 클라우드 ID 인식 프록시 참조: https://cloud.google.com/iap/docs/cloud-iap-for-on-prem-apps-overviewNO.35 회사의 개발팀은 프로젝트에서 Cloud Build를 사용하여 Docker 이미지를 빌드하고 컨테이너 레지스트리에 푸시하려고 합니다. 운영팀은 운영팀이 관리하는 중앙 집중식으로 안전하게 관리되는 Docker 레지스트리에 모든 Docker 이미지를 게시해야 하는데 어떻게 해야 하나요? 컨테이너 레지스트리를 사용하여 각 개발팀의 프로젝트에 레지스트리를 만드세요. Cloud 빌드 빌드를 구성하여 Docker 이미지를 프로젝트의 레지스트리에 푸시합니다. 운영팀에 각 개발팀의 레지스트리에 대한 액세스 권한을 부여합니다. 컨테이너 레지스트리가 구성된 운영 팀을 위한 별도의 프로젝트를 만듭니다. 각 개발자 팀의 프로젝트에서 Cloud Build 서비스 계정에 적절한 권한을 할당하여 운영 팀의 레지스트리에 액세스할 수 있도록 합니다. 컨테이너 레지스트리가 구성된 운영 팀을 위한 별도의 프로젝트를 생성합니다. 각 개발팀에 대한 서비스 계정을 만들고 운영팀의 레지스트리에 액세스할 수 있도록 적절한 권한을 할당합니다. 서비스 계정 키 파일을 소스 코드 리포지토리에 저장하고 이를 사용하여 운영 팀의 레지스트리에 대해 인증합니다. 컴퓨트 엔진 가상 머신 인스턴스에 오픈 소스 Docker 레지스트리가 배포된 운영 팀을 위한 별도의 프로젝트를 만듭니다. 각 개발 팀에 대한 사용자 이름과 비밀번호를 생성하고, 소스 코드 저장소에 사용자 이름과 비밀번호를 저장하여 운영 팀의 Docker 레지스트리에 대해 인증하는 데 사용하세요. 질문 36 귀하는 Google Kubernetes Engine(GKE) 클러스터에서 고객에게 전용 블로그 소프트웨어를 배포하는 SaaS 제공업체입니다. 각 고객이 자신의 블로그에만 액세스하고 다른 고객의 워크로드에 영향을 미치지 않도록 보안 멀티테넌트 플랫폼을 구성하려고 합니다. 어떻게 해야 하나요? GKE 클러스터에서 애플리케이션 계층 비밀을 사용 설정하여 클러스터를 보호합니다. 테넌트별로 네임스페이스를 배포하고 각 블로그 배포에서 네트워크 정책을 사용합니다. GKE 감사 로깅을 사용하여 악성 컨테이너를 식별하고 발견 시 삭제합니다. 블로그 소프트웨어의 사용자 지정 이미지를 구축하고 바이너리 권한 부여를 사용하여 신뢰할 수 없는 이미지 배포를 방지하세요. NO.37 사례 연구사례 연구입니다. 사례 연구는 별도로 시간이 정해져 있지 않습니다. 각 사례를 완료하는 데 원하는 만큼의 시험 시간을 사용할 수 있습니다. 그러나 이 시험에는 추가 사례 연구와 섹션이 있을 수 있습니다. 주어진 시간 내에 이 시험에 포함된 모든 문제를 완료할 수 있도록 시간을 관리해야 하며, 사례 연구에 포함된 문제에 답하려면 사례 연구에 제공된 정보를 참조해야 합니다. 사례 연구에는 사례 연구에 설명된 시나리오에 대한 자세한 정보를 제공하는 전시물 및 기타 리소스가 포함될 수 있습니다. 각 문제는 이 사례 연구의 다른 문제와 독립적입니다.이 사례 연구가 끝나면 검토 화면이 나타납니다. 이 화면에서는 시험의 다음 섹션으로 이동하기 전에 답을 검토하고 변경할 수 있습니다. 새 섹션을 시작한 후에는 이 섹션으로 돌아갈 수 없습니다.사례 연구를 시작하려면이 사례 연구의 첫 번째 문제를 표시하려면 다음 버튼을 클릭합니다. 왼쪽 창의 버튼을 사용하여 문제에 답하기 전에 사례 연구의 콘텐츠를 탐색할 수 있습니다. 이러한 버튼을 클릭하면 비즈니스 요구 사항, 기존 환경 및 문제 진술과 같은 정보가 표시됩니다. 사례 연구에 전체 정보 탭이 있는 경우에는 표시되는 정보가 후속 탭에 표시되는 정보와 동일하다는 점에 유의하세요. 질문에 답변할 준비가 되면 질문 버튼을 클릭하여 해당 질문으로 돌아가세요.회사 개요HipLocal은 가까운 곳에 있는 사람들 간의 커뮤니케이션을 촉진하기 위해 고안된 커뮤니티 애플리케이션입니다. 이벤트 계획 및 스포츠 이벤트 조직, 기업이 지역 사회와 소통하는 데 사용됩니다. 힙로컬은 최근 댈러스의 몇몇 지역에서 시작되어 전 세계적으로 빠르게 성장하고 있습니다. 독특한 스타일의 하이퍼 로컬 커뮤니티 커뮤니케이션과 비즈니스 지원은 전 세계적으로 수요가 많습니다.경영진 성명우리는 최고의 지역 커뮤니티 앱이며, 이제 지역 커뮤니티 서비스를 글로벌화할 때입니다. 우리의 벤처 캐피탈 투자자들은 회원들이 서로 10마일 또는 10000마일 떨어져 있든 상관없이 온라인에 접속하는 새로운 지역 및 가상 커뮤니티의 빠른 성장과 동일한 훌륭한 경험을 원합니다.솔루션 컨셉HipLocal은 글로벌 고객에게 더 나은 서비스를 제공하기 위해 새로운 지역에서 업데이트된 기능으로 기존 서비스를 확장하고자 합니다. 해당 시간대에 해당 지역을 지원할 새로운 팀을 고용하고 교육하고자 합니다. 애플리케이션이 원활하게 확장되고 명확한 가동 시간 데이터를 제공해야 합니다.기존 기술 환경HipLocal의 환경은 온프레미스 하드웨어와 Google Cloud Platform에서 실행되는 인프라가 혼합되어 있습니다.HipLocal 팀은 애플리케이션을 잘 이해하고 있지만 글로벌 규모의 애플리케이션에 대한 경험이 제한적입니다.기존 기술 환경은 다음과 같습니다.* 기존 API는 GCP에서 호스팅되는 Compute Engine 가상 머신 인스턴스에서 실행됩니다.* 상태는 GCP의 단일 인스턴스 MySQL 데이터베이스에 저장됩니다.* 데이터는 온프레미스 Teradata/Vertica 데이터 웨어하우스로 내보내집니다.* 데이터 분석은 온프레미스 Hadoop 환경에서 수행됩니다.* 애플리케이션에는 로깅이 없습니다.* 가동 시간에 대한 기본 지표가 있으며, API가 응답하지 않으면 알림이 자주 발생합니다.비즈니스 요구사항HipLocal의 투자자들은 사업 영역을 확장하고 수요 증가를 지원하기를 원합니다. 이들의 요구사항은 다음과 같습니다.* 새로운 지역으로 애플리케이션의 가용성 확장.* 지원할 수 있는 동시 사용자 수 증가.* 사용자가 다른 지역을 이동할 때 일관된 경험을 보장.* 사용자 활동 지표를 확보하여 제품 수익화 방법을 더 잘 이해.* 새로운 지역의 규정(예: GDPR) 준수 보장.* 인프라 관리 시간 및 비용 절감.* 클라우드 컴퓨팅에 대한 Google 권장 관행 채택.기술적 요구 사항* 애플리케이션과 백엔드에서 사용량 지표 및 모니터링을 제공해야 함.* API에 강력한 인증 및 권한 부여가 필요함.* 로깅을 강화하고 데이터를 클라우드 분석 플랫폼에 저장해야 함.* 서버리스 아키텍처로 전환하여 탄력적인 확장이 용이하도록 함.* 내부 앱에 안전한 방식으로 승인된 액세스 권한 제공.HipLocal은 대기 엔지니어 수를 줄이고 수동 확장을 없애고자 함.어떤 두 서비스를 선택해야 할까요? (두 가지를 선택하세요.) Google 앱 엔진 서비스를 사용합니다. 서버리스 Google 클라우드 기능을 사용합니다. Knative를 사용하여 서버리스 애플리케이션을 빌드 및 배포합니다. 자동화된 배포를 위해 구글 쿠버네티스 엔진을 사용합니다. 배포를 위해 대규모 Google 컴퓨트 엔진 클러스터를 사용합니다. NO.38 회사에서 온프레미스 Hadoop 환경을 클라우드로 마이그레이션할 계획입니다. HDFS에 저장된 데이터의 스토리지 비용과 유지 관리 비용 증가는 회사의 주요 관심사입니다. 또한 기존 데이터 분석 작업과 기존 아키텍처를 최소한의 변경만 하고자 합니다. 마이그레이션은 어떻게 진행해야 할까요? Hadoop에 저장된 데이터를 BigQuery로 마이그레이션합니다. 온프레미스 Hadoop 환경 대신 BigQuery에서 정보를 가져오도록 작업을 변경합니다. 비용을 절감하기 위해 SSD 대신 HDD로 Compute Engine 인스턴스를 생성하세요. 그런 다음 기존 환경을 Compute Engine 인스턴스에서 새 환경으로 전체 마이그레이션을 수행합니다. Google Cloud Platform에서 Cloud Dataproc 클러스터를 생성한 다음, Hadoop 환경을 새로운 Cloud Dataproc 클러스터로 마이그레이션합니다. HDFS 데이터를 더 큰 HDD 디스크로 이동하여 스토리지 비용을 절약하세요. Google Cloud Platform에서 Cloud Dataproc 클러스터를 생성한 다음, Hadoop 코드 개체를 새 클러스터로 마이그레이션하세요. 데이터를 클라우드 스토리지로 옮기고 Cloud Dataproc 커넥터를 활용하여 해당 데이터에서 작업을 실행하세요. NO.39 서비스가 Cloud Storage에서 읽은 이미지에 텍스트를 추가합니다. 연중 바쁜 시간대에 클라우드 스토리지에 대한 요청이 HTTP 429 "너무 많은 요청" 상태 코드와 함께 실패합니다.이 오류를 어떻게 처리해야 하나요? 개체에 캐시 제어 헤더를 추가합니다. GCP 콘솔에서 쿼터 증량을 요청합니다. 잘린 지수 백오프 전략으로 요청을 다시 시도합니다. 클라우드 스토리지 버킷의 스토리지 클래스를 다중 지역으로 변경합니다. 설명/참조: https://developers.google.com/gmail/api/v1/reference/quotaNO.40 애플리케이션을 Google Cloud Platform으로 마이그레이션하고 기존 모니터링 플랫폼을 유지했습니다. 이제 알림 시스템이 너무 느려서 시간이 중요한 문제가 발생한다는 것을 알게 되었는데 어떻게 해야 하나요? 전체 모니터링 플랫폼을 Stackdriver로 교체하세요. 컴퓨트 엔진 인스턴스에 Stackdriver 에이전트를 설치하세요. Stackdriver를 사용하여 로그를 캡처하고 알림을 전송한 다음 기존 플랫폼으로 전송하세요. 일부 트래픽을 기존 플랫폼으로 다시 마이그레이션하고 두 플랫폼에서 동시에 AB 테스트를 수행합니다. 참조: https://cloud.google.com/monitoring/NO.41 Leigh는 자신의 MacBook Pro(Retina, 15인치, 2015년 중반)가 가져온 SD 카드를 인식하지 못한다고 말합니다. 리에게 문제를 재현하게 한 결과 카드를 제대로 삽입하고 있음을 확인했습니다. 하지만 사진 또는 이미지 캡처에서는 인식되지 않습니다. 문제를 하드웨어로 분리하기 위해 다음 질문은 무엇인가요? SD 카드에 어떤 종류의 파일 또는 이미지가 있나요? 최신 버전의 사진을 실행하고 있나요? SMC 및 NVRAM 재설정을 시도해 보았나요? 모든 SD 카드에서 이 문제가 발생했나요, 아니면 이 카드에서만 발생했나요? NO.42 Compute Engine에 배포된 애플리케이션의 메모리 사용량을 확인하고 싶습니다. 어떻게 해야 하나요? Stackdriver 클라이언트 라이브러리를 설치합니다. Stackdriver 모니터링 에이전트를 설치합니다. 스택드라이버 메트릭 탐색기를 사용합니다. Google Cloud Platform 콘솔을 사용합니다. 참조: https://stackoverflow.com/questions/43991246/google-cloud-platform-how-to-monitor-memory-usage-of-vm-instancesNO.43 최근에 애플리케이션을 개발했습니다. 공인 IP 주소가 없는 컴퓨트 엔진 인스턴스에서 클라우드 스토리지 API를 호출해야 합니다. 어떻게 해야 하나요? 캐리어 피어링 사용 VPC 네트워크 피어링 사용 공유 VPC 네트워크 사용 비공개 Google 액세스 사용 https://cloud.google.com/vpc/docs/private-google-accessNO.44 애플리케이션이 사용자로부터 입력을 받아 사용자의 연락처에 게시합니다. 이 입력은 클라우드 스패너의 테이블에 저장됩니다. 애플리케이션은 대기 시간에 더 민감하고 일관성에는 덜 민감합니다. 이 애플리케이션에 대해 Cloud Spanner에서 읽기를 어떻게 수행해야 하나요? 읽기 전용 트랜잭션을 수행합니다. 단일 읽기 방법을 사용하여 부실 읽기를 수행합니다. 단일 읽기 메서드를 사용하여 강력한 읽기를 수행합니다. 읽기-쓰기 트랜잭션을 사용하여 오래된 읽기를 수행합니다. 45 사례 연구회사 개요HipLocal은 가까운 곳에 있는 사람들 간의 커뮤니케이션을 촉진하기 위해 설계된 커뮤니티 애플리케이션입니다. 이벤트 계획 및 스포츠 이벤트 조직, 그리고 기업이 지역 사회와 소통하는 데 사용됩니다. 힙로컬은 최근 댈러스의 몇몇 지역에서 시작되어 전 세계적으로 빠르게 성장하고 있습니다. 독특한 스타일의 하이퍼 로컬 커뮤니티 커뮤니케이션과 비즈니스 지원은 전 세계적으로 수요가 많습니다.경영진 성명우리는 최고의 지역 커뮤니티 앱이며, 이제 지역 커뮤니티 서비스를 글로벌화할 때입니다. 우리의 벤처 캐피탈 투자자들은 회원들이 서로 10마일 또는 10000마일 떨어져 있든 상관없이 온라인에 접속하는 새로운 지역 및 가상 커뮤니티의 빠른 성장과 동일한 훌륭한 경험을 원합니다.솔루션 컨셉HipLocal은 글로벌 고객에게 더 나은 서비스를 제공하기 위해 새로운 지역에서 업데이트된 기능으로 기존 서비스를 확장하고자 합니다. 해당 시간대에 해당 지역을 지원할 새로운 팀을 고용하고 교육하고자 합니다. 애플리케이션이 원활하게 확장되고 명확한 가동 시간 데이터를 제공해야 합니다.기존 기술 환경HipLocal의 환경은 온프레미스 하드웨어와 Google Cloud Platform에서 실행되는 인프라가 혼합되어 있습니다.HipLocal 팀은 애플리케이션을 잘 이해하고 있지만 글로벌 규모의 애플리케이션에 대한 경험이 제한적입니다.기존 기술 환경은 다음과 같습니다.* 기존 API는 GCP에서 호스팅되는 Compute Engine 가상 머신 인스턴스에서 실행됩니다.* 상태는 GCP의 단일 인스턴스 MySQL 데이터베이스에 저장됩니다.* 데이터는 온프레미스 Teradata/Vertica 데이터 웨어하우스로 내보내집니다.* 데이터 분석은 온프레미스 Hadoop 환경에서 수행됩니다.* 애플리케이션에는 로깅이 없습니다.* 가동 시간에 대한 기본 지표가 있으며, API가 응답하지 않으면 알림이 자주 발생합니다.비즈니스 요구사항HipLocal의 투자자들은 사업 영역을 확장하고 수요 증가를 지원하기를 원합니다. 이들의 요구사항은 다음과 같습니다.* 새로운 지역으로 애플리케이션의 가용성 확장.* 지원할 수 있는 동시 사용자 수 증가.* 사용자가 다른 지역을 이동할 때 일관된 경험을 보장.* 사용자 활동 지표를 확보하여 제품 수익화 방법을 더 잘 이해.* 새로운 지역의 규정(예: GDPR) 준수 보장.* 인프라 관리 시간 및 비용 절감.* 클라우드 컴퓨팅에 대한 Google 권장 관행 채택.기술적 요구 사항* 애플리케이션과 백엔드에서 사용량 지표 및 모니터링을 제공해야 함.* API에 강력한 인증 및 권한 부여가 필요함.* 로깅을 강화하고 데이터를 클라우드 분석 플랫폼에 저장해야 함.* 서버리스 아키텍처로 전환하여 탄력적인 확장이 용이함.* 내부 앱에 안전한 방식으로 승인된 액세스 권한 제공.HipLocal은 대기 엔지니어 수를 줄이고 수동 확장을 없애고자 함.어떤 두 서비스를 선택해야 할까요? (두 가지를 선택하세요.) Google 앱 엔진 서비스를 사용합니다. 서버리스 Google 클라우드 기능을 사용합니다. Knative를 사용하여 서버리스 애플리케이션을 빌드 및 배포합니다. 자동화된 배포를 위해 구글 쿠버네티스 엔진을 사용합니다. 배포를 위해 대규모 Google 컴퓨트 엔진 클러스터를 사용합니다. 설명/참조:NO.46 팀에서 PostgreSQL 데이터베이스와 Cloud Run을 사용하여 새 애플리케이션을 개발하고 있습니다. 모든 트래픽이 Google Cloud에서 비공개로 유지되도록 할 책임이 있습니다. 관리형 서비스를 사용하고 Google이 권장하는 모범 사례를 따르고자 합니다. 어떻게 해야 하나요? 1. 동일한 프로젝트에서 Cloud SQL과 Cloud Run을 사용 설정합니다.2. Cloud SQL에 대한 비공개 IP 주소를 구성합니다. 비공개 서비스 액세스를 사용 설정합니다.3. 서버리스 VPC 액세스 커넥터를 만듭니다.4. 이 커넥터를 사용하여 Cloud SQL에 연결하도록 Cloud Run을 구성합니다. 1. 컴퓨트 엔진 가상 머신(VM)에 PostgreSQL을 설치하고 동일한 프로젝트에서 Cloud Run을 활성화합니다.2. VM의 프라이빗 IP 주소를 구성합니다. 프라이빗 서비스 액세스를 활성화합니다.3. 서버리스 VPC 액세스 커넥터를 생성합니다.4. 이 커넥터를 사용하여 PostgreSQL을 호스팅하는 VM에 연결하도록 Cloud Run을 구성합니다. 1. 다른 프로젝트에서 Cloud SQL 및 Cloud Run 사용.2. Cloud SQL에 대한 프라이빗 IP 주소 구성. 프라이빗 서비스 액세스를 활성화합니다.3. 서버리스 VPC 액세스 커넥터를 생성합니다.4. 두 프로젝트 간에 VPN 연결을 설정합니다. 커넥터를 사용하여 Cloud SQL에 연결하도록 Cloud Run을 구성합니다. 1. 컴퓨트 엔진 VM에 PostgreSQL을 설치하고 다른 프로젝트에서 Cloud Run을 활성화합니다.2. VM의 프라이빗 IP 주소를 구성합니다. 프라이빗 서비스 액세스를 활성화합니다.3. 서버리스 VPC 액세스 커넥터를 생성합니다.4. 두 프로젝트 간에 VPN 연결을 설정합니다. 커넥터를 사용하여 PostgreSQL을 호스팅하는 VM에 액세스하도록 Cloud Run을 구성합니다. https://cloud.google.com/sql/docs/postgres/connect-run#private-ipNO.47 프로젝트A의 Cloud 함수에서 코드가 실행 중입니다. 프로젝트 B가 소유한 클라우드 스토리지 버킷에 개체를 써야 하는데 "403 금지됨" 오류와 함께 쓰기 호출이 실패합니다. 이 문제를 해결하려면 어떻게 해야 하나요? 사용자 계정에 클라우드 스토리지 버킷에 대한 roles/storage.objectCreator 역할을 부여하세요. 사용자 계정에 service-PROJECTA@gcf-adminrobot.iam.gserviceaccount.com 서비스 계정에 대한 roles/iam.serviceAccountUser 역할을 부여합니다. service-PROJECTA@gcf-admin-robot.iam.gserviceaccount.com 서비스 계정에 클라우드 스토리지 버킷에 대한 roles/ storage.objectCreator 역할을 부여합니다. 프로젝트 B에서 Cloud Storage API를 활성화합니다. 질문 48 Cloud 빌드 빌드를 사용하여 개발, 테스트 및 프로덕션 환경으로 Docker 이미지를 승격하고 있습니다. 이러한 각 환경에 동일한 Docker 이미지가 배포되었는지 확인해야 하는데, 빌드에서 Docker 이미지를 어떻게 식별해야 하나요? 최신 Docker 이미지 태그를 사용하세요. 고유한 Docker 이미지 이름을 사용합니다. Docker 이미지의 다이제스트를 사용합니다. 시맨틱 버전 Docker 이미지 태그를 사용하세요. NO.49 사례 연구회사 개요HipLocal은 가까운 사람들 간의 커뮤니케이션을 촉진하기 위해 설계된 커뮤니티 애플리케이션입니다. 이벤트 계획 및 스포츠 이벤트 조직, 그리고 기업이 지역 사회와 소통하는 데 사용됩니다. 힙로컬은 최근 댈러스의 몇몇 지역에서 시작되어 전 세계적으로 빠르게 성장하고 있습니다. 독특한 스타일의 하이퍼 로컬 커뮤니티 커뮤니케이션과 비즈니스 지원은 전 세계적으로 수요가 많습니다.경영진 성명우리는 최고의 지역 커뮤니티 앱이며, 이제 우리의 지역 커뮤니티 서비스를 글로벌화할 때입니다. 우리의 벤처 캐피탈 투자자들은 회원들이 서로 10마일 또는 10000마일 떨어져 있든 상관없이 온라인에 접속하는 새로운 지역 및 가상 커뮤니티의 빠른 성장과 동일한 훌륭한 경험을 원합니다.솔루션 컨셉HipLocal은 글로벌 고객에게 더 나은 서비스를 제공하기 위해 새로운 지역에서 업데이트된 기능으로 기존 서비스를 확장하고자 합니다. 해당 시간대에 해당 지역을 지원할 새로운 팀을 고용하고 교육하고자 합니다. 애플리케이션이 원활하게 확장되고 명확한 가동 시간 데이터를 제공해야 합니다.기존 기술 환경HipLocal의 환경은 온프레미스 하드웨어와 Google Cloud Platform에서 실행되는 인프라가 혼합되어 있습니다.HipLocal 팀은 애플리케이션을 잘 이해하고 있지만 글로벌 규모의 애플리케이션에 대한 경험이 제한적입니다.기존 기술 환경은 다음과 같습니다.* 기존 API는 GCP에서 호스팅되는 Compute Engine 가상 머신 인스턴스에서 실행됩니다.* 상태는 GCP의 단일 인스턴스 MySQL 데이