Google Cloud 공인 인증 시험 문제 및 답변 [Q41-Q64]을 위한 전문 데이터 엔지니어 덤프로 연습하세요.


이 게시물 평가하기

Google Cloud 공인 인증 시험 문제 및 답변에 대한 전문 데이터 엔지니어 덤프로 연습하세요.

100% 환불 보장이 포함된 실제 전문가-데이터 엔지니어 시험 문제

Google 전문가-데이터 엔지니어 시험은 데이터 엔지니어링을 전문으로 하는 전문가에게 Google에서 제공하는 자격증입니다. 프로페셔널 데이터 엔지니어 시험은 데이터 처리 시스템, 데이터 모델링, 데이터 거버넌스, 데이터 변환에 대한 응시자의 이해도를 테스트하기 위해 고안되었습니다. Google 공인 데이터 엔지니어 시험 인증은 응시자가 Google Cloud Platform의 데이터 엔지니어링 기술에 대한 전문 지식과 효과적인 데이터 솔루션을 설계 및 개발할 수 있는 능력을 검증하는 것을 목표로 합니다.

 

Q41. 타임스탬프 및 ID 열에 WHERE 절을 사용하여 BigQuery 테이블을 필터링하는 쿼리가 있습니다. bq 쿼리 - -dry_run을 사용하면 타임스탬프 및 ID의 필터가 전체 데이터의 아주 작은 부분을 선택하더라도 쿼리가 테이블의 전체 스캔을 트리거한다는 것을 알게 됩니다. 기존 SQL 쿼리를 최소한으로 변경하여 BigQuery에서 스캔하는 데이터의 양을 줄이고 싶습니다. 어떻게 해야 할까요?

 
 
 
 

Q42. 조직의 마케팅 팀은 고객 데이터 세트의 세그먼트에 대한 정기적인 업데이트를 제공합니다.
마케팅 팀에서 BigQuery에서 업데이트해야 하는 1백만 개의 레코드가 포함된 CSV를 제공했습니다. BigQuery에서 UPDATE 문을 사용하면 쿼터 초과 오류가 발생합니다. 어떻게 해야 하나요?

 
 
 
 

Q43. 다음 중 와이드 및 딥러닝 모델에 대한 설명 중 옳은 것은 무엇인가요? (정답 2개를 선택하세요.)

 
 
 
 

Q44. BigQuery에서 실행되도록 ETL 작업을 마이그레이션한 후, 마이그레이션된 작업의 출력이 원본 작업의 출력과 동일한지 확인해야 합니다. 원래 작업의 출력이 포함된 테이블을 로드하고 그 내용을 마이그레이션된 작업의 출력과 비교하여 동일한지 확인하려고 합니다. 테이블에 비교를 위해 함께 조인할 수 있는 기본 키 열이 포함되어 있지 않습니다.
어떻게 해야 하나요?

 
 
 
 

Q45. 클라우드 빅테이블 성능 저하의 타당한 이유가 아닌 것은 무엇인가요?

 
 
 
 

Q46. 클라우드 스토리지에 데이터를 보관하려고 합니다. 일부 데이터는 매우 민감하기 때문에 클라우드 제공업체 직원이 데이터를 해독하지 못하도록 '아무도 신뢰하지 않음(TNO)' 방식을 사용하여 데이터를 암호화하려고 합니다. 어떻게 해야 하나요?

 
 
 
 

Q47. 핸드헬드 스캐너를 사용하여 배송 라벨을 판독하는 배송 회사에서 근무하고 있습니다. 회사에는 스캐너가 수신자의 개인 식별 정보(PII)만 분석 시스템으로 전송해야 하는 엄격한 데이터 개인정보 보호 표준이 있으며, 이는 사용자 개인정보 보호 규칙을 위반하는 것입니다. 클라우드 네이티브 관리 서비스를 사용하여 확장 가능한 솔루션을 신속하게 구축하여 분석 시스템에 PII가 노출되는 것을 방지하고자 합니다.
어떻게 해야 하나요?

 
 
 
 

Q48. 날씨 앱은 15분마다 데이터베이스를 쿼리하여 현재 기온을 가져옵니다. 프런트엔드는 Google 앱 엔진으로 구동되며 수백만 명의 사용자를 서버로 지원합니다. 데이터베이스 장애에 대응하기 위해 프론트엔드를 어떻게 설계해야 할까요?

 
 
 
 

Q49. 회사의 고객 및 주문 데이터베이스는 과부하 상태인 경우가 많습니다. 따라서 운영에 지장을 주지 않으면서 분석을 수행하기가 어렵습니다. 데이터베이스는 MySQL 클러스터에 있으며, mysqldump를 사용하여 매일 밤 백업을 수행합니다. 운영에 미치는 영향을 최소화하면서 분석을 수행하려고 합니다.
어떻게 해야 하나요?

 
 
 
 

Q50. 클라우드 스토리지에 기록 데이터를 저장합니다. 기록 데이터에 대한 분석을 수행해야 합니다. 잘못된 데이터 항목을 감지하고 프로그래밍이나 SQL에 대한 지식이 필요 없는 데이터 변환을 수행하는 솔루션을 사용하고자 합니다.
어떻게 해야 하나요?

 
 
 
 

Q51. 다음 중 데이터 흐름 파이프라인에 대해 사실이 아닌 것은 무엇인가요?

 
 
 
 

Q52. 사용자가 무엇을 먹고 싶어하는지 예측하는 머신 러닝 기반 음식 주문 서비스의 데이터베이스 스키마를 설계하고 있다고 가정해 보겠습니다. 다음은 저장해야 하는 몇 가지 정보입니다:
사용자 프로필: 사용자가 좋아하는 음식과 싫어하는 음식

사용자 계정 정보: 이름, 주소, 선호하는 식사 시간

주문 정보: 주문이 언제, 어디에서, 누구에게 이루어졌는지

데이터베이스는 제품의 모든 트랜잭션 데이터를 저장하는 데 사용됩니다. 데이터 스키마를 최적화하려고 합니다. 어떤 Google Cloud Platform 제품을 사용해야 하나요?

 
 
 
 

Q53. 클라우드 빅테이블은 대용량의 데이터를 저장할 때 권장되는 옵션입니다.
____________________________?

 
 
 
 

Q54. 다음 중 레거시 SQL 및 표준 SQL에 대한 설명 중 사실이 아닌 것은?

 
 
 
 

Q55. Google Cloud의 데이터 파이프라인을 위해 Cloud Pub/Sub에서 BigQuery로 JSON 메시지를 작성하고 변환할 서비스를 선택하려고 합니다. 서비스 비용을 최소화하고자 합니다. 또한 최소한의 수동 개입으로 크기가 달라지는 입력 데이터 볼륨을 모니터링하고 수용하고자 합니다. 어떻게 해야 할까요?

 
 
 
 

Q56. 의류 추천을 위한 모델을 구축하고 있습니다. 사용자의 패션 취향이 시간이 지남에 따라 변할 가능성이 높다는 것을 알고 있으므로 새로운 데이터를 사용할 수 있게 되면 모델에 다시 스트리밍하는 데이터 파이프라인을 구축합니다. 이 데이터를 어떻게 사용하여 모델을 학습시켜야 할까요?

 
 
 
 

Q57. 사례 연구 1 - 플로우로지스틱
회사 개요
플로우로지스틱은 선도적인 물류 및 공급망 제공업체입니다. 전 세계 기업이 자원을 관리하고 최종 목적지까지 운송할 수 있도록 지원합니다. 이 회사는 빠르게 성장하여 철도, 트럭, 항공기, 해상 운송으로 서비스를 확장하고 있습니다.
회사 배경
이 회사는 지역 트럭 운송 회사로 시작한 후 다른 물류 시장으로 사업을 확장했습니다.
인프라를 업데이트하지 않았기 때문에 주문과 배송을 관리하고 추적하는 것이 병목 현상이 발생했습니다. 플로우로지스틱은 운영을 개선하기 위해 소포 수준에서 실시간으로 배송을 추적하는 독자적인 기술을 개발했습니다. 하지만 아파치 카프카 기반의 기술 스택이 처리량을 감당할 수 없어 이를 배포할 수 없었습니다. 또한 플로우로지스틱은 주문과 배송을 추가로 분석하여 리소스를 가장 잘 배치하는 방법을 결정하고자 합니다.
솔루션 개념
플로우로지스틱은 클라우드를 사용하여 두 가지 개념을 구현하고자 합니다:
* 실시간 재고 추적 시스템에서 독점 기술을 사용하여 적재 위치를 표시합니다.
* 정형 및 비정형 데이터가 모두 포함된 모든 주문 및 배송 로그에 대한 분석을 수행하여 리소스를 가장 잘 배치하는 방법과 정보를 확장할 시장을 결정합니다. 또한 예측 분석을 사용하여 배송이 지연되는 시기를 더 일찍 파악하고자 합니다.
기존 기술 환경
플로우로지스틱 아키텍처는 단일 데이터 센터에 상주합니다:
* 데이터베이스
2개의 클러스터에 8개의 물리적 서버
- SQL Server - 사용자 데이터, 인벤토리, 정적 데이터
물리적 서버 3개
- 카산드라 - 메타데이터, 메시지 추적
10개의 Kafka 서버 - 추적 메시지 집계 및 배치 삽입
* 애플리케이션 서버 - 고객 프런트엔드, 주문/통관용 미들웨어
20개의 물리적 서버에서 60개의 가상 머신
- Tomcat - Java 서비스
- Nginx - 정적 콘텐츠
- 배치 서버
* 스토리지 어플라이언스
- 가상 머신(VM) 호스트용 iSCSI
- 파이버 채널 스토리지 영역 네트워크(FC SAN) - SQL 서버 스토리지
- NAS(네트워크 연결 스토리지) 이미지 스토리지, 로그, 백업
* 10개의 Apache Hadoop/Spark 서버
- 핵심 데이터 레이크
- 데이터 분석 워크로드
* 기타 서버 20개
- 젠킨스, 모니터링, 바스티온 호스트,
비즈니스 요구 사항
* 확장된 생산 팬티로 안정적이고 재현 가능한 환경을 구축하세요.
* 분석을 위해 중앙 집중식 데이터 레이크에서 데이터 집계
* 과거 데이터를 사용하여 향후 배송에 대한 예측 분석 수행
* 독점 기술을 사용하여 전 세계 모든 배송을 정확하게 추적합니다.
* 새로운 리소스의 신속한 프로비저닝을 통한 비즈니스 민첩성 및 혁신 속도 향상
* 클라우드에서 성능을 위한 아키텍처 분석 및 최적화
* 다른 모든 요구 사항이 충족되는 경우 클라우드로 완전히 마이그레이션하세요.
기술 요구 사항
* 스트리밍 및 배치 데이터 모두 처리
* 기존 Hadoop 워크로드 마이그레이션
* 변화하는 회사의 요구 사항을 충족할 수 있도록 아키텍처의 확장성과 탄력성을 보장합니다.
* 가능하면 관리형 서비스 사용
* 비행 중 및 미사용 데이터 암호화
* 프로덕션 데이터 센터와 클라우드 환경 사이에 VPN 연결 SEO 선언문 우리는 너무 빠르게 성장하여 인프라를 업그레이드할 수 없어 더 큰 성장과 효율성을 저해하고 있습니다. 전 세계로 배송물을 이동하는 데는 효율적이지만 데이터를 이동하는 데는 비효율적입니다.
고객이 어디에 있고 무엇을 배송하는지 더 쉽게 파악할 수 있도록 정보를 체계적으로 정리해야 합니다.
CTO 성명서
IT는 우리에게 우선순위가 아니었기 때문에 데이터가 증가함에 따라 기술에 충분히 투자하지 못했습니다. IT를 관리하는 훌륭한 직원이 있지만 인프라 관리에 너무 바빠서 데이터 정리, 분석 구축, CFO의 추적 기술 구현 방법 파악 등 정말 중요한 업무에 집중할 수 없었습니다.
CFO 성명서
우리의 경쟁 우위 중 하나는 배송 및 배송 지연에 대한 불이익을 감수한다는 점입니다. 배송이 항상 어디에 있는지 파악하는 것은 수익과 수익성에 직접적인 상관관계가 있습니다. 또한 서버 환경을 구축하는 데 자본을 투입하고 싶지 않습니다.
플로우로지스틱은 실시간 재고 추적 시스템을 출시합니다. 추적 장치는 모두 패키지 추적 메시지를 전송하며, 이 메시지는 이제 Apache Kafka 클러스터가 아닌 단일 Google Cloud Pub/Sub 토픽으로 이동합니다. 그러면 구독자 애플리케이션이 실시간 보고를 위해 메시지를 처리하고 기록 분석을 위해 Google BigQuery에 저장합니다. 시간이 지남에 따라 패키지 데이터를 분석할 수 있도록 하려는 것입니다.
어떤 접근 방식을 취해야 할까요?

 
 
 
 

Q58. MJTelco 사례 연구
회사 개요
MJTelco는 전 세계에서 빠르게 성장하고 있는 소외된 시장에 네트워크를 구축하려는 스타트업입니다.
이 회사는 혁신적인 광통신 하드웨어에 대한 특허를 보유하고 있습니다. 이러한 특허를 기반으로 저렴한 하드웨어로 안정적인 고속 백본 링크를 많이 만들 수 있습니다.
회사 배경
숙련된 통신사 경영진이 설립한 MJTelco는 원래 우주에서의 통신 문제를 극복하기 위해 개발된 기술을 사용합니다. 운영의 기본은 실시간 분석을 주도하고 머신 러닝을 통합하여 토폴로지를 지속적으로 최적화하는 분산형 데이터 인프라를 구축하는 것입니다. 하드웨어가 저렴하기 때문에 역동적인 지역 정치가 위치 가용성과 비용에 미치는 영향을 고려할 수 있도록 네트워크를 과도하게 배포할 계획입니다.
이 회사의 관리 및 운영 팀은 전 세계 곳곳에 위치하여 시스템에서 데이터 소비자와 제공자 간의 다대다 관계를 형성하고 있습니다. 신중한 검토 끝에 퍼블릭 클라우드가 이러한 요구 사항을 지원하는 완벽한 환경이라고 판단했습니다.
솔루션 개념
MJTelco는 실험실에서 성공적인 개념 증명(PoC) 프로젝트를 실행하고 있습니다. 여기에는 두 가지 주요 요구 사항이 있습니다:
* 50,000개 이상의 설치로 늘어날 때 생성되는 훨씬 더 많은 데이터 흐름을 지원하기 위해 PoC를 확장하고 강화합니다.
* 머신 러닝 주기를 개선하여 토폴로지 정의를 제어하는 데 사용하는 동적 모델을 검증하고 개선합니다.
또한 개발/테스트, 스테이징, 프로덕션의 세 가지 운영 환경을 사용하여 실험을 실행하고 새로운 기능을 배포하며 프로덕션 고객에게 서비스를 제공하는 데 필요한 요구 사항을 충족할 것입니다.
비즈니스 요구 사항
* 예측할 수 없는 분산된 통신 사용자 커뮤니티에서 필요할 때 언제 어디서나 리소스를 인스턴스화하여 최소한의 비용으로 프로덕션 환경을 확장할 수 있습니다.
* 최첨단 머신 러닝 및 분석을 보호하기 위해 독점 데이터의 보안을 보장합니다.
* 분산된 연구 인력으로부터 분석을 위한 데이터에 안정적이고 시기적절하게 액세스 제공
* 고객에게 영향을 주지 않으면서 머신러닝 모델의 빠른 반복을 지원하는 격리된 환경을 유지합니다.
기술 요구 사항
* 원격 측정 데이터의 안전하고 효율적인 전송 및 저장 보장
* 인스턴스를 빠르게 확장하여 각각 여러 개의 플로우를 가진 10,000~100,000개의 데이터 공급업체를 지원할 수 있습니다.
* 최대 2년간 저장된 데이터를 추적하는 데이터 테이블에 대한 분석 및 프레젠테이션이 가능합니다.
100m 기록/일
* 원격 분석 흐름과 프로덕션 학습 주기 모두에서 데이터 파이프라인 문제 인식에 초점을 맞춘 모니터링 인프라의 신속한 반복을 지원합니다.
CEO 성명서
저희의 비즈니스 모델은 특허, 분석 및 동적 머신 러닝에 의존합니다. 우리의 저렴한 하드웨어는 높은 안정성으로 구성되어 있어 비용 측면에서 이점을 제공합니다. 안정성과 용량 약속을 지키기 위해 대규모 분산 데이터 파이프라인을 신속하게 안정화해야 합니다.
CTO 성명서
퍼블릭 클라우드 서비스는 광고된 대로 작동해야 합니다. 데이터를 안전하게 보호하고 확장할 수 있는 리소스가 필요합니다. 또한 데이터 과학자들이 신중하게 연구하고 모델을 신속하게 조정할 수 있는 환경이 필요합니다. 데이터 처리를 위해 자동화에 의존하기 때문에 반복 작업을 수행할 수 있는 개발 및 테스트 환경도 필요합니다.
CFO 성명서
프로젝트 규모가 너무 커서 데이터와 분석에 필요한 하드웨어와 소프트웨어를 유지 관리할 수 없습니다. 또한 수많은 데이터 피드를 모니터링할 운영팀을 둘 여유가 없으므로 자동화와 인프라에 의존할 것입니다. Google Cloud의 머신 러닝을 통해 정량적 연구자들은 데이터 파이프라인의 문제 대신 가치가 높은 문제에 집중할 수 있게 될 것입니다.
다음 요구 사항을 충족하는 운영 팀용 시각화를 작성해야 합니다:
* 보고서에는 가장 많이 재전송된 6주 동안의 모든 50,000개 설치의 원격 분석 데이터가 포함되어야 합니다(1분에 한 번씩 샘플링).
* 리포트는 실시간 데이터로부터 3시간 이상 지연되지 않아야 합니다.
* 실행 가능한 보고서에는 최적이 아닌 링크만 표시되어야 합니다.
* 최적이 아닌 링크는 대부분 맨 위에 정렬되어야 합니다.
* 지역별로 차선책 링크를 그룹화하고 필터링할 수 있습니다.
* 보고서를 로드하는 데 걸리는 사용자 응답 시간은 5초 미만이어야 합니다.
어떤 접근 방식이 요구 사항을 충족하나요?

 
 
 
 

Q59. Compute Engine 가상 머신(n2 표준 -32)의 TensorFlow 머신 러닝 모델은 프레이밍을 완료하는 데 이틀이 걸립니다. 이 모델에는 CPU에서 부분적으로 실행되어야 하는 사용자 지정 TensorFlow 작업이 있습니다. 비용 효율적인 방식으로 학습 시간을 단축하고 싶습니다. 어떻게 해야 할까요?

 
 
 
 

Q60. 개인 사용자 데이터가 포함된 민감한 프로젝트에서 작업하고 있습니다. 내부적으로 작업을 보관하기 위해 Google Cloud Platform에 프로젝트를 설정했습니다. 외부 컨설턴트가 프로젝트의 Google Cloud 데이터 흐름 파이프라인에서 복잡한 변환을 코딩하는 데 도움을 줄 것입니다. 사용자의 개인정보는 어떻게 유지해야 하나요?

 
 
 
 

Q61. Hive가 포함된 Hadoop의 대안으로 어떤 Google Cloud Platform 서비스가 있나요?

 
 
 
 

Q62. Firebase Analytics와 Google BigQuery 간의 무료 통합을 사용 설정했습니다. 이제 Firebase는 BigQuery에서 app_events_YYYYMMDD 형식의 새 테이블을 매일 자동으로 생성합니다. 레거시 SQL로 지난 30일 동안의 모든 테이블을 쿼리하고 싶습니다. 어떻게 해야 하나요?

 
 
 
 

Q63. 다음 중 와이드 및 딥러닝 모델에 대한 설명 중 옳은 것은 무엇인가요? (정답 2개를 선택하세요.)

 
 
 
 

Q64. Cloud Bigtable용 _________ 을 사용하면 Cloud 데이터 흐름 파이프라인에서 Cloud Bigtable을 사용할 수 있습니다.

 
 
 
 

PDF 다운로드 구글 테스트를 통해 훌륭한 결과를 얻으세요! https://www.dumpsmaterials.com/Professional-Data-Engineer-real-torrent.html

         

댓글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다

아래 이미지에서 텍스트를 입력합니다.