This page was exported from Free Exams Dumps Materials [ http://exams.dumpsmaterials.com ] Export date:Wed Feb 5 14:06:56 2025 / +0000 GMT ___________________________________________________ Title: DEA-C01 Dumps PDF - DEA-C01 Real Exam Questions Answers [Q14-Q29] --------------------------------------------------- DEA-C01 Dumps PDF - DEA-C01 Real Exam Questions Answers Get Started: DEA-C01 Exam [year] Dumps Snowflake PDF Questions NO.14 A SQL UDF evaluates an arbitrary SQL expression and returns the result(s) of the expression. Which value type it can returns?  Single Value  A Set of Rows  Scaler or Tabular depend on input SQL expression  Regex NO.15 While running an external function, me following error message is received:Error:function received the wrong number of rowsWhat iscausing this to occur?  External functions do not support multiple rows  Nested arrays are not supported in the JSON response  The JSON returned by the remote service is not constructed correctly  The return message did not produce the same number of rows that it received ExplanationThe error message “function received the wrong number of rows” is caused by the return message not producing the same number of rows that it received. External functions require that the remote service returns exactly one row for each input row that it receives from Snowflake. If the remote service returns more or fewer rows than expected, Snowflake will raise an error and abort the function execution. The other options are not causes of this error message. Option A is incorrect because external functions do support multiple rows as long as they match the input rows. Option B is incorrect because nested arrays are supported in the JSON response as long as they conform to the return type definition of the external function. Option C is incorrect because the JSON returned by the remote service may be constructed correctly but still produce a different number of rows than expected.NO.16 A Data Engineer needs to ingest invoice data in PDF format into Snowflake so that the data can be queried and used in a forecasting solution.….. recommended way to ingest this data?  Use Snowpipe to ingest the files that land in an external stage into a Snowflake table  Use a COPY INTO command to ingest the PDF files in an external stage into a Snowflake table with a VARIANT column.  Create an external table on the PDF files that are stored in a stage and parse the data nto structured data  Create a Java User-Defined Function (UDF) that leverages Java-based PDF parser libraries to parse PDF data into structured data ExplanationThe recommended way to ingest invoice data in PDF format into Snowflake is to create a Java User-Defined Function (UDF) that leverages Java-based PDF parser libraries to parse PDF data into structured data. This option allows for more flexibility and control over how the PDF data is extracted and transformed. The other options are not suitable for ingesting PDF data into Snowflake. Option A and B are incorrect because Snowpipe and COPY INTO commands can only ingest files that are in supported file formats, such as CSV, JSON, XML, etc. PDF files are not supported by Snowflake and will cause errors or unexpected results.Option C is incorrect because external tables can only query files that are in supported file formats as well.PDF files cannot be parsed by external tables and will cause errors or unexpected results.NO.17 How Data Engineer can do Monitoring of Files which are Staged Internally during Continuous data pipelines loading process? [Select all that apply]  She Can Monitor the files using Metadata maintained by Snowflake i.e. file-name,last_modified date etc.  Snowflake retains historical data for COPY INTO commands executed within the pre-vious 14 days.  She can Monitor the status of each COPY INTO <table> コマンドを使用します。 DATA_LOAD_HISTORY Information Schemaビューを使用して、COPY INTOコマンドを使用してテーブルにロードされたデータの履歴を取得することができます。 DATA_VALIDATE関数を使用して、ロードしたデータ・ファイルを検証し、ロード中に発生したエラーを取得することができます。 説明内部ステージングされたファイルの監視Snowflake は、内部ステージ(ユーザー、テーブル、ステージ用)にアップロードされた各ファイルについて、以下を含む詳細なメタデータを保持します: ファイル名 ファイルサイズ(アップロード時に圧縮が指定された場合は圧縮) LAST_MODIFIED 日付、つまりデータファイルが最初にステージングされたときのタイムスタンプ、または最後に変更されたときのタイムスタンプのいずれか遅い方 さらに、Snowflake は過去 14 日以内に実行された COPY INTO コマンドの履歴データを保持します。メタデータは、アップロード完了後のファイルの削除など、ロードプロセスの監視と管理に使用できます: LISTコマンドを使用して、ステージングされたデータファイルのステータスを表示します。 各COPY INTO <table> コマンドを使用します。 VALIDATE関数を使用して、ロードしたデータファイルを検証し、ロード中に発生したエラーを取得します。 LOAD_HISTORY Information Schemaビューを使用して、COPY INTOコマンドを使用してテーブルにロードされたデータの履歴を取得します。 TABLEにFLATTENを使用する場合、from句で別のソースを参照する必要があります。 FLATTENを持つTABLEが、参照するfrom句に追加のソースを必要としない場合。 LATERALLFLATTEN の組み合わせで、from 節で参照する他のソースが必要ない場合。 FLATTENを持つテーブルが、返された行ごとに実行されるサブクエリのように動作する場合。 説明FLATTEN関数を持つTABLE関数は、JSONやXMLなどの半構造化データをリレーショナル形式に平坦化するために使用されます。TABLE関数は、クエリのFROM句で使用できるテーブル式を返します。FLATTEN関数を使用したTABLE関数は、FROM句で半構造化データを含むテーブル、ビュー、サブクエリなどの別のソースを参照する必要があります。例えば、SELECT t.value:city::string AS city, f.value AS population FROM cities t, TABLE(FLATTEN(input =&gt; t.value:population)) f; この例では、FLATTEN関数を使用したTABLE関数は、FROM句でcitiesテーブルを参照し、valueという名前のバリアント列にJSONデータが含まれています。FLATTEN 関数は、各 JSON オブジェクト内の人口配列を平坦化し、key と value の 2 つの列を持つテーブル式を返します。次に、クエリはテーブル式から都市と人口の値を選択します。NO.19 監査ダイナミック・データ・マスキングの目的で使用できるアカウント使用ビューはどれですか? マスキングポリシー ポリシーの参照 動的マスキングポリシー 動的ポリシーの参照 NO.20 データエンジニアのElonは、ソースファイルから半構造化要素を分割し、別々の列に配列としてロードする必要があります:{"host1":“197.128.1.1”,”host2″:"197.168.0.1"}}, |5.| {"mac_address":{ホスト1": "197.168.2.1“197.168.2.1”,”host2″:"197.168.3.1"}}|6.出力:1.COL1|COL2|2.|----+|3.|[ | |4.|"197", |"197", |5.|"128", |"168", |6.|"1", |"0", |7.|"1", |"1", |8.|]のようにマシンアドレスを分割する。| ]|9.| [ | [ |10.| "197", | "197", |11.| "168", | "168", |12.| "2", | "3", |13.| "1" | "1" |14.| ]|]Elonが出力for-matでこの半構造化データを変換するために使用できるSnowFlake関数はどれですか? コンバート_to_array 分割 group_by_connect NEST NO.21 データエンジニアの Mark は、ローカルビューにストリームを実装し、データローディングのユースケースの 1 つに変更追跡メタデータを使用したいと考えています。ビュー上のストリームの使用に関して、Mark の理解で誤っている箇所を選択してください。 ビュー上のストリームでは、非表示列をこれらのテーブルに追加するために、ビューと非依存テーブルに対して明示的に変更追跡を有効にする必要があります。 ストリームをクエリしたときに返される CDC レコードは、ストリームに格納されているオフセットと、テーブルに格納されている変更追跡メタデータの組み合わせに依存します。 Snowflakeでは、GROUP BY句とLIMIT句を持つビューがサポートされています。 ストリームの代わりに、SELECT文のCHANGES句を使用したビューの変更追跡メタデータのクエリをサポートしています。 変更追跡を有効にすると、テーブルに一対の隠し列が追加され、変更追跡メタデータの格納が開始されます。これらの非表示のCDCデータ列の値は、ストリーム・メタデータ列の入力となります。この列はわずかなストレージ容量を消費します。 説明ストリーム・オブジェクトは、テーブルに対して行われたデータ操作言語(DML)による変更(挿入、更新、削除など)、および各変更に関するメタデータを記録し、変更されたデータを使用してアクションを実行できるようにします。このプロセスは変更データキャプチャ(CDC)と呼ばれる。個々のテーブル・ストリームは、ソース・テーブルの行に加えられた変更を追跡します。テーブル・ストリーム(単に "ストリーム "とも呼ばれる)は、テーブル内の2つの時点の間で、行レベルで何が変更されたかを "変更テーブル "として利用できるようにします。ストリームは、以下のオブジェクトの変更データを照会するために作成できます: 共有テーブルを含む標準テーブル ビュー(セキュア・ビューを含む) ディレクトリ・テーブル 外部テーブル作成時、ストリームは論理的に、ある時点(オフセットと呼ばれる)をオブジェクトの現在のトランザクション・バージョンとして初期化することで、ソース・オブジェクト(タブル、外部テーブル、ビューの基礎となるテーブルなど)の各行の初期スナップショットを取ります。そして、ストリームが利用する変更追跡システムは、このスナップショットが取得された後のDML変更に関する情報を記録します。変更記録は、変更前後の行の状態を提供します。変更情報は、追跡されたソース・オブジェクトの列構造を反映し、各変更イベントを記述する追加のメタデータ列を含んでいます。ストリームはソース・オブジェクトのオフセットのみを格納し、ソース・オブジェクトのバージョニング履歴を利用して CDC レコードを返します。テーブルに対する最初のストリームが作成されると、1組の隠し列がソース・テーブルに追加され、変更追跡メタデータの格納が開始されます。これらの列は少量のストレージを消費します。ストリームへのクエリ時に返されるCDCレコードは、ストリームに格納されたオフセットとテーブルに格納された変更追跡メタデータの組み合わせに依存します。ビュー上のストリームでは、非表示の列をこれらのテーブルに追加するには、ビューとその基礎となるテーブルに対して明示的に変更追跡を有効にする必要があることに注意してください。ビュー上のストリームは、ローカルビューと、セキュアビューを含む Snowflake Secure Data Sharing を使用して共有されるビューの両方をサポートしています。現在のところ、ストリームはマテリアライズド・ビューの変更を追跡できません。以下の操作を持つビューはまだサポートされていません: GROUP BY句QUALIFY句FROM句に含まれないサブクエリ相関するサブクエリLIMIT句変更追跡:基になるテーブルで変更追跡を有効にする必要があります。ビューにストリームを作成する前に、ビューの基になるテーブルで変更追跡を有効にする必要があります。ストリームに代わるものとして、SnowflakeはSELECT文のCHANGES句を使用したテーブルやビューの変更追跡メタデータの問い合わせをサポートしています。CHANGES句を使用すると、明示的なトランザクションオフセットを持つストリームを作成することなく、2つの時点間の変更追跡メタデータを照会することができます。 YES いいえ 説明UDFにはスカラー関数と表関数があります。スカラー関数は、各入力行に対して1つの出力行を返します。表形式関数は表関数とも呼ばれ、各入力行に対して0行、1行、または複数行を返します。表形式UDFは、TABLEキーワードを含む戻り句を指定し、テーブル結果の列の名前とデータ型を指定することで定義されます。NO.23 CURRENT_ROLE関数とCURRENT_USER関数を、他のSnowflakeアカウントと共有される安全なビューで使用する場合、Snowflakeはこれらの関数に対してNULL値を返しますか? FALSE 真 説明他の Snowflake アカウントに共有されるセキュアなビューで CURRENT_ROLE 関数と CURRENT_USER 関数を使用すると、Snowflake はこれらの関数に対して NULL 値を返します。その理由は、共有されるデータの所有者は通常、ビューが共有されるアカウントのユーザーまたはロールを制御していないからです。NO.24 Federated認証/SSOの使用に関する記述のうち、正しいものを選択してください。 Snowflakeは、SSOと組み合わせてMFAを使用し、追加レベルのセキュリティを提供することをサポートしています。 Snowflake は、ID プロバイダから Snowflake への SAML 2.0 アサーションで、複数のオーディエンス値(オーディエンスまたはオーディエンス制限フィールドなど)をサポートします。 Snowflakeは、Amazon Web Services(AWS)、Microsoft Azure、およびGoogle Cloud Platform上のSnow-flakeアカウントに対して、Snowflakeサービスへのプライベート接続を使用したSSOをサポートします。 Snowflakeは組織とのSSOの使用をサポートしており、SAML2セキュリティ統合で対応するURLを使用できます。 クエリプロファイルを確認した後、プロファイルがデータ流出を示している場合、このクエリのパフォーマンスを最大化するために推奨されるアプローチは何ですか? テーブルのクラスタリングを有効にする ウェアハウスのサイズを大きくする CTEを削除するようにクエリを書き直します。 マルチクラスタの仮想ウェアハウスに切り替える 説明プロファイルでデータ流出が確認された場合に、このクエリのパフォーマンスを最大化するために推奨される方法は、ウェアハウスのサイズを大きくすることです。データ流出は、クエリがウェアハウスが提供できる以上のメモリを必要とし、一部の中間結果をディスクに流出させなければならない場合に発生します。これはディスクIO時間を増加させ、クエリのパフォーマンスを低下させます。NO.26SnowparkのPythonパッケージの特徴は何ですか?(3つ選択してください).サードパーティのパッケージは、session, import ()メソッドを使用してSnowparkセッションの依存関係として登録できます。 Python パッケージは、任意の外部エンドポイントにアクセスできます。 Pythonパッケージはローカル環境でのみ読み込むことができます。 サードパーティがサポートする Python パッケージは、ヒットしないようにロックされています。 SQLコマンドDESCRIBE FUNCTIONは、Pythonユーザー定義関数(UDF)のインポートされたPythonパッケージを一覧表示します。 information__schema .packages をクエリすると、サポートされている Python パッケージとバージョンのリストが表示されます。 説明Snowpark Pythonパッケージの特性は次のとおりです。session.import()メソッドを使用して、サードパーティのパッケージをSnowparkセッションの依存関係として登録できます。SQLコマンドのDESCRIBE FUNCTIONを実行すると、Python User-Defined Function(UDF)のインポートされたPythonパッケージのリストが表示されます。information_schema.packagesをクエリすると、サポートされているPythonパッケージとバージョンのリストが表示されます。これらの特性は、SnowflakeでSnowpark Pythonパッケージをどのようにインポート、検査、検証できるかを示しています。他のオプションは Snowpark Python パッケージの特性ではありません。オプション B は、Snowpark を使用してローカル環境とリモート環境の両方で Python パッケージをロードできるため、間違っています。サードパーティがサポートする Python パッケージは、外部のエンドポイントをヒットしないようにロックされているのではなく、ネットワークポリシーとセキュリティ設定によって制限されているため、オプション C は正しくありません。 <table> コマンドを使用してファイルから Snowflake テーブルにデータをロードできますか? 半構造化ファイル形式(JSON、Avroなど)によるファイルのデータロードでは、サポートされる文字セットはUTF-16のみです。 サポートされているすべての半構造化ファイル形式(JSON、Avroなど)からデータをロードする場合、およびデータをアンロードする場合、サポートされている文字セットはUTF-8のみです。 ローカル環境では、ファイルはまず内部(Snowflake)ステージにコピー(「ステージング」)され、その後テーブルにロードされます。 UTF-32とUTF-16の両方のエンコーディング文字セットは、非限定ファイル(CSV、TSVなど)からのデータロードに対応しています。 説明区切りファイル(CSV、TSVなど)のデータ・ロードでは、デフォルトの文字コードはUTF-8です。その他の文字セットを使用するには、ロードに使用するエンコーディングを明示的に指定する必要があります。半構造化ファイル形式(JSON、Avroなど)では、サポートされている文字セットはUTF-8のみです。NO.28 作成したスキーマの1つで、内部ステージを作成する必要があります。[該当するものをすべて選択してください] ユーザ・ステージはテーブル・ステージと同様に変更または削除できます。 テーブル・ステージ・タイプは、1人または複数のユーザーによってステージングおよび管理されるが、1つのテーブルにのみロードされるファイルを保存するように設計されています。 名前付き内部ステージ・タイプは、1人または複数のユーザーによってステージングおよび管理され、1つまたは複数のテーブルにロードされるファイルを保存できます。 テーブルステージは、Snowflakeで作成された各テーブルで使用できます。 説明ステージは、ファイル内のデータをテーブルにロードできるように、データファイルが格納される(つまり「ステージング」される)場所を指定します。内部ステージの種類ユーザーステージテーブルステージ名前付きステージデフォルトでは、Snowflakeの各ユーザーとテーブルには、ロードするデータファイルをステージングするための内部ステージが自動的に割り当てられます。また、名前付き内部ステージを作成することもできます。ファイルステージング情報は、データロードプロセスの両方のステップで必要となります。ファイルをSnowflakeにアップロードする場合、PUTコマンドで内部ステージを指定する必要があります。 <table> 特定のデータファイルに最適なステージのタイプを検討してください。各オプションには利点と潜在的な欠点があります。ユーザステージ各ユーザには、デフォルトでファイルを格納するためのSnowflakeステージが割り当てられています。このステージは、ファイルが単一のユーザによってのみアクセスされるが、複数のテーブルにコピーされる必要がある場合に便利なオプションです。ユーザ・ステージには以下の特性と制限があります:ユーザ・ステージは@~を使用して参照されます。代わりに、COPY INTO <table> テーブルステージ各テーブルには、デフォルトでファイルを格納するためのSnowflakeステージが割り当てられています。このステージは、ファイルが複数のユーザからアクセス可能である必要があり、単一のテーブルにのみコピーする必要がある場合に便利なオプションです。テーブルステージには以下の特性と制限があります。テーブルステージは別のデータベースオブジェクトではなく、テーブル自体に結びついた暗黙的なステージであることに注意してください。テーブルステージはそれ自身には付与可能な権限を持ちません。このオプションは、ファイル内