AWS Certified Data Analytics - Specialty (DAS-C01)

AWS Certified Data Analytics - Specialty (DAS-C01) 更新于今天
  • 查看第 1 至第 32 页.
  • 查看第 1-5 至第 160 道题
Disclaimers:
  • - ExamTopics website is not related to, affiliated with, endorsed or authorized by Amazon.and Azure
  • - Trademarks, certification & product names are used for reference only and belong to Amazon.and Azure

Topic 1 - Exam A

Question #1 Topic 1

一家抵押公司有一个用于接收付款的微服务。此微服务使用AWS KMS管理的密钥的Amazon DynamoDB加密客户端对敏感数据进行加密,然后在将数据写入DynamoDB之前进行加密。财务团队应该能够将此数据加载到Amazon Redshift中,并对敏感字段内的值进行汇总。Amazon Redshift集群与来自不同业务单位的數據分析师共享。那么,数据分析师应该采取哪些步骤来高效且安全地完成此任务呢?

  • A 创建一个AWS Lambda函数来处理DynamoDB流。使用相同的KMS密钥对敏感数据进行解密。将处理后的输出保存到一个受限制的S3存储桶中,供财务团队使用。在Amazon Redshift中创建一个仅允许财务团队访问的财务表。使用COPY命令将数据从Amazon S3加载到财务表中。
  • B 创建一个AWS Lambda函数来处理DynamoDB流。将输出保存到一个仅金融团队可访问的受限制的S3存储桶中。在Amazon Redshift中创建一个只允许金融团队访问的财务表。使用具有访问KMS密钥的IAM角色的COPY命令将数据从S3加载到财务表中。
  • C 创建一个具有EMR_EC2_DefaultRole角色的Amazon EMR集群,该角色具有访问KMS密钥的权限。创建引用DynamoDB中存储的数据和Amazon Redshift中的财务表的Apache Hive表。在Hive中,从DynamoDB中选择数据,然后将输出插入到Amazon Redshift中的财务表中。
  • D 创建一个亚马逊EMR集群。创建参考DynamoDB中存储数据的Apache Hive表。将输出插入到受限制的亚马逊S3存储桶中,供金融团队使用具有访问KMS密钥的IAM角色加载数据到亚马逊Redshift中的财务表。
正确答案: A
解析: 数据分析师应该创建一个AWS Lambda函数来处理DynamoDB流。该函数应该使用相同的KMS密钥解密敏感数据,并将输出保存到一个供财务团队使用的受限S3存储桶中。然后,分析师应该创建一个只有财务团队可以访问的金融表在Amazon Redshift中。最后,使用复制命令将数据从Amazon S3加载到财务表中。
Question #2 Topic 1

一家公司已经开发了一个Apache Hive脚本来批处理来自亚马逊S3的数据。脚本需要每天运行一次并将输出存储在亚马逊S3中。该公司测试了脚本,并发现它在小型本地三节点集群上仅用30分钟就完成了。那么,执行此脚本的最经济的方法是什么?

  • A 创建一个AWS Lambda函数,使用Hive执行步骤启动Amazon EMR集群。将KeepJobFlowAliveWhenNoSteps设置为false,并禁用终止保护标志。使用Amazon CloudWatch Events安排Lambda函数每天运行。
  • B 使用AWS管理控制台创建一个Amazon EMR集群,使用Python Hue和Apache Oozie。将终止保护标志设置为true,并为集群的核心节点sound使用Spot实例。在集群中配置一个Oozie工作流,每天调用Hive脚本。
  • C 在AWS Glue中创建一个使用Hive脚本执行批操作的Glue工作负载。使用基于时间的计划配置工作负载以每天运行一次。
  • D 使用AWS Lambda层并加载Hive运行时到AWS Lambda,并复制Hive脚本。通过创建AWS Step Functions工作流程来安排Lambda函数每天运行。
正确答案: A
解析: 最具成本效益的解决方案是创建一个AWS Lambda函数来安排和执行脚本。这个选项消除了EMR集群和相关成本的需要。通过使用Lambda,可以直接运行脚本,而不必管理一个集群的开销。
Question #3 Topic 1

一家公司在其Amazon Redshift数据仓库中分析其数据,目前该仓库有一个集群,其中包括一举三得存储节点。由于最近的一笔业务收购ellectual property,这家公司需要将另外4TB的用户数据加载到Amazon Redshift中。工程团队将所有用户数据合并并应用复杂的计算,这需要I/O密集资源。公司需要调整集群的容量来支持分析和服务器需求的变化。这个解决方案符合这些要求吗?

  • A 使用弹性伸缩与密集计算节点缩放集群8
  • B 使用经典的分层计算节点进行缩放。
  • C 使用弹性缩放和密集存储节点来调整集群大小。
  • D 使用经典分层存储节点进行集群调整。
正确答案: C
解析: 公司需要调整集群的容量以支持分析和存储需求的变化。由于工程团队将应用需要I/O密集型资源的复杂计算,因此使用密集存储节点进行弹性调整更为合适。
Question #4 Topic 1

一家电信公司正在寻找一个异常检测解决方案来识别欺诈电话。目前,该公司使用Amazon Kinesis将自有的数据库中的语音通话记录以JSON格式流式传输到Amazon S3。现有数据集中有200个列。为了检测欺诈电话,解决方案需要只关注这5个列。公司希望使用AWS实现一个成本效益高的解决方案,该解决方案需要最小的努力和经验。哪个解决方案符合这些要求?

  • A 使用 AWS Glue 作业将 JSON 数据转换为 Apache Parquet 格式。使用 AWS Glue 爬虫发现模式并构建 AWS Glue 数据目录。使用 Amazon Athena 创建一个包含部分列的表。使用 Amazon QuickSight 视觉化数据,然后使用 Amazon QuickSight 机器学习驱动的异常检测。
  • B 使用Kinesis Data Firehose在Kinesis上检测异常,通过运行SQL查询来计算所有拨打电话的异常得分,日和Amazon RDS将结果存储在这些存储桶中。使用Amazon Athena在Amazon RDS上构建数据集,并使用Amazon QuickSight来可视化结果。
  • C 使用AWS Glue工作负载将JSON数据转换为Apache Parquet格式。使用AWS Glue爬虫来发现数据模式并构建AWS Glue数据目录。使用Amazon SageMaker构建一个可以检测亚马逊S3中的欺诈性电话的异常检测模型。
  • D 使用Kinesis Data Analytics在Kinesis中检测异常,通过运行SQL查询计算所有拨叫的异常得分。将Amazon QuickSight与Kinesis Data Analytics连接起来以查看异常得分。
正确答案: C
解析: C
Question #5 Topic 1

一家公司使用Amazon Kinesis SDK将数据写入Kinesis Data Streams。合规要求规定,在将数据写入Kinesis Data Streams时,必须使用可以旋转的密钥对数据进行加密。这家公司希望以最小的编码努力满足这些加密要求。如何实现这些要求?

  • A 在AWS KMS中创建一个客户主密钥(CMK),并为CMK分配别名。使用AWS加密SDK,并提供密钥别名以加密和解密数据。
  • B 在AWS KMS中创建一个客户主密钥(CMK)。 为CMK分配别名。 使用CMK别名作为KMS主密钥启用服务器端加密Kinesis数据流。
  • C 在AWS KMS中创建一个客户主密钥(CMK)。创建一个AWS Lambda函数来加密和解密数据。将KMS密钥ID设置为函数的环境变量中。
  • D 在Kinesis数据流上使用Kinesis Data Streams默认的KMS密钥进行服务器端加密。
正确答案: B
解析: 要满足这些要求,可以通过在AWS KMS中创建客户主密钥(CMK),给CMK分配一个别名,并使用CMK别名作为KMS主密钥,在Kinesis数据流上启用服务器端加密。这种方法确保数据在静止状态下使用可以轻松旋转的密钥进行加密。