AWS Certified Data Analytics - Specialty (DAS-C01)

AWS Certified Data Analytics - Specialty (DAS-C01) 更新于今天
  • 查看第 3 至第 32 页.
  • 查看第 11-15 至第 160 道题
Disclaimers:
  • - ExamTopics website is not related to, affiliated with, endorsed or authorized by Amazon.and Azure
  • - Trademarks, certification & product names are used for reference only and belong to Amazon.and Azure

Topic 1 - Exam A

Question #11 Topic 1

一家制造公司使用Amazon S3来存储其数据。该公司希望使用AWS Lake Formation在这些数据资产上提供细粒度级别的安全性。数据以Apache Parquet格式存储。公司已经设定了顾问在构建数据湖之前完成任务的最后期限。那么,顾问应该如何创建最具成本效益的解决方案,满足这些要求呢?

  • A 运行 Lake Formation 蓝图将亚马孙盆地数据移动到 Lake Formation。一旦 Lake Formation 拥有数据,在 Lake Formation 上应用权限。
  • B 要创建数据目录,使用AWS Glue爬虫对现有的Parquet数据进行操作。然后通过Lake Formation将Amazon S3路径注册,并应用通过Lambda函数和AWS Glue Data Catalog API设置的权限,实现细粒度级别的安全性。
  • C 在Amazon EC2实例上安装Apache Ranger并将其与Amazon EMR集成。使用Ranger策略为Amazon S3中的现有数据资产创建基于角色的访问控制。
  • D 为不同的用户和组创建多个IAM角色。将IAM角色分配给Amazon S3中的不同数据资产,以实现基于表和列的访问控制。
正确答案: B
解析: 顾问应该选择选项B,因为它是最符合要求且最具成本效益的解决方案。通过在现有的Parquet数据上运行AWS Glue爬虫,顾问可以创建数据目录并注册Amazon S3路径。然后,他们可以通过AWS Lake Formation应用权限,提供细粒度的安全性。
Question #12 Topic 1

一家能源公司从连接到建筑物上的传感器实时收集电压数据。该公司希望在同一建筑物突然电压增加后的10分钟内检测到序列两个电压下降时收到通知。所有通知都必须尽快交付。系统必须高度可用。公司需要一个解决方案,当这项监测功能在其他城市实施时,能够自动扩展。通知系统已订阅到Amazon Simple Notification Service(Amazon SNS)主题以进行修复。哪个解决方案能够满足这些要求?

  • A 创建一个elly Amazon Managed Streaming来 ingest数据到Apache Kafka集群。使用具有Apache Kafka消费者API的自动扩展Amazon EMR集群上的Apache Spark Streaming来处理传入的数据。使用Spark Streaming应用程序来检测已知的事件序列并发送SNS消息。
  • B 使用Amazon API Gateway在AWS Lambda函数前面创建一个基于REST的Web服务。创建一个Amazon RDS for PostgreSQL数据库,具有足够的预配IOPS来满足当前需求。配置Lambda函数将传入的事件存储在PostgreSQL数据库的RDS中,查询最新的数据以检测已知的事件序列,并发送SNS消息。
  • C 创建一个Amazon Kinesis Data Firehose推送流来捕获传入的传感器数据。使用AWS Lambda转换函数来检测已知的事件序列并发送SNS消息。
  • D 创建一个Amazon Kinesis数据流来捕获传入的传感器数据。创建另一个通知流。在两个流上设置AWS应用程序自动缩放。创建一个Amazon Kinesis Data Analytics for Java应用程序,以检测已知的事件序列,并将消息添加到消息流中。 创建一个Amazon Kinesis数据流来捕获传入的传感器数据。创建另一个通知流。在两个流上设置AWS应用程序自动缩放。创建一个Amazon Kinesis Data Analytics for Java应用程序,以检测已知的事件序列,并将消息添加到消息流中。
正确答案: D
解析: 选择D是最适合给定需求的解决方案。它使用Amazon Kinesis数据流和通知流来捕获和处理传感器数据。 AWS应用程序自动缩放可确保系统在其他城市实施时自动扩展。使用Amazon Kinesis数据分析来检测已知事件序列,并配置AWS Lambda函数将消息发布到SNS主题。
Question #13 Topic 1

一家公司想使用自动机器学习(ML)随机剪枝(RCF)算法来可视化复杂的现实场景,例如检测季节性和趋势,排除外部因素,填补缺失值。负责这个项目的团队是非技术人员,正在寻找一个超出预期的解决方案,该解决方案需要最少的管理开销。哪个解决方案能够满足这些要求?

  • A 使用AWS Glue ML转换来创建预测,然后使用Amazon QuickSight来可视化数据。
  • B 使用亚马逊快速见解来可视化数据,然后使用机器学习驱动的预测来预测关键业务指标。
  • C 使用AWS Marketplace预构建的ML AMI创建预测,然后使用Amazon QuickSight可视化数据。
  • D 使用计算字段创建新的预测,然后使用 Amazon QuickSight 进行数据可视ITE
正确答案: C
解析: 答案:C 解释:满足公司要求且需要管理开销最少的解决方案是使用AWS Marketplace中的预构建ML AMI创建预测,然后使用Amazon QuickSight可视化数据。该解决方案为非技术团队提供了开箱即用的解决方案,并最大程度地减少了手动管理的需求。
Question #14 Topic 1

一位数据架构师正在为一家银行构建Amazon S3数据湖。目标是提供一个客户数据需求的数据仓库,例如个性化推荐。银行使用Amazon Kinesis Data Firehose从事务关系数据库中实时摄入客户的个人信息银行账户和交易。银行要求存储在AWS云中的所有可识别个人身份信息(PII)都被遮盖。这个解决方案能够满足这些要求吗?

  • A 调用Kinesis Data Firehose中的AWS Lambda函数,在将数据传递到Amazon S3之前遮盖PII。
  • B 使用Amazon Made,并配置它以发现和隐藏PII。
  • C 在Amazon S3中启用服务器端加密(SSE)。
  • D 调用Kinesis Data Firehose从Amazon Comprehend中检测和隔离PII,然后在将数据传递到Amazon S3之前进行交付。
正确答案: A
解析: 答案是A。符合要求的解决方案是从Kinesis Data Firehose中调用AWS Lambda函数,以在将数据传送到Amazon S3之前对PII进行掩码。这样可以实现实时对个人身份信息进行掩码,并确保存储在S3数据湖中的数据得到保护。
Question #15 Topic 1

一家公司有一个业务单元,将.csv文件上传到亚马逊S3存储桶中。公司的数据平台团队已经设置了一个AWS Glue爬虫来进行发现、创建表和架构。AWS Glue工作负载将处理创建的表中的经过处理的数据显示到亚马逊Redshift数据库中。AWS Glue工作负载处理列映射并适当地创建Amazon Redshift表。在AWS Glue工作负载运行 reasons for re-running any day, duplicates are introduced into the Amazon Redshift表。 解决方案:在重新运行作业时,哪个解决方案可以更新Amazon Redshift表,而无需重复记录?

  • A 修改AWS Glue作业以将行复制到 staging 表中 low_cardinality_columns=* *:before_image=*:after_image=* stage_table_name=staging_table_name
  • B . 在AWS Glue作业中,将之前插入的数据加载到MySQL数据库中. 在MySQL中执行插入操作,并将结果复制到Amazon Redshift表中.
  • C 使用Apache Spark的DataFrame的dropDuplicates() API消除重复并将其写入Amazon Redshift。
  • D 使用AWS Glue内置的transform: ResolveChoice,选择列中的最最新值。
正确答案: B
解析: 在这种情况下,正确的解决方案是在AWS Glue作业中将先前插入的数据加载到一个MySQL数据库中,并在MySQL中执行upsert操作以更新Redshift表,避免重复值。