AWS Certified Solutions Architect Associate(SAA C03)

AWS Certified Solutions Architect Associate(SAA C03) 更新于今天
  • 查看第 10 至第 198 页.
  • 查看第 46-50 至第 990 道题
Disclaimers:
  • - ExamTopics website is not related to, affiliated with, endorsed or authorized by Amazon.and Azure
  • - Trademarks, certification & product names are used for reference only and belong to Amazon.and Azure

Topic 1 - Exam A

Question #46 Topic 1

一家公司的应用程序在专有网络中的AmazonEC2实例上运行。其中一个应用程序需要调用AmazonS3 API来存储和读取对象。根据该公司的安全规定,应用程序的流量不允许在互联网上传播。哪种解决方案能够满足这些要求?

  • A 配置S3网关端点。
  • B 在专用子网中创建一个S3存储桶。
  • C 在与EC2实例相同的AWS区域中创建一个S3 bucket。
  • D 在与EC2实例相同的子网中配置NAT网关。
正确答案: A
解析: 正确答案是:A
解释:在VPC中配置S3网关端点可以使应用程序直接连接到Amazon S3,而无需离开Amazon网络,从而满足公司的安全规定,即不允许流量在互联网上流动。
Question #47 Topic 1

一家公司运行一个由MySQL数据库提供支持的本地应用程序。该公司正在将应用程序迁移到AWS,以提高应用程序的弹性和可用性。当前体系结构显示在正常操作期间数据库上有大量读取活动。每4个小时,公司的开发团队就会提取一个生产数据库的完整导出,以填充临时环境中的数据库。在此期间,用户会遇到无法接受的应用程序延迟。在过程完成之前,开发团队无法使用暂存环境。解决方案架构师必须推荐能够缓解应用程序延迟问题的替代体系结构。替换体系结构还必须使开发团队能够毫不拖延地继续使用阶段环境。哪种解决方案符合这些要求?

  • A 使用Amazon Aurora MySQL和Multi-AZ Aurora Replicas进行生产。通过实现使用mysqldump实用程序的备份和恢复过程来填充临时数据库。
  • B 使用Amazon Aurora MySQL和Multi-AZ Aurora Replicas进行生产。使用数据库克隆按需创建临时数据库。
  • C 将Amazon RDS for MySQL与Multi-AZ部署一起使用,并读取用于生产的副本。使用临时数据库的备用实例。
  • D 将Amazon RDS for MySQL与Multi-AZ部署一起使用,并读取用于生产的副本。通过实现使用mysqldump实用程序的备份和恢复过程来填充临时数据库。
正确答案: B
解析: 正确答案是:B
解释:答案:B. 解释:Amazon Aurora MySQL与Multi-AZ Aurora复制配合使用,可以提高应用程序的弹性和可用性。此外,数据库克隆技术可以让待处理数据库立即创建,而不影响正常操作或导致使用待处理环境的延迟,这将解决用户在每4小时全数据库出口被拉取时所遭遇的应用程序延迟问题。通过实施这种解决方案架构,开发团队将能够继续使用待处理环境,而不会遇到任何服务中断或延迟。
Question #48 Topic 1

一家调查公司多年来一直在收集美国各地区的数据。该公司将数据托管在亚马逊S3存储桶中,该存储桶的大小为3 TB,而且还在不断增长。该公司已开始与一家拥有S3存储桶的欧洲营销公司共享数据。该公司希望确保其数据传输成本保持在尽可能低的水平。哪种解决方案能够满足这些要求?

  • A 在公司的S3存储桶上配置Requester Pays功能。
  • B 将S3跨区域复制从公司的S3存储桶配置到营销公司的一个S3存储桶。
  • C 为营销公司配置跨帐户访问权限,以便营销公司可以访问公司的S3存储桶。
  • D 将公司的S3存储桶配置为使用S3智能分层。将S3存储桶同步到营销公司的一个S3存储桶。
正确答案: B
解析: -
Question #49 Topic 1

公司需要为其应用程序配置实时数据接收架构。该公司需要一个API,一个在数据流传输时转换数据的过程,以及一个数据存储解决方案。哪种解决方案将以最少的运营开销满足这些要求?

  • A 部署Amazon EC2实例以托管一个API,该API将数据发送到Amazon Kinesis数据流。创建一个使用Kinesis数据流作为数据源的Amazon Kinesis Data Firehose交付流。使用AWS Lambda函数转换数据。使用Kinesis Data Firehose传输流将数据发送到Amazon S3。
  • B 部署一个Amazon EC2实例来托管一个向AWS Glue发送数据的API。停止对EC2实例进行源/目标检查。使用AWS Glue转换数据并将数据发送到Amazon S3。
  • C 配置Amazon API网关API以向Amazon Kinesis数据流发送数据。创建一个使用Kinesis数据流作为数据源的Amazon Kinesis Data Firehose交付流。使用AWS Lambda函数转换数据。使用Kinesis Data Firehose传输流将数据发送到Amazon S3。
  • D 配置Amazon API网关API以向AWS Glue发送数据。使用AWS Lambda函数转换数据。使用AWS Glue将数据发送到Amazon S3。
正确答案: C
解析: 正确答案是:C
解释:此解决方案使用AWS集成服务满足问题中指定的所有要求。Amazon API Gateway API可以用于接收实时数据,Amazon Kinesis数据流将执行实时处理。 Lambda函数是无服务器的,提供了一种事件驱动的计算服务,使能运行代码并自动缩放。Amazon S3将用作存储解决方案,以存储数据。
Question #50 Topic 1

公司需要将用户交易数据保存在AmazonDynamoDB表中。公司必须将数据保留7年。满足这些要求的MOST操作效率解决方案是什么?

  • A 使用DynamoDB时间点恢复来连续备份表。
  • B 使用AWS Backup为表创建备份计划和保留策略。
  • C 使用DynamoDB控制台创建表的按需备份。将备份存储在AmazonS3存储桶中。为S3存储桶设置S3生命周期配置。
  • D 创建一个Amazon EventBridge(Amazon CloudWatch Events)规则来调用AWS Lambda函数。配置Lambda函数以备份表并将备份存储在AmazonS3存储桶中。为S3存储桶设置S3生命周期配置。
正确答案: B
解析: 正确答案是:B
解释:AWS Backup是一种完全托管的备份服务,可以轻松地跨AWS服务集中和自动化数据备份。在这种情况下,我们可以使用它自动备份DynamoDB表,并设置保留策略以保留数据7年。它减轻了编写自定义脚本和手动干预的负担,因此是最高效的操作解决方案。