AWS Certified Machine Learning Specialty (MLS-C01)

AWS Certified Machine Learning Specialty (MLS-C01) 更新于今天
  • 查看第 7 至第 57 页.
  • 查看第 31-35 至第 285 道题
Disclaimers:
  • - ExamTopics website is not related to, affiliated with, endorsed or authorized by Amazon.and Azure
  • - Trademarks, certification & product names are used for reference only and belong to Amazon.and Azure

Topic 1 - Exam A

Question #31 Topic 1

一位机器学习专家正在公司专有网络的私有子网中使用Amazon SageMaker笔记本实例。ML专家将重要数据存储在Amazon SageMaker笔记本实例的Amazon EBS卷上,并需要拍摄该EBS卷的快照。但是,ML专家无法在VPC中找到Amazon SageMaker笔记本实例的EBS卷或Amazon EC2实例。为什么ML专家在VPC中看不到实例?

  • A Amazon SageMaker笔记本实例基于客户帐户内的EC2实例,但它们在VPC之外运行。
  • B Amazon SageMaker笔记本实例基于客户帐户内的Amazon ECS服务。
  • C Amazon SageMaker笔记本实例基于AWS服务帐户中运行的EC2实例。
  • D Amazon SageMaker笔记本实例基于AWS服务帐户内运行的AWS ECS实例。
正确答案: C
解析: 参考:https://docs.aws.amazon.com/sagemaker/latest/dg/gs-setup-working-env.html
Question #32 Topic 1

一家基于网络的公司希望提高其登录页面的转化率。该公司使用大量客户访问历史数据集,在Amazon SageMaker上反复训练了一种多类深度学习网络算法。然而,存在一个过度拟合的问题:训练数据显示预测的准确率为90%,而测试数据仅显示70%。在将其部署到生产中之前,该公司需要增强其模型的通用性,以最大限度地实现访问到购买的转换。建议采取哪种措施为公司的测试和验证数据提供最高精度模型?

  • A 增加训练中使用的小批量训练数据的随机化
  • B 将更高比例的总体数据分配给训练数据集
  • C 将L1或L2正规化和退学应用于培训
  • D 减少深度学习网络中的层和单元(或神经元)数量
正确答案: D
解析:
Question #33 Topic 1

机器学习专家必须使用AmazonAthena在AmazonS3上构建一个查询数据集的过程。该数据集包含80多万条以明文CSV文件形式存储的记录。每条记录包含200列,大小约为1.5 MB。大多数查询只能跨越5到10列。机器学习专家应该如何转换数据集以最小化查询运行时间?

  • A 将记录转换为Apache Parquet格式。
  • B 将记录转换为JSON格式。
  • C 将记录转换为GZIP CSV格式。
  • D 将记录转换为XML格式。
正确答案: A
解析: 使用压缩将减少AmazonAthena扫描的数据量,也会减少S3存储桶的存储量。这是AWS账单的双赢。支持的格式:GZIP、LZO、SNAPPY(Parquet)和ZLIB。参考:https://www.cloudforecast.io/blog/using-parquet-on-athena-to-save-money-on-aws/
Question #34 Topic 1

公司使用长期短期记忆(LSTM)模型来评估特定能源行业的风险因素。该模型审查多页文本文档,以分析文本的每一句,并将其分类为潜在风险或无风险。尽管数据科学家对许多不同的网络结构进行了实验,并调整了相应的超参数,但该模型的表现并不理想。哪种方法将提供最大的性能提升?

  • A 通过术语频率反向文档频率(TF-IDF)向量初始化单词,这些向量是在大量与能源部门相关的新闻文章集上预处理的。
  • B 使用门控循环单元(GRU)代替LSTM,并运行训练过程,直到验证损失停止减少。
  • C 降低学习率并运行培训过程,直到培训损失停止减少。
  • D 通过word2vec嵌入对大量与能源行业相关的新闻文章进行预处理,初始化单词。
正确答案: C
解析:
Question #35 Topic 1

一位机器学习专家正在开发包含多个ETL作业的日常ETL工作流。工作流由以下流程组成:*数据上传到AmazonS3后,立即启动工作流。*当AmazonS3中的所有数据集都可用时,启动ETL作业,将上传的数据集与已存储在Amazon中的多TB大小的数据集连接起来S3中。*将连接数据集的结果存储在AmazonS3中。*如果其中一个作业失败,请向管理员发送通知。哪种配置将满足这些要求?

  • A 使用AWS Lambda触发AWS Step Functions工作流,等待数据集上传在Amazon S3中完成。使用AWS Glue连接数据集。在发生故障时,使用Amazon CloudWatch警报向管理员发送SNS通知。
  • B 使用AWS Lambda开发ETL工作流以启动Amazon SageMaker笔记本实例。使用生命周期配置脚本加入数据集并将结果保存在AmazonS3中。在发生故障时,使用AmazonCloudWatch警报向管理员发送SNS通知。
  • C 使用AWS Batch开发ETL工作流,以在数据上传到Amazon S3时触发ETL作业的启动。使用AWS Glue连接Amazon S3中的数据集。在发生故障时,使用Amazon CloudWatch警报向管理员发送SNS通知。
  • D 一旦数据上传到Amazon S3,使用AWS Lambda链接其他Lambda函数以读取并加入Amazon S3中的数据集。如果出现故障,请使用Amazon CloudWatch警报向管理员发送SNS通知。
正确答案: A
解析: 参考:https://aws.amazon.com/step-functions/use-cases/