一家公司正在 AWS 上开发一种新的机器学习 (ML) 模型解决方案。模型是开发为独立的微服务,可从中获取大约 1GB 的模型数据Amazon S3 在启动时将数据加载到内存中 用户通过异步 API 用户可以发送一个请求或一批请求并指定结果的位置应该发送该公司为数百名用户提供模型。模型的使用模式是不规律的。某些型号可能会数天或数周未使用其他型号可能会收到批量一次有数千个请求.解决方案架构师应该推荐哪种设计来满足这些要求?

发布于 2021-04-24 01:49:46
【多选题】
A 将来自 API 的请求定向到网络负载均衡器 (NLB) 将模型部署为 AWSNLB 调用的 Lambda 函数。
B 将来自 API 的请求定向到应用程序负载均衡器 (ALB)。将模型部署为从 Amazon Simple 读取的 Amazon Elastic Container Service (Amazon ECS) 服务Queue Service (Amazon SQS) queue 使用 AWS App Mesh 扩展 ECS 的实例基于 SQS 队列大小的集群
C 将来自 API 的请求定向到 Amazon Simple Queue Service (Amazon SQS) 队列将模型部署为由 SQS 事件调用的 AWS Lambda 函数 使用 AWS Auto根据 SQS 队列大小进行扩展以增加 Lambda 函数的 vCPU 数量
D 将来自 API 的请求定向到 Amazon Simple Queue Service (Amazon SQS) 队列将模型部署为 Amazon Elastic Container Service (Amazon ECS) 服务,从队列 在 Amazon ECS 上为集群和副本启用 AWS Auto Scaling基于队列大小的服务

查看更多

关注者
0
被浏览
159
  • 体验AI问答!更聪明、超智能!
  • 一款基于GPT的超级AI助手,可以对话、创作、写文案!
1 个回答

撰写答案

请登录后再发布答案,点击登录

发布
问题

手机
浏览

扫码手机浏览

分享
好友

在线
客服