AWS 宣布针对 Amazon EC2 的九项新计算和网络创新
西雅图--今天在 AWS re:Invent 大会上,Amazon.com 旗下公司(纳斯达克股票代码:AMZN)亚马逊网络服务公司 (AWS) 宣布了九项新的亚马逊弹性计算云 (EC2) 创新。 AWS 已经拥有比任何其他云提供商更多的计算和网络功能,包括最强大的 GPU 实例、最快的处理器以及唯一具有 100 Gbps 标准实例连接的云。今天,AWS 为其行业领先的计算和网络创新增添了新的基于 Arm 的实例(M6g、C6g、R6g),这些实例由 AWS 设计的 Graviton2 处理器提供支持,机器学习推理实例 (Inf1) 由 AWS 设计的 Inferentia 芯片提供支持,一项新的 Amazon EC2 功能,该功能使用机器学习来优化 Amazon EC2 的使用成本和性能,并通过网络增强功能让客户更轻松地在 AWS 中扩展、保护和管理他们的工作负载。
AWS 宣布针对 Amazon EC2 的新计算和网络创新
基于 Arm 的新版本 Amazon EC2 M、R 和 C 实例系列,由 AWS 设计的新 AWS Graviton2 处理器提供支持,与基于 x86 的同类实例相比,性价比提高了 40%
自一年前推出以来,基于 Arm 的 Amazon EC2 A1 实例(由 AWS 的第一版 Graviton 芯片提供支持)通过运行容器化微服务和 Web 层应用程序等横向扩展工作负载,为客户节省了大量成本。基于节省的成本,再加上更广泛的操作系统供应商 (OSV) 和独立软件供应商 (ISV) 生态系统对 Arm 越来越多且显着的支持,客户现在希望能够在 AWS Graviton 上运行具有不同特征的要求更高的工作负载基于实例,包括计算量大的数据分析和内存密集型数据存储。这些多样化的工作负载需要 A1 实例所支持的功能之外的增强功能,例如更快的处理速度、更高的内存容量、增加的网络带宽和更大的实例大小。
基于 Arm 的 Amazon EC2 M、R 和 C 实例系列的新版本由 AWS 设计的新 Graviton2 处理器提供支持,与当前基于 x86 处理器的 M5、R5 和 C5 实例相比,可提供高达 40% 的性价比广泛的工作负载,包括高性能计算、机器学习、应用服务器、视频编码、微服务、开源数据库和内存缓存。这些基于 Arm 的新实例由 AWS Nitro System 提供支持,该系统是一系列自定义 AWS 硬件和软件创新,可通过隔离的多租户、私有网络和快速本地存储交付高效、灵活和安全的云服务,以减少客户在使用 AWS 时的花费和工作量。与第一代相比,AWS Graviton2 处理器引入了多项新的性能优化。 AWS Graviton2 处理器使用 AWS 设计的 64 位 Arm Neoverse 内核和定制芯片,采用先进的 7 纳米制造技术构建。 AWS Graviton2 处理器针对云原生应用程序进行了优化,可为科学和高性能计算工作负载提供 2 倍更快的每核浮点性能,优化指令以加快机器学习推理速度,并为压缩工作负载提供自定义硬件加速。 AWS Graviton2 处理器还提供永远在线的完全加密的 DDR4 内存,每核加密性能提高 50%,以进一步增强安全性。 AWS Graviton2 支持的实例提供多达 64 个 vCPU、25 Gbps 的增强网络和 18 Gbps 的 EBS 带宽。客户还可以为所有新实例类型选择 NVMe SSD 本地实例存储变体(C6gd、M6gd 和 R6gd)或裸机选项。多个开源软件发行版(Amazon Linux 2、Ubuntu、Red Hat Enterprise Linux、SUSE Linux Enterprise Server、Fedora、Debian、FreeBSD 以及 OpenJDK 的 Amazon Corretto 发行版)、容器服务(Docker桌面、Amazon ECS、Amazon EKS)、代理(Amazon CloudWatch、AWS Systems Manager、Amazon Inspector)和开发人员工具(AWS Code Suite、Jenkins)。 Amazon Elastic Load Balancing、Amazon ElastiCache 和 Amazon Elastic Map Reduce 等 AWS 服务已经对 AWS Graviton2 实例进行了测试,发现它们具有卓越的性价比,并计划在 2020 年将它们投入生产。M6g 实例今天提供预览版. C6g、C6gd、M6gd、R6g 和 R6gd 实例将在未来几个月内推出。要了解有关 AWS Graviton2 支持的实例的更多信息,请访问:。
由 AWS Inferentia 芯片提供支持的 Amazon EC2 Inf1 实例在云中提供高性能和最低成本的机器学习推理
不同行业的客户正在转向机器学习来解决常见用例(例如个性化购物推荐、金融交易中的欺诈检测、增加客户与聊天机器人的互动等)。这些客户中的许多客户正在将他们对机器学习的使用从运行实验发展到扩大生产机器学习工作负载,而性能和效率确实很重要。客户希望他们的机器学习应用程序具有高性能,以提供最佳的最终用户体验。虽然培训理所当然地受到了很多关注,但推理实际上占了在生产中运行机器学习的大部分复杂性和成本(在培训上花费的每一美元,多达九美元用于推理),这可能会限制更广泛的使用和阻碍客户创新。此外,一些实时机器学习应用程序对推理的执行速度(延迟)很敏感,而其他批处理工作负载需要针对每秒可以处理多少推理(吞吐量)进行优化,这需要客户在优化的处理器之间进行选择延迟或吞吐量。
借助 Amazon EC2 Inf1 实例,客户可以在云中获得高性能和最低成本的机器学习推理,并且在生产中运行大型机器学习模型时不再需要在优化延迟或吞吐量之间进行次优权衡。 Amazon EC2 Inf1 实例采用 AWS Inferentia,这是一种由 AWS 设计的高性能机器学习推理芯片。 AWS Inferentia 为极具成本效益的实时和批量推理应用程序提供非常高的吞吐量、低延迟和持续的性能。 AWS Inferentia 为多个框架(包括 TensorFlow、PyTorch 和 Apache MXNet)和多种数据类型(包括INT-8 和混合精度 FP-16 和 bfloat16)。 Amazon EC2 Inf1 实例基于 AWS Nitro 系统构建,该系统是一系列自定义 AWS 硬件和软件创新,能够通过隔离的多租户、私有网络和快速本地存储交付高效、灵活和安全的云服务,以减少客户在使用 AWS 时的花费和努力。与 Amazon EC2 G4 实例系列相比,Amazon EC2 Inf1 实例提供低推理延迟、最高 3 倍的推理吞吐量和最高 40% 的每次推理成本,后者已经是云中可用的机器学习推理成本最低的实例.使用 Amazon EC2 Inf1 实例,客户可以运行大规模机器学习推理,以在云中以最低成本执行图像识别、语音识别、自然语言处理、个性化和欺诈检测等任务。 Amazon EC2 Inf1 实例可以使用 AWS Deep Learning AMI 进行部署,并将通过 Amazon SageMaker、Amazon Elastic Containers Service (ECS) 和 Amazon Elastic Kubernetes Service (EKS) 等托管服务提供。要开始使用 Amazon EC2 Inf1 实例,请访问:。
AWS Compute Optimizer 使用机器学习驱动的实例推荐引擎来轻松选择正确的计算资源
为工作负载选择正确的计算资源是一项重要任务。过度供应资源可能会导致不必要的成本,而供应不足可能会导致性能不佳。直到今天,为了优化 Amazon EC2 资源的使用,客户已经分配系统工程师来分析资源利用率和性能数据,或者投资资源以在各种工作负载上运行应用程序模拟。而且,随着应用程序和使用模式的变化、新应用程序投入生产以及新硬件平台的可用,资源选择过程必须重复进行,因此这项工作可能会随着时间的推移而增加。因此,客户有时会让他们的资源效率低下,为昂贵的第三方解决方案付费,或者自己构建优化解决方案来管理他们的 Amazon EC2 使用。
AWS Compute Optimizer 提供直观且易于操作的 AWS 资源建议,因此客户可以为其工作负载确定最佳的 Amazon EC2 实例类型,包括属于 Auto Scaling 组的实例类型,而无需专业知识或投入大量时间和金钱。 AWS Compute Optimizer 分析工作负载的配置和资源利用率,以确定数十个定义特征(例如,工作负载是否是 CPU 密集型的,或者是否表现出日常模式)。 AWS Compute Optimizer 使用 AWS 构建的机器学习算法来分析这些特征并确定工作负载所需的硬件资源空间。然后,AWS Compute Optimizer 推断工作负载将如何在各种 Amazon EC2 实例上执行,并为该特定工作负载的最佳 AWS 计算资源提出建议。客户只需在 AWS 管理控制台中单击几下即可激活 AWS Compute Optimizer。激活后,AWS Compute Optimizer 立即开始分析正在运行的 AWS 资源,观察它们的配置和 Amazon CloudWatch 指标历史记录,并根据它们的特征生成建议。要开始使用 AWS Compute Optimizer,请访问 。
新的 AWS Transit Gateway 功能增加了对 IP 多播协议的原生支持,让创建和监控可扩展的全球网络变得更加容易
AWS Transit Gateway 是一个网络中心,使客户能够轻松扩展和管理 Amazon Virtual Private Cloud (VPC) 与客户的本地数据中心之间以及 AWS 区域内数千个 VPC 之间的连接。今天,AWS 为 AWS Transit Gateway 添加了五项新的网络功能,可简化全球私有网络的管理并在云中启用多播工作负载:
Amazon VPC Ingress Routing 帮助客户轻松地将 3 rd方网络和安全设备集成到他们的网络中
当企业迁移到 AWS 时,他们通常希望将他们在本地数据中心使用多年的网络或安全设备作为虚拟设备带到云中。虽然今天的 AWS Marketplace 在云市场中提供最广泛的网络和安全虚拟设备选择,但客户缺乏通过这些设备轻松路由进入 Amazon VPC 的流量的灵活性。借助 Amazon VPC 入口路由,客户现在可以将路由表与 Internet 网关 (IGW) 和虚拟私有网关 (VGW) 相关联,并定义路由以将传入和传出 VPC 流量重定向到第三方设备。这使客户可以更轻松地在入站和出站流量的路由路径中集成满足其网络和安全需求的虚拟设备。只需单击几下或 API 调用即可配置此功能,使客户可以轻松地在其网络中部署网络和安全设备,而无需创建无法扩展的复杂变通方案。目前支持 Amazon VPC Ingress Routing 的虚拟设备合作伙伴包括 128 Technology、Aviatrix、Barracuda、Check Point、Cisco、Citrix Systems、FireEye、Fortinet、Forcepoint、HashiCorp、IBM Security、Lastline、NETSCOUT Systems、Palo Alto Networks、ShieldX Networks、 Sophos、趋势科技、Valtix、Vectra 和 Versa Networks。“客户知道,AWS 已经在 Amazon EC2 中提供了比任何其他云提供商更广泛和更深入的功能。他们还告诉我们,这种广度和深度带来了巨大的好处,因为他们在云中运行越来越多样化的工作负载,每个工作负载都有自己的特点和需求,”AWS 计算服务副总裁 Matt Garman 说。 “随着他们希望将越来越多的工作负载带到云中,AWS 继续扩展我们的产品,为他们提供更好的性能和更低的价格。今天的新计算和网络功能表明,AWS 致力于代表我们客户的多样化需求在 Amazon EC2 上进行创新。”
Netflix 是世界领先的互联网娱乐服务公司,在 190 个国家/地区拥有 1.58 亿会员,享受各种类型和语言的电视剧、纪录片和故事片。 “我们将 Amazon EC2 M 实例类型用于许多工作负载,包括我们的流式传输、编码、数据处理和监控应用程序,”Netflix 性能和操作系统总监 Ed Hunter 说。 “我们使用行业标准 LMbench 和某些 Java 基准测试了新的 M6g 实例,发现比 M5 实例提高了 50%。我们很高兴推出基于 AWS Graviton2 的 Amazon EC2 实例。”
尼尔森是一家全球性的测量和数据分析公司,为全球消费者和市场提供最完整、最值得信赖的视图。 “我们基于 OpenJDK 的 Java 应用程序用于收集数字数据、处理传入的 Web 请求以及根据业务需求重定向请求。该应用程序是 I/O 密集型应用程序,以具有成本效益的方式横向扩展是一项关键要求,”尼尔森数字高级副总裁 Chris Nicotra 说。 “我们将这个 Java 应用程序无缝传输到由 AWS Graviton 处理器提供支持的 Amazon EC2 A1 实例。我们已经测试了新的基于 Graviton2 的 M6g 实例,它能够处理两倍于 A1 的负载。我们期待在基于 Graviton2 的新实例上运行更多工作负载。”
Datadog 是云时代开发人员、运营和业务用户的监控和分析平台。 Datadog 产品和社区副总裁 Ilan Rabinovitch 表示:“我们很高兴看到 AWS 继续投资 Graviton 处理器以及 Arm 生态系统背后的巨大发展势头。” “我们很高兴地宣布,适用于 Graviton / Arm 的 Datadog 代理现已全面上市。客户现在可以在 Datadog 中轻松监控这些基于 Graviton 的 Amazon EC2 实例以及其他基础设施的性能和可用性。”
西部数据是数据基础设施的领导者,推动了帮助客户捕获、保存、访问和转换日益多样化的数据所需的创新。 “在西部数据,我们在制造过程中使用机器学习和数字成像进行质量检查。在制造业和其他领域,随着我们从被动检测转向主动检测,机器学习应用程序的复杂性越来越高,”西部数据首席信息官 Steve Philpott 说。 “目前,我们在当前基于 CPU 的解决方案上可以处理的质量检测图像数量有限。我们期待使用 AWS EC2 Inf1 Inferentia 实例,并期望为此目的增加 Western Digital 的图像处理吞吐量,同时将处理时间减少到毫秒级。根据初步分析,我们希望能够每小时多次运行我们基于 ML 的检测模型,从而显着减少罕见事件的发生,并提高我们一流产品质量和可靠性的标准。”
全球已售出超过 1 亿台 Alexa 设备,客户还在亚马逊上为 Echo 设备留下了超过 400,000 条 5 星评价。 “Amazon Alexa 的基于 AI 和 ML 的智能由 Amazon Web Services 提供支持,如今可在超过 1 亿台设备上使用——我们对客户的承诺是,Alexa 将始终变得更智能、更具会话性、更主动,甚至更令人愉悦, ”亚马逊 Alexa 高级副总裁 Tom Taylor 说。 “实现这一承诺需要不断改进响应时间和机器学习基础设施成本,这就是为什么我们很高兴使用 Amazon EC2 Inf1 来降低 Alexa 文本到语音的推理延迟和每次推理成本。借助 Amazon EC2 Inf1,我们将能够为每月使用 Alexa 的数千万客户提供更好的服务。”
Nubank 是拉丁美洲最大的金融科技公司之一,为超过 1500 万客户提供广泛的消费金融产品。 “我们开发简单、安全和 100% 的数字解决方案,以帮助客户轻松管理他们的资金。为了支持我们平台上的数百万笔交易,我们在 Amazon EC2 上运行了数百个具有不同要求的应用程序。为了使我们的基础架构保持优化,我们专门设立了一个工程团队来持续监控和分析我们的 EC2 实例的利用率,”Nubank 工程总监 Renan Capaverde 说。 “借助 AWS Compute Optimizer,我们将拥有一个单一的管理平台来为我们的 AWS 环境中的工作负载确定最佳的 EC2 实例类型。可视化各种实例类型的预计资源利用率的能力将使我们能够在更新车队之前做出更明智的决策。”
日本交易所集团 (JPX) 经营金融工具交易市场,为市场用户提供交易上市证券和衍生工具的可靠场所。 Japan Exchange Group, Inc. 高级执行官兼首席信息官 Ryusuke Yokoyama 表示:“我们很高兴在 AWS Transit Gateway 上推出 IP 多播功能。作为市场运营商,提高便利性和可访问性是我们的首要任务日本的市场参与者。我们广泛使用多播来分发市场数据。 AWS 中多播支持的可用性将使我们能够采用云原生数据分发,改善用户体验,同时为市场参与者提供更轻松的访问。”
关于亚马逊网络服务
13 年来,Amazon Web Services 一直是世界上最全面、应用最广泛的云平台。 AWS 为计算、存储、数据库、网络、分析、机器人、机器学习和人工智能 (AI)、物联网 (IoT)、移动、安全、混合、虚拟和增强现实(VR 和 AR)提供超过 165 项功能齐全的服务)、媒体和应用程序开发、部署和管理,来自 22 个地理区域内的 69 个可用区 (AZ),并宣布计划在印度尼西亚、意大利、南非和西班牙再增加 13 个可用区和 4 个 AWS 区域。数以百万计的客户(包括发展最快的初创公司、最大的企业和领先的政府机构)信任 AWS 来支持他们的基础设施、变得更加敏捷并降低成本。
关于亚马逊
亚马逊遵循四项原则:以客户为中心而非以竞争对手为中心、对发明的热情、对卓越运营的承诺以及长期思考。客户评论、一键购物、个性化推荐、Prime、亚马逊物流、AWS、Kindle Direct Publishing、Kindle、Fire 平板电脑、Fire TV、亚马逊 Echo 和 Alexa 是亚马逊率先推出的一些产品和服务。
特别声明:以上文章内容仅代表作者本人观点,不代表ESG跨境电商观点或立场。如有关于作品内容、版权或其它问题请于作品发表后的30日内与ESG跨境电商联系。
二维码加载中...
使用微信扫一扫登录
使用账号密码登录
平台顾问
微信扫一扫
马上联系在线顾问
小程序
ESG跨境小程序
手机入驻更便捷
返回顶部