扩展 HPC 以做好迎接 5G、AI 和未来任何新技术的准备

在过去的十年里,我们看到技术发展比上一个十年迅速得多,就好比激流飞瀑比之涓涓细流。物联网中数目庞大的分布式系统催生了 5G 时代的新功能。这些连接的设备生成的大数据推动了有助于让分析自动进行的 AI 的兴起。

每一个渐进的发展都伴随着计算需求的增加。因此,各种类型和规模的数据驱动型组织发现他们需要高性能计算 (HPC) 平台。

我们来看一下对系统工程师的影响。

逐级走向边缘分析:5G 案例研究

我们看一下 5G 网络的需求。国际电信联盟 (ITU) 在 2017 年宣布,5G 移动蜂窝移动网络必须实现每平方千米支持多达 100 万个设备。它们还必须提供至少为 20 Gbps 的总下载容量和 10 Gbps 总上传容量。相比之下,4G 小蜂窝移动网络每平方英里支持大约 100,000 个设备,峰值数据速率约为 1 GBps。

图 1 显示了大都市圈预计的 5G 网络数据密度。为了防止如此大量的数据堵塞回程网络,运营商多半会鼓励在更靠近网络边缘的位置进行更大型的数据分析。运营商如果不采用 5G 边缘分析战略,那么他们很可能需要为此付出代价:他们需要为他们所生成的大量数据支付更高的传输成本。

图 1. 建议的 5G 的数据密度要求在边缘网络中有更高的处理和存储性能用于分析,在市区中尤其如此。(资料来源:Fierce Wireless

但是,庞大的数据量使得将分析移到边缘困难重重。5G 边缘分析的工作负载堪比通常驻留在云中或数据中心中的那些大数据系统的工作负载。在云中或数据中心中,工作负载可以分散在大量的计算、存储和网络资源中。相比之下,5G 分析必须以更轻量化的方式分布在海量边缘网络端点中。

以 AI 为中心的性能提升

让 5G 边缘分析普遍盛行的一个解决方案是 AI,因为可使用它来让中大规模的数据筛选跨 5G 基础设施自动进行。引入启用 AI 的流量过滤来满足这些网络工作负载的快速变化的需求需要可扩展的多核解决方案。在这方面,英特尔® 至强TM 可扩展处理器是一个优势选项。

英特尔至强可扩展处理器为 HPC 平台提供一项工艺:可提供 4 至 28 个内核和 1 至 8 个插槽的配置。举例来说,在有 8 个插槽的系统中,英特尔至强白金器件最多可支持 224 个内核。

这些处理器还可提供许多 HPC 友好的功能,在高内核数量之外锦上添花。例如,它们可集成英特尔® 高级矢量扩展 512(英特尔® AVX-512)。这些 512 位矢量指令每个时钟周期可以执行 32 个双精度浮点运算或 64 个单精度浮点运算。根据特定指令集,该技术还可以添加多达两个积和熔加运算单元,加快数学密集型运算的速度。

在主成分分析 (PCA) 等使用案例中,英特尔 AVX 512 可提供明显的优势。可以使用这种机器学习方法来将一组值转换为线性变量,而线性变量可由网络运营商用于了解流量形态,可由企业用于获得大数据见解。

PCA 可使用热门的机器学习 (ML) 库(如在 Apache Spark 上运行的 MLlib)来执行。但是,MLlib 可能会迅速被较大的数据集困住。使用英特尔 AVX 512 的库(如英特尔® 数据分析加速库(英特尔® DAAL)可解决这个问题。如图 2 中所述,用 PCA 的 MLlib 代码实施对英特尔 DAAL 的几个简单调用可导致明显的工作负载加速,并且随着数据集大小增加,速度提高更为明显。

图 2.
在 Apache Spark 上运行的 MLlib 机器学习 (ML) 库可在数据分析中用于主成分分析 (PCA),但是当数据集大小增长时,它的性能不能很好地随之增长。(资料来源:英特尔®

这些处理器还具备经过重新配置的网格高速缓存和内存架构,这不但可以降低延迟,而且可以加快访问数据集的速度,这正是 AI 和大数据分析应用所需的。此外,与上一代处理器相比,这些器件还可增加了 50% 的内存通道和 20% 的 PCIe 通道,以支持较小规模的计算群集。

让 5G 数据保持流动

上述种种只是可让 5G 及其他 HPC 应用获益的功能的开端。例如,5G 网络要承载的数据流量的数量和密度不断增加,催生了不同服务质量 (QoS) 的需要。英特尔® 虚拟化技术(英特尔® VT)允许将内核分配给不同流量类型的特定控制和数据平面网络任务。

此外,5G 必须支持的更大节点数目需要这样的交换结构:不但支持的设备数比目前多,而且性能或可靠性有增无减。英特尔® Omni-Path 架构(英特尔® OPA)结构支持超过 10,000 个节点,同时还能够在以明显高很多的 8 字节消息传递接口 (MPI) 速率传输数据的情况下,误码率 (BER) 比 InfiniBand 增强的数据速率 (EDR) 低几个数量级图 3)。

图 3. 与 InfiniBand 增强的数据速率 (EDR) 相比,英特尔® Omni-Path 架构(英特尔® OPA)可提供明显高很多的 8 字节消息传递接口 (MPI) 速率。(资料来源:英特尔®

为了帮助随着流量增大而扩展 5G 边缘计算能力,工程师转向诸如 WIN Enterprises 生产的 PL-81890 HPC 之类的平台。PL-81890 HPC 是一个高密度控制服务器,配置两枚英特尔至强铂金或金牌可扩展处理器和 12 个存储器托架,整合到紧凑的 2U 机箱中(图 4)。该系统还支持 WIN Enterprise 的可信平台控制模块,以帮助保持处理敏感通信的系统的完整性。

图 4. WIN Enterprises PL-81890 HPC 是一个 2U 可信平台,适用于高要求的 5G、数据分析和人工智能任务。(资料来源:WIN Enterprises

可将 OPA Host Fabric 接口适配器卡插入到诸如 PI-81890 HPC 之类的平台中(通过使用平台的其中一个 PCIe Gen. 3 x16 插槽)。撇开英特尔至强可扩展处理器提供的系统性能不谈,这些扩展选件还可以在机箱外带来 100 Gbps 以太网带宽,用于连接大型 HPC 系统群集。

进一步扩展

虽然上述性能指标对于许多应用而言高不可攀,但是过去 50 多年的技术发展史告诉我们,对更强处理能力和更快网络的需求无处不在。对于开始规模很小的组织来说,英特尔至强金牌、银牌和铜牌处理器提供了允许将来扩展的入口点。

无论用在什么设备上,英特尔至强可扩展处理器家族都可提供当今时代 5G、大数据分析和 AI 应用所需的的计算、存储、虚拟化和网络基础设施 – 并提供采用未来任何支持技术之路。

5G 网络需要在边缘部署 AI 的原因

5G 有望提高应用和服务的功能、降低延迟和带来全新类别的应用和服务。但是,要能够利用这些改进,就需要无与伦比的自动化水平,只有人工智能 (AI) 才能实现此水平。

对于网络运营商而言,AI 可为其网络功能虚拟化 (NFV) 和软件定义网络 (SDN) 基础设施补充自动化功能。与此同时,企业和工业用户可以利用这种分布式智能来降低成本、增强安全性和提供新的数据驱动型、低延迟服务。

当然可以单独部署 5G 而不部署 AI;不过,随着网络端点的数量、使用情形和整体复杂程度不断提高,十分有必要在 5G 移动边缘计算中利用 AI 来简化运营。利用 AI 的第一步是定义“边缘”。

针对 AI 计算定义 5G 网络边缘

5G 网络的“边缘”含义五花八门,具体视最终用户/运营商或应用而定。在 SDN 和 NFV 部署方案中,边缘的概念更是千变万化。例如,在较高的层次,网络运营商、企业组织或设备制造商/最终用户分别会以不同的方式定义“边缘”:

  • 运营商网络边缘 – 运营商网络边缘通常称为多接入边缘计算 (MEC),可位于发射塔、基站、边缘路由器或含有分布式数据中心的中央办公室。这些平台为面向运营商及其客户/合作伙伴的主机 AI 堆栈提供计算能力。
  • 企业内部边缘 – 企业边缘能够在设施或系统内的任何点支持 AI 计算。在企业边缘收集和处理智能设备中的数据,需要一定数量的云连接,用于更新机器学习 (ML) 模式。
  • 设备边缘 – 设备边缘指的是由 OEM 开发的或由用户操作的智能设备,它们会从路由器或网关等 AI 系统发送和接收数据。这些网关具有更强的计算能力或更多访问权限,可聚合来自许多智能设备的分析。

定义好之后,运营商和企业可以使用 5G AI 边缘计算来取得有针对性的结果。

网络运营商边缘中的 AI:动态网络切片

运营商可在 MEC 平台中充分利用 AI;在这些平台中,可运用技术来进行流量优化并进行更高效的网络资源管理。例如,动态网络切片包括实时选择最佳数据速率,或者选择可用于路由流量的最佳接入点或网络。

在动态网络切片中使用 AI 证实对于 5G 运营商而言至关重要,因为这使他们能够为普通客户、企业客户和垂直行业提供不同的服务质量 (QoS)。除了实现根据流量数量和类型高效调配网络的流程自动化之外,它还使运营商能够通过提供价格不同的多种服务层,让他们的基础设施创造更多价值。

企业边缘中的 AI:新的服务机会

企业和垂直市场中的用户也可以将启用 AI 的 5G 边缘计算用于他们自己的服务产品。

边缘中的 AI 将智能放置在更靠近数据源的位置,这可增强安全性、最大程度地降低延迟、降低回程成本以及将 AI 放置在比以云为中心的拓扑更靠近行业领域专家的位置。对于正在研究机器学习 (ML) 和深度学习 ( DL) 模型的领域专家而言,这种靠近有助于研发仅将最高品质的边缘数据发送回云中以用于模型训练的工程解决方案。

智能制造使用案例提供了 AI 和 5G 边缘计算如何为企业和最终用户增加价值的好例子。借助边缘中的 AI,不但网络节点可以吸收大批传感器、视频和其它输入数据并输出实时决策,而且 5G 技术毫秒级的延迟使得能够将这些响应集成在控制应用中。

图 1 中所示,企业和工业组织可以在边缘利用此部署来提供安全性、分析及其它 AI 即服务产品。

图 1. 跨 5G 边缘网络基础设施部署 AI 可以提供众多解决方案,以满足零售、工业、智能城市和其它市场中的各种需求。(资料来源:英特尔® 公司)

5G AI 移动边缘计算:采用开放源代码、基于标准且现成可用

当然,可以在 5G 网络边缘中实际使用 AI 之前,需要克服重重技术困难。如何联合和更新位于不同的边缘点且规模庞大的 AI 堆栈就是其中一个要克服最大困难。确保 AI 在 5G 边缘计算取得成功的一个途径是使用硬件标准和开放源代码软件。

从硬件角度看,Joinus Technology 等公司提供基于英特尔® 至强 金牌平台的 ETSI 和 PICMG ATCA 解决方案。此类解决方案每插槽可提供多达 22 个内核和 44 个线程,同时还可以集成英特尔® 高级矢量扩展 512(英特尔® AVX-512),以在企业内部和运营商网络边缘环境中加快处理 AI 工作负载的速度。可在运营商网络边缘使用该平台来自动化流量编排和资源管理,或在企业内部用作 AI 即服务。

在软件方面,英特尔及其合作伙伴都提供开放源代码解决方案,这将使生态系统参与者能够以经济高效的方式快速开发 AI 堆栈。例如,Wind River Titanium Cloud 是采用 OpenStack 构建的,提供了用于在 5G MEC 中支持 AI 的平台。

英特尔® 网络边缘虚拟化(英特尔® NEV)SDK 与 Titanium Cloud 打包在一起,可为网络架构师提供一套参考库和 API,以用于不同的边缘网络部署方案。基于英特尔至强金牌平台的 Joinus Technology ATCA 解决方案等平台可支持上述两种方案。

面向 5G 的 AI 自动化

除了传统通信功能之外,5G 网络还将连接几十亿个物联网 (IoT) 传感器。借助这些传感器,新的机器类型通信 (MTC) 和网络应运而生,同时射频频谱的使用更加广泛。

5G 的宏伟目标需要更高的自动化水平,而要达到更高的自动化水平,只能靠在整个网络基础设施中广植智能。边缘中的 AI 不但可通过监控使用情况随时间变化的趋势来为运营商持续不断地优化网络性能,而且可以用作提供新服务的平台,为运营商、企业和行业创造新的业务机会。

因为 5G 网络试验已在进行中,将 AI 植入到移动边缘基础设施中刻不容缓。

六核让 NFV/SDN 数据流更加流畅

为了支持不断增长且往往难以预测的移动、视频和物联网数据通信量,运营商必须提高软件定义网络 (SDN) 和网络功能虚拟化 (NFV) 基础设施的性能及灵活性。开发这些技术是为了就不同的通信量类型提供高效的通信量分类、管理和服务交付支持,但由于通信量增加,因此对支持 NFV 和 SDN 架构的网络处理器的要求也随之水涨船高。Cisco 预测物联网产生的机器对机器 (M2M) 数据通信量将在 2016 年至 2021 年之间以 49% 的年均复合增长率 (CAGR) 进行增长。同样,虚拟网络指数 (VNI) 报告预计在同一采样周期结束时,智能手机通信量几乎会增长三倍,占全球 IP 通信量的 33%,而全部 IP 通信量中有约 82% 属于视频。这些不同的通信量类型具有独特的交换、路由和可用性要求,因此需要具有更多内核数的网络处理器,从而可以同时处理独特的工作负载,以及支持根据需要扩展的模块化服务器硬件。

SDN 和 NFV 的关键作用

为了理解网络处理器不断变化的需求,因此必须了解 SDN 和 NFV 的作用。SDN 允许网络运营商根据来源、目的地和数据包类型之类的标准动态分类通信量,然后为通信量指定服务质量 (QoS)(图 1)。

图 1. SDN 架构允许运营商根据预定义的策略动态分类数据包。(资料来源:开放网络基金会

例如,非关键物联网传感器数据可以标记为“尽最大努力”的低 QoS,这表示网络不需要保证某个时间范围内的数据包传送。相反,网络只在传送高优先级通信量后分配资源(图 2)

图 2.
SDN 控制器根据来源、目的地和类型分析数据包,然后再相应进行传送。(资料来源:Cisco Systems, Inc.

相反,面向付费用户的流式传输视频可以标记为高 QoS,这表示需要提供足够的资源,从而将数据包丢失和传输延迟降至最低,同时最大化吞吐量。此外,后者还可应用于通常需要实时线速网络处理的深层数据包检查 (DPI) 之类的应用。与此同时,NFV 还支持通常在标准服务器上需要专用硬件的网络服务。这些称为虚拟网络功能 (VNF) 的服务可以包括防火墙、网络地址转换、入侵检测与防护 (IDS/IPS)、负载均衡和通信量加速。此外,也可以根据服务分类将服务应用于通信流,甚至将这些服务链接在一起,以便只需少数标准服务器即可执行通常需要由大量专用和专属硬件设备才能处理的相同功能(图 3)

图 3. NFV 将多种通常需要专用硬件设备的网络服务整合至在标准服务器上作为软件运行的虚拟网络功能 (VNF)。(资料来源:Network Computing

SDN 和 NFV 都不是新生事物。但是,随着更多具有独特要求的通信量尝试通过基于标准服务器上的网络,执行 SDN 策略和提供 VNF 服务的处理器所面临的压力也不断增大。因此,这需要具有充足高带宽内存的增强型多核解决方案,以尽量减少网络瓶颈。作为解决方法,网络基础设施工程师转为采用第八代智能英特尔® 酷睿™ 处理器(前身为 Coffee Lake),该款处理器的每个插槽提供多达六个内核,而且每个内核具备多线程处理能力,能够应对不断变化的网络性能要求。

满足 SDN 和 NFV 网络处理器的要求

第八代智能英特尔® 酷睿™ 处理器在最大内核数方面提高了 50%(从四个增加到六个),为 SDN 和 NFV 工程师提供了独特的优势。借助英特尔® 超线程技术(英特尔® HT 技术),每个内核能够一次执行两个任务,因此处理器可以执行多达 12 路多任务处理。此优化性能甚至可以应用于具有不同要求的工作负载,帮助 SDN 和 NFV 平台最大化计算资源、整合硬件和以更快的速度完成任务,从而节约能源并保持更多的可用网络带宽。此外,单个 NFV 平台上的 VNF 服务链也可以从采用英特尔 HT 技术的多线程处理性能中获益。如图 4 中的蓝色框所示,路由表根据来源、目的地和数据包类型来自动执行向通信流应用服务功能的流程。

图 4. 第八代智能英特尔® 酷睿™ 处理器根据数据通信量的来源、类型和目的地来自动化网络服务链。此外,处理器也可以同时自动执行多个工作负载。(资料来源:SDxCentral

50% 的末级缓存 (LLC) 提高(8 MB 到 12 MB)增加了片上数据吞吐量,从而增强了全新英特尔酷睿处理器的计算性能提升(图 5)。由于可以更快的速度在内核之间交换更多数据,因此 VNF 服务链和其它功能可以不间断执行。

图 5. 50% 的末级缓存 (LLC) 提高增加了第八代智能英特尔® 酷睿™ 处理器的片上数据吞吐量。(资料来源:Wikichip

在上一代 2400 MHz DDR4 RAM 的基础上,第八代智能英特尔酷睿处理器支持高达 64 GB 的外部 2666 MHz DDR4 RAM。更多且更快的内存支持面向控制面管理的数据流和数据包处理,因此提升了 SDN 和 NFV 性能。

获得现成的 SDN、NFV 性能和灵活性

寻求利用这些性能优势的网络工程师和运营商可以采用 CASwell, Inc. 推出的 CAR-4040 之类的现成服务器。高性能机架安装式通信平台采用支持多达全部六个内核的第八代智能英特尔® 酷睿™ 处理器。CAR-4040 针对可扩展性进行了专门设计,可支持 34 条 PCIe 通道、四个模块化网卡和 1 个为可配置 I/O 保留的 8 PCIe 插槽(图 6)

图 6. CASwell CAR-4040 网络通信设备是一款 1U 机架安装式设备,专为提供高性能、灵活性和可扩展性而设计。(资料来源:CASwell, Inc.

CAR-4040 针对 SDN 和 NFV 部署,以及诸如防火墙、虚拟专用网 (VPN)、入侵检测与防护 (IDS/IPS)、防病毒 (AV)、广域网 (WAN) 和其它网络管理功能之类的网络安全应用。为了最大化网络正常运行时间,该系统包括一个 300W 冗余电源,以及通过智能平台管理接口版本 2.0 (IPMI 2.0) 实现的集成系统运行状况监测。

让通信量畅通无阻

由于互联世界变得越来越依赖 IP 网络,因此流经核心网络基础设施的通信量类型会不断发展和变化。不同的通信量类型具有不同的 QoS 和路由要求,因此网络运营商务必保持具有峰值需求支持性能的灵活基础设施。SDN 和 NFV 构成了此类灵活网络的基础,但属于诸如 CAR-4040 之类基于第八代智能英特尔酷睿处理器且能够面向未来无缝扩展这些架构的通用平台。

嵌入式系统和物联网的性能功耗比提高 88%

在发展程度越来越高的视觉互联世界中,视频和无线功能不再是一种奢求,而成了一种经常性需求。这对嵌入式系统产生了独特需求,包括必须在功耗、热损耗和价格之间实现平衡,并且在视频和通信方面具有更高的资源和性能需求。第八代智能英特尔® 酷睿™ 处理器(前身为 Coffee Lake)可以满足这些需求。该款处理器采用了全新的配套芯片组,可在进行无线连接的基础上将性能功耗比 (PPW) 提高 88%。最大核心数从四个增加到六个、更高的睿频速度和更快的内存支持等其它特性使嵌入式系统开发人员可以实现用户所期望的交互式体验。

更多的核心、更多的编解码器和温度自适应睿频加速

目前,第八代智能英特尔酷睿处理器家族由移动式和台式产品组成,并且大部分专为嵌入式使用而设计。芯片采用 14 纳米工艺技术制造,与更大的工艺节点相比,可以在最大化性能的同时降低漏电功耗。此外,先进的工艺技术为其它主要架构增强铺平了道路,例如,指定 SKU 提供多达六个核心,并且将 TDP 级别保持在 35W 至 45W 范围内(图 1)。

图 1. 第八代智能英特尔® 酷睿 处理器家族现推出多达六个核心的处理器。通过将设计与制造优化相结合,可以将整体平台性能提高达 40%。(资料来源:英特尔公司

新一代英特尔酷睿处理器采用英特尔® 超线程技术(英特尔® HT 技术),允许两条线程在每个物理处理器核心上同时运行。由于可以并行执行应用程序任务,因此可以更快速地完成工作负载,从而更高效地利用处理器、降低总功耗和更好地进行散热管理。这些处理器最大化可用资源的其它方法是通过称为英特尔® 温度自适应睿频加速(英特尔® TVB)的技术。英特尔 TVB 与英特尔® 睿频加速技术(英特尔® TBT)配合使用,可以在处理器以低于指定散热和功率限制的情况下运行时,适时提供高达 200 MHz 的额外时钟速度(图 2)。

图 2. 英特尔® 温度自适应睿频加速(英特尔® TVB)与英特尔® 睿频加速技术(英特尔® TBT)结合使用,可以适时将时钟频率增加达 200 MHz。(资料来源:英特尔公司

例如,六核心英特尔® 酷睿™ i7-8850H 移动式处理器的基频是 2.6 GHz,但借助英特尔 TBT 和英特尔 TVB 可以获得高达 4.3 GHz 的速度。对于在具有突发性工作负载的应用(如视频流式传输)中提供无缝用户体验方面,此额外加速至关重要。在图形处理方面,第八代智能英特尔酷睿处理器配备了英特尔® 超核芯显卡 630。配备超核芯显卡是对新款处理器的架构增强,并且在 3DMark 测量中实现了 20% 的性能提升。这些性能提升与英特尔® 高速视频同步相结合,能够为 10 位 HEVC 编码和解码及 10 位 VP9 解码之类的视频编解码器提供内置硬件支持。此外,这些处理器还可以对多达三台用于 4K 超高清 (UHD) 视频流式传输的独立显示器 提供高动态范围 (HDR) 和 Rec. 2020 色域媒体支持。基于第八代智能英特尔酷睿处理器的平台进行了多次内存升级,以保持处理器性能不断提升,包括支持高达 64 GB 的 2666 MHz DDR4 RAM、集成内存控制器和英特尔® 智能高速缓存技术。集成内存控制器存储了可实现更高内存带宽的高效预取算法,而且英特尔智能高速缓存可通过根据工作负载向核心动态分配可用高速缓存来降低延迟(图 3)。

图 3. 第八代智能英特尔® 酷睿处理器中所采用的英特尔® 智能高速缓存技术可根据工作负载向核心动态分配高速缓存,从而降低延迟。(资料来源:YouTube

更多且更快的 I/O 端口和互联配套芯片

要将这些功能用于嵌入式系统,第八代酷睿® 处理器在上一代处理器的基础上增加了四个 I/O 端口。这样一来,单个部分最多可以有 30 个高速 I/O 接口,并且支持多达六个使用 Flex I/O 的 USB 3.1 Gen 2 通道和多达 16 个 PCIe 3.0 通道。现在,如果结合配套芯片上的 24 个可用 PCIe 通道,则具有更高带宽要求的系统可以利用 40 个 PCIe 接口。请务必注意,第八代智能英特尔酷睿处理器配套的新款 Cannon Point (CNP) 芯片移除了定义 7 至 13 条信号线的英特尔® 低引脚数 (LPC) 接口,并且由具有四条信号线的英特尔增强 SPI (eSPI) 代替。信号线数量的减少可将通信所需的 PCB 走线数量降至最低。此外,eSPI 以 66 MHz 运行,是 LPC 频率的两倍,并且运行电压为 1.8 V,与 LPC 3.3 V 的运行电压相比,可以实现节能。但是,对于新一代平台控制器中枢而言,最重要的功能也许就是集成英特尔® Wireless-AC 2×2 160 MHz。英特尔 Wireless-AC 2×2 160 MHz 为最高速度为 1,733 Mbit/秒的 Wi-Fi 通信定义了媒体访问控制 (MAC) 层(PHY 层必须单独实施)。如图 4 中所示,只需使用先前技术所用时间的一小部分即可完成高清文件下载。

图 4. Cannon Point (CNP) 芯片上集成的英特尔® Wireless-AC 2×2 160 MHz 技术使无线下载速度比千兆位以太网更快。(资料来源:英特尔

对于寻求利用此连接和第八代智能英特尔酷睿处理器的计算性能的嵌入式开发人员而言,英特尔为广阔的嵌入式市场提供所要使用的合格部件。六核英特尔酷睿 i7-8850H、四核英特尔酷睿 i5-8400H 和英特尔 Q370® 芯片之类的设备生产供货期长达 15 年,并且可以在 C6B-CFLH COM Express Type 6 主板 (MSC Technologies GmbH) 之类的模块上使用(图 5)。

图 5. 借助第八代智能英特尔® 酷睿 i5 和 i7 处理器,MSC Technologies GmbH C6B-CFLH Type 6 COM Express 模块提供了可扩展性能。(资料来源:MSC Technologies GmbH

重新定义嵌入式体验

由于所有类型的用户对高清视频和无线连接带来的优势越来越习以为常,因此嵌入式系统也必须做出调整。但是,这样做意味着处理器架构和支持硬件的选择需要在遵守传统设计限制的同时,还要支持先进的新功能。第八代智能英特尔酷睿处理器正是在这些要求交汇的情况下推出,它以嵌入式友好的 TDP 包络形式提供下一代图形处理和无线连接所需的性能。在未来几个月,为了解决安全问题、管理问题和其它功能,还会围绕可扩展处理器家族发布其它产品,以帮助今天的工程师们进一步重新定义嵌入式体验。

利用定制 FPGA 主板实施适用于物联网的软件定义无线电

物联网 (IoT) 包括了如此广泛的应用,但往往是一项设计就需要多个无线接口,增加了空间、功耗和成本。聪明的物联网设计师需要一种灵活的替代方式来支持多种不断发展的标准。这便是软件定义无线电 (SDR) 技术。SDR 这一理念并不新鲜;SDR 的创新之处在于解决了物联网的困境:在同一网络基础设施上融合多种射频技术的同时简化了设计、缩短了开发周期,并且降低了总体成本。本文介绍了基于定制 FPGA 主板的 SDR 设计已用于创建多协议无线数字基带解决方案。

SDR 增加了网络套接字的性能和效率

顾名思义,SDR 技术可以在同一硬件上支持多个无线协议。因实施情况而异,该技术可以同时支持这些协议,并且支持宽广(或狭窄)的频谱范围。而且,使用 FPGA 在像基站这样的无线设备中实施时,随着无线连接协议的不断发展,SDR 平台甚至可以通过重新编程来满足网络基础设施的未来需求。VotaryTech 的 SDR 平台 Arria 10AX115U3F4512SG 便是展现 SDR 潜能的范例(图 1)。这款英特尔® Arria® 10 FPGA SoC 型网卡支持广泛的无线应用,包括移动通信全球系统 (GSM)、通用分组无线业务 (GPRS)、LTE 网络宽带信号处理、跟踪和遥测。这款主板是一个前端射频平台,支持从 70 MHz 到 6 GHz 的无线应用,但其可扩展频率可高达 15 GHz。

图 1. 定制 FPGA 主板的视图(适用于支持多种无线技术的基带设计)。(资料来源:英特尔)

定制 10AX115U3F4512SG 支持网络应用的所有信号处理要求,包括各种调制和解调方案。主板的基带处理功能包括数字上变频、数字下变频以及标准调制器和解调器通信内核。因此,该款 SDR 平台支持无线信号收发。而且,10AX115U3F4512SG 可以在 Arria 10 FPGA 内部执行可编程和可微调基带处理。Arria 10 FPGA 可执行中频滤波和下变频等任务。

为什么在 SDR 中使用 FPGA

早期的 SDR 设计采用射频前端模块,深受工程师追捧,展现出了优秀的潜能。但作为一项注重应用的技术,SDR 的设计并未取得实质进展。这在某种程度上是此类系统中定制 ASIC 的要求(和成本)造成的。目前,低风险的 SoC 正在取代 SDR 平台中使用的传统 ASIC。举例来说,相比上一代高端 FPGA 而言,中档 FPGA SoC(例如采用 20 纳米工艺制造的英特尔 Arria 10)的性能提升高达 15%,功耗则下降了 60%(图 2)。而且,设备产生的热量大幅下降,这在无线设备基站、移动回程和远程无线头设计中至关重要。更为重要的是,英特尔 Arria FPGA SoC 提供了大量可变精度 DSP 模块和双核 Arm Cortex-A9 处理器选项。Arria 10 FPGA SoC 中的 DSP 模块采用三种模式:标准精度定点、高精度定点和单精度浮点(图 2)。这使得无线系统设计师能够对数字上变频和下变频及多速率滤波实施各种算法。

图 2.
英特尔® Arria® 10 FPGA 中的 DSP 模块采用标准精度定点、高精度定点和单精度浮点模式。此处介绍的是单精度 DSP 模块。(资料来源:英特尔)

将这些计算功能与超过 100 万个 FPGA 逻辑元素 (LE) 和 2,400 Mbps DDR4 SDRAM 内存接口相结合,便成就了一款可编程度高的自适应平台,可以适应目前和不断涌现的无线技术(图 3)。

图 3. 该无线回程设计结构图基于英特尔® Arria® 10 FPGA SoC。(资料来源:英特尔)

可合成的 IP 内核也可以集成到 FPGA 结构中,允许无线设备设计人员将模数转换器 (ADC) 输出和数模转换器 (DAC) 输入提供到 FGPA 内的基带中。这就与 I/O 和协议控制一起,在协助基于 SDR 的射频处理和基带接口方面起到了重要作用。轻松访问电路原理图以及可以使用 10AX115U3F4512SG 的 Gerber 和电路板文件简化了 SDR 功能集成。Arria 10 对于通用公共无线电接口 (CPRI) 规格的支持也提升了平台对于无线基站设计的适用性。

可编程性达到了物联网的基本要求

VotaryTech 最初开发的这项 SDR 设计是为了满足对于无线调制解调器应用的需要,但自从可以对硬件进行编程以后,也可用于遥测和波形生成模拟器等应用。Arria 10 FPGA SoC 实现的这种灵活性也使得 10AX115U3F4512SG 这类电路板十分适合物联网部署,比如由各种不断发展的技术和应用构成的物联网。但或许最重要的是,本文展示了小型设计室如何利用具有高可配置度的 FPGA SoC 设备提供适应目前和未来需求的解决方案。

让安全可靠的物联网计算变得经济高效

物联网应用的设计人员一直承受着巨大压力,他们必须以经济高效的方式来满足超出典型消费系统要求的坚固性、空间、性能和可靠性要求。从头开始设计以满足所有这些要求可能需要高昂成本,因此物联网的一种绝佳替代途径就是为 PC 配备高性能主板,将其置于精心设计的机箱中,并提供高效的散热管理、EMI/ESD 保护和 I/O端口设计。除了节省成本和缩短开发时间外,随着新处理器的出现以及应用要求变得越来越严苛,这种方法也能支持可扩展性。适合使用这种替代方法的计算平台的一个示例就是外形小巧的 Next Unit of Computing (NUC) 电脑。该主板可通过最新的英特尔处理器进行扩展,从而满足空间和性能要求。只要对机箱设计和散热性能予以一定程度的重视,即可轻而易举地将其转变成坚固耐用、相对便宜的物联网计算平台。下文将介绍 Logic Supply 如何围绕物联网开发坚固耐用的机箱,并始终保持靓丽外观。

NUC 让空间和可扩展性能实现平衡

英特尔® NUC 主板(例如 NUC7i3DNBE)专为将高性能计算组合在小巧的 4×4 英寸空间内而设计(图 1)。它使用最近推出的英特尔® 酷睿TM i3-7100U (Kaby Lake) 处理器,后者采用英特尔® 核芯显卡 620,其热设计功耗 (TDP) 为 15 W,并采用焊接式 BGA 封装来实现坚固耐用。

图 1. 英特尔® NUC 主板(例如 NUC7i3DNBE)可满足工业应用的空间、性能和可扩展性要求,但需要进行修改才能满足工业、标牌、物联网以及环境和可靠性挑战。(资料来源:英特尔)

添加各种功能,例如使用直接拧到主板上的固态盘内存、0˚ 到 55˚C 的工作温度范围、默认风扇和塑料机箱,而且 NUC 通常足够坚固耐用,可满足消费级和工作站应用的要求。但是,消费级和工业使用模式与设计要求之间存在很大差距。消费者可以容忍甚至是享受打开计算机系统来更换组件、排除问题的过程,并且会耐心等待系统冷却下来(如果系统过热)。但工业和物联网应用却并非如此。“对于我们的客户来说,宕机是一件棘手的事情,”加固型计算机系统提供商 Logic Supply Inc. 的产品经理 JP Ishaq 说道。许多客户都会将他们的电脑安装在天花板上方,或者放在橱柜或工作台下面。“他们甚至不想看到电脑,更不用说因为系统过热而打开它了,”他说道。

面向工业和物联网的加固型 NUC

虽然 NUC 在尺寸、连接性、功能和性能(包括高清媒体功能)方面达成了合理平衡,但下一步是要使其满足工业领域客户的需求。这意味着需要尽可能多地消除故障点。这个过程从取缔风扇开始,风扇往往是最便宜的组件,但可能会有灰尘透过风扇进入并堵塞系统,或者是有金属屑进入,导致系统出现故障或短路。“我们希望完全取缔风扇,”Ishaq 说道。“我们需要一个完全固态的解决方案。”最重要的是,他表示必须消除所有通风口,并减少或密封 I/O 端口以防止湿气、灰尘和 EMI 进入。在取缔风扇后,Logic Supply 专注于采用先进散热器和机箱设计的被动式散热技术,旨在让系统内部尽可能保持低温。“有些公司可能会在主板上安装一个散热器,并将其置于机箱内。”Ishaq 说道。他补充说道:“我们会尝试不同的做法,确保使用定制的散热解决方案来最大限度地提高处理器的散热量,以便为其提供充足的散热空间。”

这让 ML100-G-31 之类的设计具有非常有趣的外观(图 2)。“它还具有非常强大的功能。”Ishaq 说道。“我们认为功能第一、外形第二,但所有事情都是平等的,我们还要让它拥有靓丽外观。”Logic Supply 还包括了用于屏蔽或密封通风口以及在机箱上添加品牌信息的选项。

图 2.
ML100-G-31 包含定制的散热器设计和用于屏蔽或密封通风口的选项。(资料来源:Logic Supply Inc。)

散热器的设计取决于客户的应用要求,例如可用空间和操作环境。但它们都涉及到使用具有良好放射率的高质量铝材,并结合了可实现稳定接触的良好热性能以及使其保持就位的理想压力。“有些散热器解决方案的热升华和热导管非常复杂,但我们试着让它保持非常简单,而且无任何间隙,能够紧密地安装在一起。”Ishaq 说道。虽然 NUC 平台允许用户使用最新的英特尔处理器根据应用需求进行扩展,但相对于之前的 Sky Lake 和 Broadwell 实施,Kaby Lake 系列确实要求对散热器进行一些额外的修改。例如,该团队将更多散热器元件放在主板上。“通常,我们会尽量减少主板与 CPU 的接触,但是我们也会让某些组件与调节器接触。”Ishaq 说道。该团队使用散热垫直接接触调节器,然后将散热器延伸到散热垫以外。“采用新解决方案后,在额定温度上我们实现了 10˚ 至 15˚C 的温降。”Ishaq 表示。成功的秘诀就是广泛试验,并以保守的态度指定规格。这意味着需要充分利用所有组件 — 从 CPU 到内存以及 Wi-Fi 或其他网络连接。Logic Supply 还根据铁路电子设备标准(例如 EN 50155)进行测试,并且会对温度、湿度、冲击和振动进行测试。该公司甚至会根据需要进行减振设计,以防止主板承受过大的重力。Logic Supply 还将采用标准 ML100-G-31 坚固机箱,并屏蔽端口或拆下消费者通常不会使用的端口,包括 COM 端口和数字 I/O。Ishaq. 表示,为了解决 EMI 问题,该团队会确保端口周围的垫圈紧凑并避免使用基本背板。

面向工业和物联网的加固型 NUC

虽然性能、可扩展性、尺寸和可靠性要求通常意味着工业和物联网应用的成本高企,但并非总是如此。在可扩展处理器和定制散热器及机箱设计专家的支持下,通过选择具有合适外形的主板,该终端解决方案可以及时并在预算内满足设计和环境要求。

使用英特尔® SSF 消除人工智能瓶颈

机器学习和人工智能揭示了高性能计算 (HPC) 的局限性。从理论上讲,随着资源的增加,HPC 的并行架构可以进行线性扩展 — 但实际情况却并非如此。由于处理、数据传输和存储之间的不平衡,HPC 系统通常会遇到瓶颈。此外,缺乏标准化的硬件和软件会导致脱节、次优的实施。结果怎样?随着系统规模的扩大,效率会降低并且成本会升高。

新兴的可扩展系统架构

为了解决瓶颈问题,英特尔引入了英特尔® 可扩展系统架构(英特尔® SSF)。SSF 旨在为 HPC 提供更为全面、平衡和可扩展的方法。为了实现这一目标,SSF 将围绕内存、处理和网络传输调用特定元素,这些元素可与管理软件和支持参考架构配合工作(图 1)。

图 1. SSF 将围绕内存、处理和网络传输调用特定元素,这些元素可与管理软件和支持参考架构配合工作,从而消除 HPC 瓶颈。(资料来源:英特尔公司

可以在 SSF 中使用的硬件元素包括:

  • 英特尔® 至强® 处理器 E5-2600 v4 和英特尔® 至强融核 处理器
  • 使用 NVMe(非易失性内存高速)标准构建的英特尔® 傲腾 固态盘
  • 英特尔® Omni-Path 架构(英特尔® OPA)光纤和 10/40-Gbit/s 以太网

它们受面向 Lustre* 软件的英特尔® 企业版(面向 Lustre 软件的英特尔® EE)的支持。Lustre 是一种专为满足并行存储架构需求而设计的开源文件系统。英特尔在这种广受欢迎的文件系统基础上进行了增强,其中包括:

  • 面向 Lustre 的英特尔® 管理器,可以简化安装和配置
  • 面向 Hadoop* MapReduce* 的集成支持
  • 全球全天候技术支持

英特尔 SSF 还为操作系统制定了标准,包括 Linux 内核、访问控制、编程接口、运行时环境、存储和文件系统等等。举两个例子来说,它指定了 Linux 标准库 (LSB) 命令系统以及每个节点上的最小 RAM 容量。值得注意的是,SSF 为其 API 使用 LP64 编程模型。这意味着它与常见的 HPC 编程模型兼容,并且可以利用现有的代码。它支持集成原本彼此脱节的各种 HPC 功能。SSF 的优势令人印象深刻。“借助 SSF,与上一代[non-SSF-enabled]产品相比,速度提高了 25% 到 30%。”Premio Inc 的服务器和存储产品经理 Andy Lee 说道,该公司是基于 SSF 的存储解决方案的提供商。一个实际例子就是自动驾驶汽车,随着它们的发展,它们已经产生了 TB 级的数据量。“上一代至强处理器需要一个月的时间来分析所有数据并进行对象培训;现在,针对自动驾驶汽车的所有对象的培训时间可以缩短一半,”Lee 说道。Premio 已经实施了 SSF,并将其用作 FlacheSAN2N24U-D5 存储服务器的基础(图 2)。该服务器使用两个英特尔® 至强®可扩展处理器,并且支持 24 个前端访问热插拔 NVMe PCIe 3 x4 2.5 英寸驱动器。通过使用 SSF 原理以及 Omni-Path 和 100G 接口等其他元素,FlacheSAN2N24U-D5 可实现 60 Gbytes/s 的吞度量和 1200 万次 IOPS。

图 2.
来自 Premio Inc. 的
FlacheSAN2N24U-D5 存储服务器使用 SSF 来消除瓶颈,它可以达到 60 Gbytes/s 的吞吐量和 1200 万次 IOPS。(资料来源:Premio Inc.)

FlacheSAN2N24U-D5 是一种超级计算应用,Lee 表示,“您可以借助它快速分析数据,例如钻井、天气预报、石油和天然气、农业和安全数据。”

并非所有 SSF 实施都相同

虽然看起来,SSF 使得开发或选择基于 SSF 的 HPC 变得相对容易,但设计人员或潜在客户在实施或选择供应商时需要谨慎。Lee 表示,Premio 的附加价值就在于其实施了 SSF,因为它使用自制的主板,负责完成所有布线,并将其直接绑定到存储设备的驱动器(图 3)。Lee 还表示,它为实现低延迟和高吞吐量提供了正确的组件。但成本仍是一个重要因素,所以 Lee 表示他们非常重视使用现成的组件。

图 3. Premio 通过采用自主的主板设计和布线让其 SSF 实施变得与众不同,并通过其自身的组件实现了低延迟和高吞吐量。(资料来源:Premio Inc.)

设计 HPC 系统是一种好的做法,但更改和升级的需求总是在所难免。Premio 直接解决了这一问题。Lee 说道:“我们按照与未来处理器兼容的方式来设计服务器。” “您所要做的只是交换[older]计算节点并使用 Skylake [now called Xeon Scalable processors]。”Lee 表示,使用这种模块化的换入方法可以大幅节省时间,不再需要 6 个月到一年重新设计主板时间。Lee 还表示,另一个需要注意的问题是,如果不能保证设计团队花时间正确地构建基于 SSF 的新系统,那么最终会出现更多瓶颈。“我们创建了一个平衡架构来消除网络中的所有瓶颈。”他说道。例如,Premio 可以充分利用至强可扩展处理器,它能够运行全部五个 PCIe 通道,而其他处理器则只能运行两个。为了管理这些通道,Premio 还采用了 RoCE(基于融合以太网的 RDMA)网络协议。这是一种链路层协议,因此允许同一个以太网广播域中的任何两台主机之间进行通信。Premio 具有可用的和正在开发的其他 SSF 实施。人工智能如今正处于快速发展阶段,这一架构的推出正当其时。

为使用 H.265 编解码器进行可扩展视频流式传输做好准备

在过去 14 年中,H.264 视频压缩标准已被用于在全球范围内的内容交付网络 (CDN) 中提供快速、广泛且经济的视频编码。但 H.264 在按现代标准压缩视频方面的效率低下。它难以渲染高质量的图像,并且不支持超过 4K 的分辨率。在超高清 (UHD) 视频流式传输当道的时代,所有这些局限性都会带来问题。因此,CDN 运营商正在向 H.265 或高效视频编解码器 (HEVC) 过渡。与其前身相比,HEVC 在提供相同图像质量的同时,文件压缩效率提高了 50%,且支持 8K 分辨率。但为此也要付出代价。HEVC 的性能和效率需要更先进的 CDN 硬件。这些设备必须针对大容量视频流式传输进行优化,但不能让诸如数据包转发等其他任务的处理性能受到负面影响。此外,在添加这些功能的同时,如果需要将整个 CDN 基础设施推倒重建,那么也是不切实际的。幸运的是,基于英特尔® 至强® 处理器的直插式网卡 (NIC) 可以使用硬件加速器和英特尔® 锐炬 Pro 显卡 GT4e 等功能处理 HEVC。因此,CDN 运营商现在可以将扩展带宽,跟上流媒体视频时代的步伐。

为何选择 HEVC?

根据最近的爱立信移动市场报告,到 2023 年,视频将占到移动数据总流量的四分之三。OTT 服务的增长推动了这一趋势,因为消费者现在主要通过互联网在诸如智能手机、笔记本电脑和连接的媒体播放器等设备上传输超高清视频内容。因此,向最终用户分发丰富媒体的 CDN 将面临巨大的压力。H.264 标准难以应对这些工作负载的一个主要原因是它使用人们称之为宏块的技术。宏块允许快速处理 4×4 或 16×16 像素的矩阵,但同时也会产生块状图像伪影。在低比特率下,这种伪影尤为明显。另一方面,HEVC 使用编码树单元 (CTU) 取代了 H.264 中使用的宏块方法。CTU 处理 16×16、32×32 或 64×64 像素图像块或视频数据块,始终捕获可用的最大编码单元 (LCU)。这使得编码过程更加高效,并且允许 CTU 将图像分割成可变大小以在较低比特率下获得更好的图像质量。如上所述,CTU 的使用有助于将 HEVC 的压缩效率提升高达 50%(图 1)。但 CDN 的真正优势在于缩小文件大小,从而显著降低带宽和存储需求。这样,网络就可以在任何给定时间支持更多的 UHD 视频流。

图 1. H.265/HEVC 与其前身相比,视频压缩的效率获得极大提升。(资料来源:英特尔)

硬件加速可优化 HEVC 编码、解码和转码工作负载

虽然 HEVC 提供更出色、更高效的视频压缩,但它也需要能够处理各种编码、解码和转码工作负载的 CDN 设备。这是网络工程师面临的一个常见挑战,因为这就要求 CDN 硬件必须能够处理这些高级编解码器操作,同时又能执行诸如数据包处理之类的任务。英特尔® 至强® 处理器 E3-1515 v5 为希望扩展 CDN 设备性能的网络工程师提供了一条前进道路。至强® 处理器 E3-1515 v5 包含一套专用于 HEVC 工作负载的功能,其中包括:

  • 支持以每秒 30 帧 (fps) 的速度同时传输多达八个 1080p HEVC 数据流,以 30 fps 的速度同时传输两个 4K HEVC 数据流或多达 18 个 H.264 数据流
  • 完整的固定功能加速器,支持 8 位编码和解码操作
  • 10 位加速器,支持解码混合和部分 HEVC 操作

此外,E3-1515 v5 处理器中集成的英特尔® 锐炬® Pro 显卡引擎包含 72 个执行单元和一个 128 MB eDRAM 高速缓存。这使得显卡性能比上一代英特尔至强处理器提升高达 26%,并且还支持 HEVC 视频流的实时编码。对于解码任务,P580 图形处理单元 (GPU) 采用英特尔® 清晰视频和英特尔® 清晰视频核芯技术,可用于将解压缩算法转移到专用硬件 IP 内核上处理。转码是 CDN 设备的另一项关键功能,因为平台将会遇到 HEVC、H.264、JPEG 和 VP9 等不同视频格式。E3-1515 v5 上的高速视频转码操作由集成到处理器中的英特尔® 高速视频同步技术媒体加速器执行。高速视频同步技术不仅可以处理这些文件的压缩,而且还有利于提升视频流式传输的速度。通过将与 HEVC 相关的各种工作负载转移到专用硬件模块中进行处理,英特尔至强处理器 E3-1515 v5 等处理器能够最大限度地提高编解码器本身提供的效率。此外,在英特尔清晰视频和英特尔高速视频同步技术等专用硬件模块中执行这些任务,可以提供比传统 CPU 更高效的处理能力。

HEVC 的嵌入式设计

考虑到 HEVC 的带宽、存储和质量改进,今天,许多 CDN 运营商都希望可以充分利用编解码器的全部功能。幸运的是,通过最近发布 NCS2-VT02A 4K 视频传输模块(图 2)的 Lanner Electronics 等原始设备制造商可以获得基于英特尔至强处理器 E3-1515 v5 的直插式网卡 (NIC)。

图 2.
Lanner Electronics 的 NCS2-VT02A 是 4K 视频传输网卡 (NIC)。(来源:Lanner Electronics)

NCS2-VT02A 支持 HEVC 压缩,且采用 16 GB 的板载 DDR4 内存,可将与大容量编码/解码/转码操作相关的延迟降至最低。由于这些功能可以在至强处理器 E3-1515 v5 集成的锐炬 Pro 显卡单元和其他相关硬件模块上执行,因此主处理器可以执行诸如数据包转发之类的任务,而不用承受编解码器带来的负担。NCS2-VT02A 配备了各种 I/O 端口,包括 10 GbE 同轴电缆、光纤和 RJ-45,因此可以轻松添加到机架式网络设备中。例如,当部署在 Lanner 的 NCA-5510 1U 系统中时,NCS2-VT02A 能够同时压缩多达 80 个 IP 摄像头的视频通道(图 3)。

图 3. NCA-5510 1U 机架式系统支持 4K 视频传输模块,如 NCS2-VT02A。(来源:Lanner Electronics)

提升到 8K

新一代编解码器对于广播和 CDN 提供商来说至关重要,尤其是在他们希望在未来提供 3D 视频和 8K 分辨率时。随着对高质量视频需求的增加,HEVC 将发挥关键作用,在提供最佳用户体验的同时,最大程度减少带宽和存储需求。好消息是,借助基于英特尔至强处理器的灵活网络设备,运营商可以现在开始升级其基础设施以满足未来需求。

实施预测性维护,提高自助售货的弹性

与咨询店员相比,消费者更倾向于与自动化系统进行交互。在这样的时代背景下,自助售货亭和自动售货机的普及率不断上升。实际上,《哈佛商业评论》显示,食品服务公司的自助服务平台与传统渠道的销售相比有所增加。这种转变在很大程度上归因于用户拥有更多访问权限和更多选择。除了收入增长之外,零售商还可以从自助售货亭中获得多方面的益处。最值得注意的是,无论是在资本支出(CAPEX,维持零售空间的基本功能)还是在运营成本(OPEX,支付雇员薪水)方面,这些系统的成本都远低于传统的实体店。但自动售货亭和自动售货机也面临与停机相关的挑战。当由于组件故障、系统故障或库存短缺而导致系统停机时,运营商可能几天内都不会注意到。在此期间,收入机会不断流失;更严重的是,消费者信心下降。如果用户多次碰到机器故障,他们可能会彻底放弃,然后通过其他途径购买。为了应对停机,自助零售商采用的一种方式是通过物联网平台远程监控联网的售货亭和自动售货机。在某些情况下,物联网平台还提供管理功能,例如可以使用无线 (OTA) 软件和固件更新来提高应用程序和设备性能。但即使这些工具,在处理大量无人值守的零售系统时仍存在不足。例如,在发现问题时,服务技术人员可能已经积压了其他工作。而当使用远程管理部署修补程序时,问题通常已经影响到整个系统的安装基础。在这两种情况下,防止停机都为时已晚。机器学习和预测性维护提供了更好的方法。这些技术通过识别即将发生的故障的迹象,使自动售货机运营商能够在问题发生之前予以解决。关键在于,这些技术需要自动售货机本身具备智能功能。

通过机器学习和预测性维护增加售货亭正常运行时间

有一家公司为自助售货亭和自动售货机行业提供了这些功能,它就是 Canopy 物联网平台的开发商 Banyan Hills Technologies。与许多其他物联网云平台一样,Canopy 是大型联网设备网络的中央监控和管理解决方案。但与其他许多平台不同的是,它采用了嵌入式软件域代理 Leaf。Leaf 是位于物联网边缘节点(如互联的售货亭和自动售货机)上的一小部分与硬件和没有操作系统 (OS) 依赖性的代码。安装完成后,Leaf 代理可以将各种操作数据(如 CPU 温度、内存、可用磁盘空间和其他信息)发送到事件管道。事件管道与复杂事件处理引擎紧密集成,在翻译 Leaf 代理的数据后,将其传递到 Canopy 云中的大数据存储库(图 1)

图 1. Leaf 域代理提取的操作系统数据先通过复杂事件处理引擎,然后到达 Canopy 云。(资料来源:Banyan Hills Technologies)

这种架构的重要意义在于它产生了一个双向数据流。来自 Leaf 代理的实时系统状态信息北向传输,而来自 Canopy 的大数据层的历史趋势数据则南向传输。这两个数据集融合在复杂事件处理引擎中,利用机器学习启用自我诊断、自动调度和预测性维护路径(图 2)。所有这些都可以在逐个系统的基础上进行。

图 2.
来自 Canopy 物联网平台的大数据层和 Leaf 软件代理的组合数据可以帮助您深入了解各个系统及其组件的运行状况。(资料来源:Banyan Hills Technologies)

例如,自助售货亭上使用的读卡器。来自 Canopy 大数据层的历史记录可能表明,特定售货亭型号的读卡器在发生故障前的平均预期使用寿命为 500,000 次。与此同时,005 售货亭上的 Leaf 软件代理正在报告其读卡器的串行端口连接不一致,并声明系统刚刚完成了编号为 494,015 的交易。通过应用机器学习技术,复杂事件处理引擎不仅可以诊断出读卡器模块可能需要更换,而且还会触发自动警报,将维修技术人员派往售货亭的位置。Canopy 物联网平台可以通过电子邮件、文本或推送通知提供实时警报,而自动化调度可配置为触发非常常见或特定类型的系统故障。

指标模块见证商务智能

除预测性维护外,Canopy 物联网平台还包含商务智能功能。这些功能是作为一套灵活的基于云计算的报告模块提供的,它允许决策者根据当前状态、财务目标、实际表现和最新趋势评估运营情况(图 3)

图 3. Canopy 可自定义门户网站中的分析模块为决策者提供关键绩效指标 (KPI)。(资料来源:Banyan Hills Technologies)

指标会跟踪位置、市场营销和交易等领域的关键绩效指标 (KPI)。库存是另一个 KPI 模块,可以分解到单个系统级别以提高正常运行时间和消费者满意度。上述每个 KPI 模块都可以在可自定义的 Canopy 门户网站内启用或禁用,以满足特定企业或行业的需求。

预测客户忠诚度的提高

自助售货亭和自动售货机行业是自动化技术进步如何提高生活质量和改善盈利的一个很好的例子。但它也提醒我们,如果没有正确部署、管理和维护,技术可能会破坏每个企业最宝贵的资产:企业与客户的关系。另外,物联网云平台和嵌入式技术组件仅部分解决了自动化和用户满意度之间的平衡问题。相互配合之下,它们可以帮助我们预测以后的发展,例如改善维护、增加销售额、提高消费者忠诚度。无论如何,它们都有一个共同点:正常运行、全天候运行。

“零接触”物联网安全性是帮助企业实现业务持续增长的关键条件

按照当前形势推算,人们此前所宣扬的到 2020 年达到 500 亿台设备互联的物联网目标显然无法实现。问题出在哪里?安全性。因为 IT 经理非常担心安全问题,所以他们要求手动调配物联网设备。这样做会减缓安装速度,导致原始设备制造商 (OEM)、原始设计制造商 (ODM) 和云计算平台提供商的收入减少。该问题的解决方案是采用物联网身份识别与访问管理 (IAM) 技术。物联网身份识别与访问管理 (IAM) 技术变得越来越重要,据 MarketsandMarkets 预测,这部分市场市值将从 2016 年的 11 亿美元增长到 2021 年的 49.7亿美元。在本文中,我们将了解:

  • 物联网设备部署与 IT 处理方法之间的区别
  • 设备调配速度缓慢会减少收入的原因
  • 新的“零接触”载入平台如何在满足物联网要求的同时满足 IT 需求

可扩展性或安全性

早期在网络上安装物联网设备时,需要通过自我发现方式来找到设备。这种方法对于安装者而言很简单,但却令 IT 部门头疼不已。没有哪个 IT 专业人士希望在毫无预警的情况下看到网络中出现不安全的设备。对于这种情况,IT 部门的做法是强制要求运营部门先对每台设备采取安防措施,再允许设备联网上线。此举虽然提高了设备安全性,但是减缓了物联网系统的部署速度。为确保每台物联网设备都是安全的,IT 部门探索了多种解决方案,然而不论是哪种解决方案,都存在严重弊端。其中一种解决方案是为所有物联网设备提供统一镜像,使所有设备都采用已知配置。尽管该解决方案对于“普通”PC 而言十分有效,但却不适合高度多元化的物联网设备环境。第二种方法是要求运营工作人员联系 IT 部门,以获取每台物联网设备的唯一密钥。这种手动调配方式极易出错,而且相当耗时,每调配一台设备通常需要花费一个小时(图 1)。

图 1. 手动调配物联网网关设备。第三种解决方案是鼓励物联网设备的原始设备制造商 (OEM) 和原始设计制造商 (ODM) 针对具体云计算平台提供商,预先配置其生产的物联网设备。这样就可以把调配设备的重担转移到云计算提供商身上。但是由于市场上存在许多家云计算提供商,例如亚马逊微软IBM 以及 Honeywell,因此,这种方法给 OEM/ODM 带来了沉重负担,他们必须针对每种云计算平台来验证、记录归档以及追踪具有唯一性的 SKU。 

动机:损失收入和数据保护

物联网设备面市速度减缓意味着整个物联网生态系统都会损失收入,其中包括云计算平台提供商。英特尔物联网事业部 (IoTG) 物联网安全性高级总监 Jen Gilburg 表示:“如果不能及时载入物联网设备,无疑会在很大程度上影响相关设备的营收效益。[That’s true]这与平台提供商是否能通过自身管理举措将数据量或设备量转化为货币并无关联。”

对于 OEM 和 ODM,问题则在于不可预测的销售情况。Gilburg 通过一种典型的情形对此进行了阐述:假设有一位客户需要 10 万台设备。OEM/ODM 投入生产,但在交付了第一批 5,000 台设备后,由于需要兼顾安全性需求而放缓生产速度,导致余下订单产品交付延迟。这会使生产计划陷入一片混乱。

基于生态系统的解决方案

由于一开始的问题在于物联网部署模式跟 IT 模式不同,因此,我们需要一种既能提高可扩展性又能自动保障安全性的新解决方案。英特尔® 安全设备载入 (Intel® SDO) 正是不二之选。这项载入服务旨在实现不受平台约束的快速调配操作,具备以下特点:

  • 零接触载入,能够自动发现和调配
  • 通电启动后只需数秒钟即可运行
  • 借助英特尔® 增强隐私身份 (Intel® EPID) 功能,实现免密码身份验证
  • 可通过单个 SKU 支持多个云计算平台
  • 可追溯数字所有权,涵盖从制造商到客户的各个环节

依靠这款新平台,OEM 和 ODM 只需为其设备创建单个映像。随后,设备便可由安装者在初始通电启动时进行全面调配,接下来随时可以移交给后端平台提供商进行操作(图 2)。

图 2.
英特尔® 安全设备载入 (Intel® SDO) 精简了调配工作。下文介绍了该平台是如何工作的

  1. 芯片提供商 – 使用英特尔 EPID 2.0 开源 SDK,在生产期间将英特尔 EPID 身份嵌入到芯片的可信执行环境 (TEE) 中。
  2. 网关/设备制造商 – 使用工具包将客户端软件插入启动代码,以支持通向物联网平台的直接匿名认证通信通道,该通道可以传送设备 GUID、英特尔 SDO 服务 URL 以及数字所有权凭据。
  3. 设备所有者 – 当所有权的分布发生变化后,最终的所有者可以自动将其数字所有权收据加载到物联网平台中。
  4. 物联网平台 – 使用 API 来帮助平台或 VM 商城容器将设备注册到所有者帐户中,并启用能够共享目标 IP 地址的集合协议。
  5. 设备激活 – 通电启动后的设备会与英特尔 SDO 服务进行联系以证明其真实性,随后,设备将收到符合新所有者调配需求的 URL。

为创建该平台,英特尔与诸多芯片、设备及平台提供商开展了合作(图 3)。第一款支持该平台的设备预计将由英特尔® 物联网解决方案联盟成员(比如 Nexcom)推出。此外,英特尔还与开放式连接基金会 (OCF)、IoTivity 项目,以及其他物联网标准组织机构合作,基于其使用载入设备而获得的真实体验来打造相关概念与工具包。

图 3. 生态系统支持对于全面的物联网设备载入系统而言至关重要。除了安全性,基于全局生态系统的方法还必须满足隐私需求。对于任何与欧盟打交道的企业或组织机构而言,这意味着他们必须遵守即将出台的“通用数据保护条例”(General Data Protection Regulation,简称 GDPR)。该条例要求:收集任意类型数据的任何公司都必须确保提供数据保护,并保障数据安全。这也是促使英特尔 SDO 使用英特尔 EPID 的原因之一。该身份验证方法允许设备根据其经批准后所享有的访问权限级别来访问系统,而不是基于像 MACID 这类身份信息进行访问。换句话说,假设验证了 100 个真实签名,但验证程序可能并不能确定是验证了 100 台设备的身份,还是把同一台设备验证了 100 次。传统数字证书和身份验证技术(如公钥基础结构 (PKI))在授予访问权限时无法保持匿名(图 4)。给定的公共证书中包含主要所有者的名称和信息,用于表明安全信息的所有权情况。如果对同一设备进行了多次验证,该设备的活动可能会被跟踪,使黑客可以借此在其他设备之间创建威胁分布图来发起拒绝服务攻击。

图 4. 与传统 PKI 不同,英特尔® 增强隐私身份 (Intel® EPID) 是匿名的。从另一方面而言,英特尔 EPID 并不收集此类身份数据。除了能阻止黑客,缺乏身份数据也意味着英特尔 EPID 不会受 GDPR 方案的影响。“随着整个行业转向借助 GDPR 这类条例来保护数据隐私,英特尔 EPID 的实际用例会越来越多。”Gilburg 表示,“这将超出英特尔以及我们的合作伙伴所遵循的行业标准,指代更丰富的内涵。”

从制造到最终产品调配

如需了解所有环节是如何融合协作的,请参考图 5 所示的情形。英特尔 EPID 身份是在制造芯片时嵌入可信执行环境中的。

图 5. 智能灯泡的例子很好地展示了典型的情形。芯片在生产出来之后就被交给了 OEM/ODM,其主板中存储着名为 GUID 的唯一标识符以及一个公钥。公钥中含有构成设备所有权的签名链。将主板嵌入产品后(即 GUID 为 123 的智能灯泡),产品便可通过不同渠道发货,最终送到最终客户的手中。在每个环节中,签名链的内容都在增加。最后,物联网设备安装完毕。此时,英特尔 SDO 会提供一项代理服务(确实只是一个集合点,通常为 URL),设备可通过该服务发现所有者的 IP 地址。这时,设备和所有者会相互证明各自的身份。“英特尔其实不会在云计算环境中验证身份可信度。”Gilburg 解释道,“我们只是会把设备重新路由给其预期的新所有者,到了那个环节才会通过原始英特尔 EPID 签名来验证身份。一旦双方同意,则会在可以执行调配操作的设备和平台之间建立加密的安全通道。”

调配是在保障设备安全性与实施设备限制措施之间谋得平衡的重要一环。比方说,如果把设备嵌入到使用 RTOS 的系统中,那么,物联网平台管理系统就可能使用简单 RSA 密钥。假如设备使用的是完整网关并且具备更高的内存配置和处理能力,则可使用更加安全的网关映像。无论该设备正常运转需要满足什么要求,平台管理服务都会作出这样的决定。

可扩展的安全性

这种“零接触”载入概念使安装者能够轻松装配设备并验证其位置。随后,网络管理员即可控制该设备。身份验证和安全性是由与多个物联网云计算平台提供商中某个平台相连的云代理服务建立的。安全连接之后,云服务中的用户帐户就会自动调配该设备,其中,用户并不需要配置密码、密钥或唯一标识符。最后这一步能确保设备隐私性,是使英特尔方法脱颖而出的重要特征。潜在的黑客无法通过在不同所有者之间跟踪设备来创建攻击地图。英特尔 EPID 技术建立一种匿名安全通道,其中,端点身份验证处于隐藏状态,这跟可以跟踪所有权的传统公钥方式(比如 PKI)是不一样的。简而言之,英特尔的物联网设备载入方法不仅安全,而且能轻松扩展,快速部署成百上千万设备。