云计算:为什么说微软开源数据计划是向前迈出的重要一步-开云(中国)Kaiyun
2024-11-17 23:40:01
微软公司新的发售的Project Zipline压缩算法,充足慢到可以在传输数据的同时,把数据载入SSD或者从物联网设备展开上载,而且在微软公司内部工作阻抗,也就是最初研发时的目标对象上取得高达96%的压缩率。如此较慢和高效,是因为它使用了一种自定义硬件加速器,可以多次找寻出比压缩算法一般来说处置的更好模式;而且给定这些模式的数据,将被模式的一个参照所代替,从而闲置的空间更加小。
因此,微软公司除了公布压缩算法规范作为自己对Open Compute Project Foundation的贡献之外,还公布了运营该算法研发芯片所需的Verilog Register-transfer Level (RTL)文件。微软公司计划在Project Cerberus下一代版本中也做到完全相同的事情,Project Cerberus硬件“信任根”规范的目标,是协助固件避免恶意软件侵略,让你仍然担忧所采购的硬件否曾多次被伪造过。
第一个版本有一个分开的控制器,可以放入服务器上的PCI总线,但是微软公司期望在芯片(例如CPU)层面——甚至是内存和存储层面——也有完全相同的保护措施。而且,当微软公司向OCP贡献第二代Cerberus规范的时候,其中就将包括RTL文件,这样厂商们就可以精彩地将其加到到自己的芯片设计中。
物理构建是最棘手的部分;硬件提供商一般来说不会在他们交付给基于对外开放标准的系统时,自行来解决问题这个部分的问题,因为这是他们相互竞争的一个部分。但是你期望的是厂商使用你的对外开放标准,因为对你来说,用于的人越少就就越简单。
如果你按照厂商期望的那样,在Open Data Initiative下把数据从Azure迁入到Adobe的营销云、SAP或者Dynamics上,那么在迁入数据的同时,对数据展开传输——而不是拓展——操作者就不会更有意义。这样做到,意味著云和你用于的任何服务器都必须反对Zipline。
用于Verilog和RTL文件(用作叙述包含芯片设计的电路)——来登录芯片设计,这一点是很艰难的。享有这种技能的程序员寥寥无几,而且这也不是一种少见技能,这就说明了为什么很多超大规模云计算——而不是普通的企业——才需要利用FPGA的灵活性来交付给经过准确设计可以有效地运营特定算法的硬件。微软公司通过对外开放这种往往仅有用作微软公司内部的设计,让自己更容易把Project Zipline和Cerberus建构到产品中,从而才能被更好的人用于。Intel、AMD、Ampere、Arm、Marvell和SiFive都在研发使用Zipline的CPU;Broadcom、Fungible、Mellanox、Eideticom、NGD和Pure Storage正在将Zipline加到到自己定位网卡和存储系统中。
虽然英特尔没具体回应不会把Cerberus下一代版本建构到自己的CPU中,但邀微软公司Cerberus团队参与OCP峰会并做到主题演说,相当大程度上是一个很显著的迹象了。这有可能是前所未有的对外开放贡献,但也十分合乎OCP的精神,对于超大规模云提供商来说,OCP最初的目标是让厂商需要更加精彩地打造出他们期望订购的硬件。现在,OCP早已相比之下不局限于服务器和机架,其派生产品对于更加多企业的组织来说是有意义的,因此微软公司几乎有理由这样做到。
本文来源:开云(中国)Kaiyun-www.witzkw.com