NVIDIA宣布增加了对vSphere、vCenter或vMotion的支持,将用户的GPU加速需求从自己的服务器通过NVIDIAGPUCloud连接到VMwareCloudonAWS,并使得该技术能够从自有的服务器应用到GPU虚拟化NVIDIA走向更广泛的领域,除了可以用于科学研究、数据分析或人工智能领域,还可以加速部署在云端的现代应用服务的运行。
在VMWorld2019开始之前,NVIDIA宣布将针对人工智能、训练和数据分析需求创建名为vComputeServer的应用服务,并将集成NVIDIAAGPUCloud、NGC容器甚至GPU。RAPIDS加速平台内部资源与VMware和AWS云服务——VMwareCloudonAWS集成,让更多的科学研究、数据分析和人工智能应用可以通过虚拟化GPU进行加速。
与通过云端进行的协同计算相比,由于云服务所使用的CPU计算芯片的性能限制,计算性能很可能不如预期,甚至无法应对。随着越来越大的数据量的计算需求。因此,NVIDIA在VMWrold2019期间与WMware合作,将GPU虚拟化应用引入到VMware提供的服务中,包括将一个名为vComputeServer的应用服务集成到VMware提供的vSphere中,同时还连接了NVIDIA计算资源GPUCloud。
在此次合作中,原本使用vSphere虚拟化平台的计算模型可以接入GPU计算资源,使得vSphere平台生成的虚拟机可以配备一个或多个虚拟化GPU。。同时,利用GPU加速整体计算效率,可以显着提高人工智能学习和研究分析的效率。此外,通过此次合作,用户将能够更活地使用GPU加速计算资源,而无需自己创建GPU加速资源。
相比一些公司在自有数据服务器上集成GPU加速资源来提高整体数据计算效率,不可避免地要承担建设和维护成本,仍能应对计算量的增长规模化,必须有更强的计算性能支撑。因此,NVIDIA在2017年提供了NVIDIAGPUCloud服务,并声称可以连接GoogleCloud、AWS、阿里云、DGX、OracleCloud等云平台,帮助推动更大规模的计算,减少时间必需的。通过GPU虚拟化进行计算。
在今年的GTC2019上,NVIDIA还提出了全新的加速计算平台CUDA-XAI,该平台采用图灵显示架构和TensorRT计算框架,并兼容TuringTensorCores设计,因此,英伟达通过推广各种人工智能计算模型,强调可以带来50倍以上的加速计算效果,为人工智能计算应用带来更大的井喷。
本次发布增加了对vSphere、vCenter或vMotion的支持,这将把用户的GPU加速需求从自己的服务器通过NVIDIAGPUCloud连接到VMwareCloudonAWS,并使应用程序NVIDIA的GPU虚拟化技术能够在更广泛的领域,除了用于科学研究、数据分析或人工智能之外,还可以加速部署云端的现代应用服务的运行。
NVIDIA解释称,过去曾投入GPU虚拟化技术的深度开发,例如第一台采用GRID技术打造的虚拟化PC,以及后续的虚拟化工作站,使得GPU虚拟化可以应用。到更多的应用。高级专业绘图应用程序甚至支持专业数据分析、机器学习、人工智能、深度学习或超级计算应用程序。此外,它们还可以支持各种服务器计算加速,保证计算资源无缝连接。实时。登录并集成。
相比仅使用CPU网络加速模式,GPU加速可以将深度学习的效率提升50倍以上。它还可以确保数据正确性或减少数据比较错误的可能性。此外,通过GPU虚拟化还可以为要自建硬件设备的公司降低成本,NVIDIA还提供了使用NVIDIAT4、V100或使用QuadroRTX8000、6000和Turing显示架构GPU的选项,根据计算需求,甚至可以选择使用Pascal显示基于该架构构建的P40、P100和P60作为GPU虚拟化应用程序。
下一篇:gpu虚拟化硬件框图