当前位置:首页 > 虚拟化 > 正文

显卡虚拟化技术原理


一、GPU虚拟化上一篇文章讲解了计算机虚拟化的CPU虚拟化和内存虚拟化。从某种意义上来说,GPU也用于计算,但相对于CPU应用一般计算来说,GPU主要用于图形图像要求较高的场景,比如高清视频编解码、3D游戏、物理等。仿真等。本文将为您介绍GPU虚拟化技术。
GPU技术在芯片行业的发展速度与CPU技术一样快,越来越多的用户开始部署虚拟桌面解决方案。因此,GPU技术与虚拟化技术的融合是近年来虚拟化行业的热门技术话题。这样,图形图像用户的成本将显着降低,数据处理的效率和安全性也将得到提高。。GPU虚拟化是将GPU卡的计算能力划分为多个逻辑上虚拟的GPU,即vGPU,并将GPU计算能力分配给vGPU单元。单个GPU卡可以分配给vGPU单元中的多个虚拟机,允许虚拟机运行3D软件、播放高清视频等,极大提升用户体验。
目前GPU虚拟化主要采用以下技术:
DeviceSimulation
APIForwarding
GPUPass-Through
FullGPUVisualization
设备模拟直接将设备分配给指定的虚拟机。使用类似于CPU虚拟化中使用的二进制转换方法来执行模拟。然而,与CPU相比,GPU具有复杂的特性。不同设备厂商的GPU规格差异较大,难以划分,仿真效率低。因此,典型的QEMU软件仅模拟VGA设备的基本功能。它通过半虚拟化帧缓冲区来加速对特定2D图像的访问,这不能满足高效和共享虚拟化的要求。由于设备模拟没有一定的虚拟机访问图形硬件的机制,这些虚拟显示设备使用CPU和内存来相应地处理图形数据。
API传输将OpenGL等图形指令从GuestVM传输到VMMVM监视器,以实现虚拟化环境中的GPU共享。这种方法目前广泛应用于VMWare、VirutalBox等软件中。基于Chromium的VMGL和Oracle的VirtualBox,使用自定义的OpenGL库替换原来的OpenGL库,将虚拟机的OpenGL指令传递给虚拟机监视器执行。针对GPU在通用计算中的应用,rCUDA、vCUDA和gVirtuS都采用CUDA和OpenGL传输指令来解决在虚拟化环境下运行GPU通用计算程序的问题。然而,API传输受到平台的限制。例如,Windows使用的接口是DirectX,它与OpenGL或CUDA不兼容。因此,Linux主机无法执行从Windows客户端传递来的DirectX命令。同时,API转发会导致大量的上下文切换,从而导致显着的性能损失。
显卡直通,也叫显卡直通,是指绕过虚拟机管理系统,将GPU单独分配给虚拟机。只有虚拟机有权限使用它。GPU这种专有的设备分配方法保留了GPU的完整性和独立性,接近非虚拟化条件下的性能,可用于通用计算。但显卡透传需要使用一些特殊的显卡细节,兼容性较差。它只能在某些GPU设备上使用。同时GPU透传只能将GPU分配给单个虚拟机,不能在多个虚拟机之间共享。其他虚拟机无法使用GPU提供的计算能力。由于图形传输实际上使用来自客户操作系统的本机驱动程序和硬件,因此它缺乏跟踪和维护GPU状态所需的中间层,并且不支持虚拟机的高级功能(例如实时迁移)。
显卡虚拟化是将显卡进行切片并将这些显卡时间分配给虚拟机使用的过程。由于支持显卡虚拟化的显卡一般可以根据需要划分为不同规格的时间片,从而可以分配给多个虚拟机使用。GPU全虚拟化允许虚拟机直接访问性能敏感的资源(例如GPU访问显存),从而解决传输与共享之间的矛盾。例如SR-IOV技术,类似于IO虚拟化,通过影子页表隔离每个虚拟GPU的访问空间,使得大多数命令执行不会受到桌面监视器的干扰,从而使虚拟GPU可以正常工作。在优化条件下实现接近非虚拟性能的访问。
不同的显卡厂商实现全虚拟化的方式不同。例如,AMD在其最新的GPU上使用了SR-IOV(单根虚拟化)技术;Intel采用KVMGT技术来实现,Nvidia采用GPUvm/GRID技术来实现。