不同gpu共享方案区别及gpu隔离技术?

在使用GPU计算资源时通常会面临如下几个问题:
GPU资源管理困难。
GPU资源使用效率低。
GPU资源快速申请、回收困难。
为了彻底解决上述问题,业界提出了不同GPU共享方案。包括CUDA劫持、CUDA聚合、内核劫持、Mdev框架、Nvidia MIG等,请问这些方案具体有什么优势和劣势以及他们各自适用于哪些应用场景,在使用时是否需要特别指定。除此之外,如何将多个任务同时运行在同一张GPU卡上,同时对共享资源进行严格的隔离,行业现在有什么优秀的解决方案?

参与8

提问者

menglunyang
系统工程师中国银行
擅长领域: 云计算容器容器云

问题来自

相关问题

相关资料

相关文章

问题状态

  • 发布时间:2022-04-19
  • 关注会员:3 人
  • 问题浏览:2607
  • 最近回答:2022-05-01
  • X社区推广