首页|基于延迟隐藏因子的GPU计算模型

基于延迟隐藏因子的GPU计算模型

袁良 张云泉 王可 张先轶

基于延迟隐藏因子的GPU计算模型

袁良 1张云泉 2王可 3张先轶1
扫码查看

作者信息

  • 1. 中国科学院软件研究所并行软件与计算科学实验室, 北京 100190
  • 2. 中国科学院计算机科学国家重点实验室, 北京 100190
  • 3. 中国科学院研究生院, 北京 100049
  • 折叠

摘要

近年来在生物计算,科学计算等领域成功地应用了GPU 加速计算并获得了较高加速比.然而在GPU 上 编程和调优过程非常繁琐,为此,研究人员提出了许多提高编程效率的编程模型和编译器,以及指导程序优化的 计算模型,在一定程度上简化了GPU 上的算法设计和优化,但是已有工作都存在一些不足.针对GPU 低延迟高 带宽的特性,提出了基于延迟隐藏因子的GPU 计算模型,模型提取算法隐藏延迟的能力,以指导算法优化.利用三种矩阵乘算法进行实测与模型预测,实验结果表明,在简化模型的情况下,平均误差率为0.19.

关键词

GPU/通用计算/计算模型/性能模型/延迟隐藏因子/GPU/性能优化

引用本文复制引用

主办单位

中国计算机学会

会议名称

2010年全国高性能计算学术年会(HPC china2010)

会议时间

2010-10-27

会议地点

北京

会议母体文献

2010年全国高性能计算学术年会(HPC china2010)论文集

页码

275-286

出版时间

2010
段落导航相关论文