首页期刊导航|大数据
期刊信息/Journal information
大数据
人民邮电出版社
大数据

人民邮电出版社

双月刊

2096-0271

bdr@bjxintong.com.cn

010-81055448

100078 

北京市丰台区成寿寺路11号邮电出版大厦8层

大数据/Journal Big Data ResearchCSTPCD
查看更多>>本刊以“开放、创新姿态,推动大数据技术的研究与应用,促进技术交流,推广创新成果,服务大数据社会”为宗旨。编辑方针和业务范围为:报道大数据技术应用领域中具有前瞻性、独立性和创新性的产业与技术发展见解;产业的新研究应用成果与发展动态;关键技术、热点的前沿性研究与应用;具有先进性和推广价值的应用方案等,有效促进我国大数据技术研究与应用的交流,全方位展示我国大数据产业的发展、技术趋势和创新应用成果,推动大数据产业的发展,使大数据技术真正应用于社会,服务于社会发展。
正式出版
收录年代

    基于城市知识体系的公共数据要素构建方法

    郑宇易修文齐德康潘哲逸...
    130-148页
    查看更多>>摘要:数据要素是数字经济发展的核心动能.城市公共数据的基础良好、普适性强、应用场景丰富,成为政府主导的数据要素的首选.当前数据与应用耦合,不同应用之间共享数据难,人工数据治理过程滞后、繁重低效,仅依靠自动抽取技术无法保证数据要素的精度.为此,基于人机智能协同的总体思路,提出基于城市知识体系的数据要素构建方法.首先,对大量城市业务进行解构和抽象,构建以人、地、事、物、组织5类实体,实体间关系及实体属性为核心的城市知识体系,并以这些实体、关系和属性为数据要素的原子描述,向上组合表达各种城市业务,向下形成可标准化的数据资源体系.其次,研发一套数字化控件,承载基于城市知识体系的数据要素化理论,通过灵活配置的方式开发服务于市民的各类应用,使数据在产生时就与城市知识体系关联,自动形成数据要素.最后,构建智能学习和推荐算法,更好地连接数字化控件和城市知识体系,使应用配置人员无须学习城市知识体系就能顺畅地使用数字化控件,降低了工具的使用门槛.该方法可大大提高公共数据要素产生的效率和扩大公共数据要素的规模,释放公共数据要素的价值.

    数据要素数据资源体系城市计算城市知识体系

    数字政府时空数据中台设计与实践

    王昀杜志双田康苏小保...
    149-160页
    查看更多>>摘要:自然资源和地理信息大数据是数字政府中重要的生产要素,是全国一体化政务大数据体系的重要组成部分.由于各部门存在数据分散和应用孤岛的问题,跨部门、跨业务的数据共享与应用存在一定困难,整体数据利用率低下.针对上述问题,围绕自然资源和地理信息大数据资源服务的需求,设计了数字政府时空数据中台,并对存储计算、数据体系和应用支撑等关键部分进行了详细说明.通过自然资源和地理信息库与人口综合库和法人综合库的整合,数字政府时空数据中台实现了人、企、地三者的有机融合,并结合具体的应用实践进行说明.

    数字政府自然资源和地理信息大数据时空数据中台人口综合库法人综合库

    中国数字经济空间网络及溢出效应研究

    牛奉高史若玉
    161-171页
    查看更多>>摘要:随着数字技术的蓬勃发展,数字经济成为一种全新的经济模式,为改善供需匹配、提升资源配置和促进经济转型升级提供了强大动力.为了全面分析数字经济发展的整体情况和空间关系,首先,对中国的31个省、区、市建立了数字经济评价指标体系,并通过修正的引力模型计算引力值,进而构建空间网络;然后,通过全局莫兰指数探究数字经济发展水平在空间上的依赖关系;最后,建立时空双固定杜宾模型,分析数字经济发展水平的影响因素和溢出效应.结果表明:中国数字经济发展空间网络不够紧密,区域间差异明显,邻近相依;城镇化水平的提升不仅促进本省、区、市的数字经济发展,还能间接带动邻省、区、市的发展,有很强的空间溢出效应,但人力资本水平对周边地区的数字经济发展有抑制效应.

    数字经济引力模型网络空间溢出效应空间计量

    基于异构硬件的LSTM训练系统

    黄为新胡伟方曹雪娇石宣化...
    172-188页
    查看更多>>摘要:在大数据时代,以LSTM为代表的深度神经网络模型具有处理海量数据的能力,在语言处理、语音识别、时序数据预测等领域表现优异.随着模型复杂度的提高,训练成本大幅提升.现有的LSTM训练系统使用了算子融合、多流等加速手段,但忽略了训练算子内部计算的可并行性,导致计算资源的利用率低,整体耗时长.为此,设计了基于细粒度模型划分和多流并行调度方法的LSTM训练系统TurboLSTM,在英伟达GPU和国产昇腾NPU这两种异构硬件上构建的全新底层训练算子实现了任务对计算资源的合理利用.与已有训练系统相比,在GPU上TurboLSTM的单算子训练时间缩短了23%,模型的整体训练时间缩短了17%,在NPU上TurboLSTM的单算子训练时间缩短了15%,且对计算资源的利用率显著提高.这表明提出的加速方案是高效的,具有良好的泛化能力.

    LSTM训练加速细粒度并行多流调度