首页期刊导航|中兴通讯技术
期刊信息/Journal information
中兴通讯技术
中兴通讯技术

谢大雄

双月刊

1009-6868

magazine@zte.com.cn

0551-65533356

230061

合肥市金寨路329号凯旋大厦1201室

中兴通讯技术/Journal ZTE Technology JournalCSTPCD
查看更多>>  《中兴通讯技术》杂志为学术性与技术应用相结合的通信类专业刊物,由中兴通讯股份有限公司与安徽科学技术情报研究所联合主办,国内外公开发行。杂志1995年创刊。杂志为双月刊,逢双月10日出刊。杂志为大16开本,用纸讲究,装帧精良,封面、封底都作哑光塑封处理,内文彩色印刷,每期发行量为15000份。   杂志力求“新、专、融、实”的办刊特色,基本满足了不同层次的读者需求。目前,《中兴通讯技术》的发行面覆盖中国移动、中国电信、中国联合网络通信、中国广电、中国卫通等各大运营商,军队、煤炭、石油、电力等专网部门以及相关高等院校、科研院所和电信制造商、新闻媒体、行业主管机构等领域。  杂志通过介绍、探讨通信领域的新理论、新技术,传播电信知识,交流推广新业务、新经验,报道通信行业各类信息以加强通信界的学术与技术交流,展现国内外通信领域发展动态,促进通信领域科研、生产、教学、市场之间的有效联合,发掘和培养技术人才,为振兴民族通信产业做出贡献。  杂志编委会现有编委55人,编委会主任钟义信为北京邮电大学学术委员会主任、教授、博士生导师,副主任侯为贵为深圳市中兴通讯股份有限公司总裁,副主任陈锡生为南京邮电学院电信工程系教授、知名交换技术专家,编委均为通信领域各专业的著名专家。  《中兴通讯技术》杂志以中兴通讯强大的经济、技术与产业化平台为支撑,以中兴通讯的品牌形象与业界知名专家把握的最新通信技术为牵引,以中兴通讯遍布国际120多个国家和国内60余个营销服务网络为延伸,将杂志直达目标客户群。杂志这种企业化运作模式有力地密切了读者、作者及客户间关系,是任何传统媒体所无法企及的。  《中兴通讯技术》杂志热切希望与业界朋友一起,共同促进民族信息产业发展!
正式出版
收录年代

    网络大模型专题导读

    唐宏熊先奎
    1页

    智能算力核心基础系统软件的现状与展望

    郑纬民翟季冬翟明书
    2-8页
    查看更多>>摘要:智能算力对中国人工智能技术的进步具有重要意义。发展智能算力平台,做好核心基础系统软件尤其重要。梳理了智能算力平台中的10个核心基础系统软件,对这些软件的全球现状进行了详细介绍,并探讨了当前中国算力平台上系统软件栈建设的机遇和挑战。

    人工智能智能算力大模型系统软件

    大语言模型算法演进综述

    朱炫鹏姚海东刘隽熊先奎...
    9-20页
    查看更多>>摘要:基于Transformer架构的大语言模型展现出强大的能力,是人类迈向通用人工智能(AGI)的一个重大进步。大语言模型架构和算法的演进分为提高推理效率、提高模型能力两条技术路线。介绍了两条技术路线主流的技术方案和思路。提高推理效率的方法有分布式推理、计算优化、访存优化、量化等;提高模型能力主要是引入新的架构,如混合专家(MoE)模型、状态空间模型(SSM)等。

    大语言模型Transformer注意力

    大模型训练技术综述

    田海东张明政常锐童贤慧...
    21-28页
    查看更多>>摘要:实现高效训练已成为影响大模型应用普及的关键要素之一。按照数据准备、数据加载、模型初始化及评估、训练并行、模型状态保存的一般训练流程,对大模型高效训练的主要技术进行分析和论述。面对大模型规模的持续增长、数据处理类型的扩展,现有大模型训练技术仍存在较大的优化空间。认为未来大模型训练重点研究方向包括以数据为中心、数据加载智能化和异构加速、网络通信领域定制、训练并行及自动化。

    大模型数据准备数据加载模型初始化模型评估训练并行训练网络检查点

    通信网络与大模型的融合与协同

    任天骐李荣鹏张宏纲
    29-36页
    查看更多>>摘要:随着以大模型(LM)为代表的生成式人工智能(AI)的兴起,将LM应用于通信网络的研究引起了学术界和工业界的广泛关注。回顾了目前LM的主流神经网络架构及其能力涌现机理,然后从AI与通信的双向协同、网络大模型部署两方面,深入探讨了通信网络LM研究的主要进展。还分析了网络LM NetGPT将要面临的挑战以及未来的发展方向。考虑到基于AI/机器学习(ML)的通信模型相较于传统模型获得的出色性能,认为将通信网络与LM进行融合并使二者协同工作,能进一步地提升系统的性能。要实现通信网络与LM的融合与协同,本质上是要构建好网络LM,云边协同就提供了一种很好的网络LM部署方案。

    LM生成式AI网络智能NetGPT模型协同

    基于存算一体集成芯片的大语言模型专用硬件架构

    何斯琪穆琛陈迟晓
    37-42页
    查看更多>>摘要:目前以ChatGPT为代表的人工智能(AI)大模型在参数规模和系统算力需求上呈现指数级的增长趋势。深入研究了大型模型专用硬件架构,详细分析了大模型在部署过程中面临的带宽问题,以及这些问题对当前数据中心的重大影响。提出采用存算一体集成芯片架构的解决方案,旨在缓解数据传输压力,同时提高大模型推理的能量效率。此外,还深入研究了在存算一体架构下轻量化-存内压缩协同设计的可能性,以实现稀疏网络在存算一体硬件上的稠密映射,从而显著提高存储密度和计算能效。

    大语言模型存算一体集成芯粒存内压缩

    低资源集群中的大语言模型分布式推理技术

    冯文佼李宗航虞红芳
    43-49页
    查看更多>>摘要:探索了一种并行能力更强、具有更好兼容性的大语言模型(LLM)分布式推理范式。该范式专为弱算力、小显存环境设计。同时面向主机内外差异带宽,设计了基于通信树的高效All-Reduce组通信技术;针对小显存集群,设计了细粒度的显存管理与调度技术。最后,基于这些关键技术,构建了一套针对资源受限场景的LLM推理软件系统,旨在用数量有限的低资源设备,最大化能推理的LLM,同时通过优化通信策略与计算调度加速分布式推理。实验证明,在应用上述技术后,本方案的首词元生成延迟降低34%~61%,每秒生成词元吞吐量提升52%~150%,显存占用降低61%。

    LLM分布式推理范式资源受限场景优化通信策略与计算调度

    生成式大模型承载网络架构与关键技术探索

    唐宏武娟徐晓青张宁...
    50-55页
    查看更多>>摘要:生成式大模型训练需要超大规模低时延、高带宽、高可用的网络承载底座。对生成式大模型下高性能网络基础设施的技术发展路线和实现方案进行了研究,认为商用部署时需针对不同训练阶段的工作负载和流量模式,开展定制化网络架构设计和传输协议优化。流控/拥塞控制技术、负载均衡技术、自动化运维技术和面向广域远程直接内存访问(RDMA)的确定性网络传输技术是未来的重点研究方向。

    生成式大模型RDMA网络拥塞控制网络负载均衡

    大语言模型时代的智能运维

    裴丹张圣林孙永谦裴昶华...
    56-62页
    查看更多>>摘要:大语言模型由于其强大的语言能力、代码生成能力、工具编排能力,将是智能运维(AIOps)落地取得突破的重要因素。大模型时代的AIOps架构是多AIOps智能体的人机协同系统。首先列举了AIOps对大语言模型的应用需求,探讨了大语言模型时代的AIOps架构,其次总结了将大语言模型整合到运维工作流程中所面临的挑战,最后结合这些挑战给出了解决思路并倡议以"社区众包,群体智慧"的方式加速落地运维大语言模型。

    大语言模型智能运维人机协同智能体

    大模型知识管理系统

    周扬蔡霈涵董振江
    63-71页
    查看更多>>摘要:企业知识管理至关重要,而传统企业知识管理系统存在构建成本高、知识利用率低的问题。提出了基于大模型检索增强生成(RAG)技术构建企业知识管理系统的方案。首先介绍了整体方案架构、业务流程与4类知识构建技术,然后重点介绍了检索前处理、知识检索、检索后处理等全流程知识检索技术,并设计了全面的测评框架。经过实践检验,该方案具有知识构建效率高且成本低、意图理解精确、知识检索准确等特点与优势。

    RAG知识管理系统大模型知识工程