《软件研发效能·2023中国年度调查报告》 由软件研发效能实验室官宣发布

发布日期:2024-01-02 浏览次数:


由南京大学软件研发效能(DevOps+)实验室组织发起的"软件研发效能·2023中国年度调查"自2023年8月起以调查问卷形式向国内软件及IT产业的专家和实践者收集软件研发效能及DevOps(开发运维一体化)的最新发展现状和趋势。在经过了两个月的问卷收集及后续问卷数据统计与分析之后,实验室于2023年12月30日正式发布《软件研发效能·2023中国年度调查报告》(以下简称《年度调查报告》,扫描二维码下载报告完整版)。



自2016年夏,南京大学软件研发效能实验室在国内率先开展"DevOps·中国年度调查",至今已连续六年发布《年度调查报告》,产生广泛的产业影响。为更充分反映软件产业的最新发展动态,2023年度调查活动进一步升级为"软件研发效能·中国年度调查"。升级后的《年度调查报告》继续秉持非盈利的厂商中立观点,全面反映且综合分析了软件研发效能及DevOps在国内的最新发展现状,为软件及IT企业呈现了横向国际国内参照对比,以及纵向产业趋势演进的多维视角。《年度调查报告》的持续发布在工业界和学术界引发了广泛关注和积极反响,并为相关国家标准的制定提供了重要的数据参考。2023年12月1日,由全国信息技术标准化委员会牵头组织,以南京大学软件研发效能实验室为核心团队主持,联合34家单位起草制订的《系统与软件工程 开发运维一体化 能力成熟度模型》国家标准(标准号GB/T 42560-2023)在全国正式实施。


随着DevOps的快速普及,以及DevSecOps、AIOps、MLOps等相关研发理念的兴起,研发效能已成为当今"泛DevOps时代"互联网企业和传统软件企业都高度关注的软件工程热点领域。2023年度调查活动既延续DevOps的大背景,并突出以软件研发效能作为与时俱进的主题视角设计和分析问卷,同时对软件安全、大语言模型等年度热点进行深入剖析。调查结果显示,有超过半数的受访组织开始着手应用DevSecOps,或将大语言模型(LLM)工具融入到优化研发效能的实践过程中。


本年度调查问卷发布60天内收到大量反馈,《年度调查报告》对其中的有效问卷数据进行了统计和分析。报告从度量指标和实践两方面对研发效能现状进行了全面分析,根据部署频率、交付周期、平均修复时长、变更失败比例、有效会议时间、代码返工率、客户满意度和平均故障间隔时长等八个标准度量对受访团队进行效能分级,通过对不同分级团队的分析得到研发效能的制约因素以及最佳实践。同时,《年度调查报告》从不同角度展示了不同效能分级团队在软件安全实践上的差异。本年度大语言模型无疑成为了软件工程备受关注的热门话题,《年度调查报告》对于LLM对软件研发模式的影响以及带来的风险和挑战等问题也进行了量化分析和讨论。


2023中国年度调查活动除南京大学软件研发效能实验室作为发起组织机构外,还获得了国内多家的权威机构和知名科技媒体的大力支持,同时谢绝了厂商的参与组织和商业赞助。



发起单位:




参与单位:



《软件研发效能·2023中国年度调查报告》: