2023年5月17-19日,软件学院语言智能处理研究组李传艺老师、直博生牛菲菲和博士生牛长安共同赴澳大利亚墨尔本参加 ICSE 2023大会,分别在会上对三篇研究论文作了汇报。
三篇论文分别为:
1. RAT: A Refactoring-Aware Traceability Model for Bug Localization。该论文由应用软件工程技术中心葛季栋教授,骆斌教授,美国SMU黄丽果教授,以及奥地利JKU Alexander Egyed教授,Wesley Klewerton Guez Assunção博士,Christoph Mayr-Dorn博士联合指导完成。该论文主要提出一种基于重构的代码历史跟踪模型(RAT),将该模型应用于现有的依赖历史关系的缺陷定位组件,可以有效提升代码定位准确性。欢迎感兴趣的同行来信交流:niufeifei0624@gmail.com 。
2. CrossCodeBench: Benchmarking Cross-Task Generalization of Source Code Models。该论文贡献了一个基于指令学习的跨多个软件工程任务的大规模数据集,详细介绍了数据集构建过程,并基于该数据集开展了丰富的跨软件工程任务的迁移学习探究性实验,验证了通过指令学习共享任务间知识的可行性,为构造更大规模数据集、设计更高质量的任务指令奠定了基础。博士生牛长安为该论文第一作者,李传艺老师、骆斌教授和UTD Vincent Ng教授为合作者。欢迎对该研究感兴趣的同行来信交流:niu.ca@outlook.com 。
3. An Empirical Comparison of Pre-Trained Models of Source Code。虽然不断有新的能够在多种软件工程任务上取得不错应用效果的源代码预训练模型被开发出来,我们对这些预训练模型的理解还不全面。一方面,很多模型仅仅在部分下游任务上测试了应用效果,另一方面,在同一个下游任务上测试的模型可能使用了不同的数据集。这些都为全面对比现有代码预训练模型带来了困难。为了推进我们对这些模型的理解,我们对19个最近开发的源代码预训练模型在13个SE任务的进行了第一次系统的实证比较。该论文第一作者为博士生牛长安,由李传艺老师、骆斌教授和UTD Vincent Ng教授联合指导完成。欢迎对该研究感兴趣的同行来信交流:lcy@nju.edu.cn 。