Software effort can be measured by story point [35]. Current approaches for automatically estimating story points focus on applying pre-trained embedding models and deep learning for text regression to solve this problem which required expensive embedding models. We propose HeteroSP, a tool for estimating story points from textual input of Agile software project issues. We select GPT2SP [12] and Deep-SE [8] as the baselines for comparison. First, from the analysis of the story point dataset [8], we conclude that software issues are actually a mixture of natural language sentences with quoted code snippets and have problems related to large-size vocabulary. Second, we provide a module to normalize the input text including words and code tokens of the software issues. Third, we design an algorithm to convert an input software issue to a graph with different types of nodes and edges. Fourth, we construct a heterogeneous graph neural networks model with the support of fastText [6] for constructing initial node embedding to learn and predict the story points of new issues. We did the comparison over three scenarios of estimation, including within project, cross-project within the repository, and cross-project cross repository with our baseline approaches. We achieve the average Mean Absolute Error (MAE) as 2.38, 2.61, and 2.63 for three scenarios. We outperform GPT2SP in 2/3 of the scenarios while outperforming Deep-SE in the most challenging scenario with significantly less amount of running time. We also compare our approaches with different homogeneous graph neural network models and the results show that the heterogeneous graph neural networks model outperforms the homogeneous models in story point estimation. For time performance, we achieve about 570 seconds as the time performance in both three processes: node embedding initialization, model construction, and story point estimation.
翻译:软件的努力可以用故事点 [35] 来衡量。 目前自动估计故事点的方法侧重于应用预先训练的嵌入模型和深层次的文字回归学习来解决这一问题, 需要昂贵的嵌入模型。 我们提议使用HeteroSP, 用于从Agile软件项目问题的文本输入中估算故事点。 我们选择 GPT2SP [12] 和 Deep-Se [8] 作为比较的基线。 首先, 通过分析故事点数据集[8], 我们得出结论, 软件问题实际上是自然语言句与引用的代码片段的混合体, 并且存在与大型词汇有关的问题。 其次, 我们提供一个模块将输入文本(包括软件问题的文字和代码符号)。 第三, 我们设计一个算法, 将输入软件问题转换为不同类型节点和边缘的图表。 第四,我们用快速图支持构建一个混杂的图形网络网络模型[6] 来构建初始节点嵌入模型, 用于了解和预测新问题的故事点。 我们用三种假设情景进行了比较, 包括项目内部、跨项目点、 存储器内部、跨项目级的直径解文本文本文本文本文本的文本 3, 我们用直径系统模型的运行的运行的模型的运行的运行模式的运行模式的运行模式和2, 运行模式的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行过程的运行过程, 的运行的运行的运行的运行的运行的运行的运行过程的运行过程的运行的运行的运行的运行过程的运行过程, 的运行过程的运行的运行的运行的运行过程的运行过程的运行过程, 的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的3, 的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的运行的