徐凤娇论文修改

发布于 24 天前 113 次阅读 预计阅读时间: 11 分钟


原英文版论文的结构

标题
摘要
关键字

I. 介绍
研究背景、目的和贡献

II. 相关工作(国内外研究现状,文献综述)
A 医学命名实体识别的传统方法
(BiLSTM+CRF,BERT这些传统方法)
B 集成词典信息的命名实体识别方法
(分为两种,一种在特征编码层集成词典信息,一种在嵌入的时候就集成词典信息,比如LEBERT)

III. 模型结构
A. BERT嵌入层
B. Star-Transform
C. 旋转位置编码(ROPE)
D. BiLSTM
E. CRF解码层

IV. 实验结果
A. 数据集
1. CCKS2020医学数据集
2. 自构建的乳腺癌超声报告数据集
B. 实验指标
C. 实验设置
D. 与哪些模型进行比对
1.CRF
2.BiLSTM-CRF
3.RoBERTa-CRF
4.NFLAT
5.GraphModel-Dict
6.LEBERT(baseline)
cck2020的比对结果:
乳腺癌超声波的比对结果:
E.实验结果分析
(每个数据集的不同实体的效果,药物,手术等等)
F.消融实验
以LEBERT为基线模型,查看两个数据集上在添加了相对位置编码后的结果
G.误差分析
1.数据集中实体的标签不一致。
2.过度预测。非实体被预测为实体;
3.识别性能较差的英语缩写。
然后给了个表格给出预测错误的例子

V. 总结与展望

参考文献

审稿意见

 

审稿人 #1

1. 论文相关性:

   – 论文与BigData主题相关。

2. 创新性:

   – 认为论文的创新性一般(评分为3),但没有明确指出具体创新点不足的地方

3. 技术质量:

   – 技术质量较高(评分为4),但提出了几点改进建议:

     – 比较实验不足:建议提供不使用领域知识和位置信息的命名实体识别方法的性能对比。

     – 训练成本讨论不足:认为模型训练代价较高,建议给出计算代价的详细讨论,尤其是实验结果中应提供训练时间。

4. 总体建议:

   – 审稿人总体认可论文的质量,认为可以作为正式发表的论文(评分为4),但建议加强实验和讨论的部分。

 

审稿人 #2

1. 论文相关性:

   – 论文与BigData主题相关。

2. 创新性:

   – 认为论文创新性不足(评分为2)。主要问题是缺乏原创性贡献,尤其是没有明确哪些部分是创新的。

3. 技术质量:

   – 技术质量较高(评分为4),但存在以下问题:

     – 实验数据集不足:仅使用了两个数据集,且其中一个不是公开数据集,建议增加更多数据集(如10个)。

     – 结果不够深入:实验结论不够充分,尤其是长命名实体识别方面的效果不够显著。

     – 缺乏消融实验:建议对Star-Transformer和BiLSTM进行消融实验,验证这些模块的必要性。

     – 超参数和训练时间分析缺乏:建议给出模型的超参数数量及训练和测试时间。

4. 总体建议:

   – 审稿人对论文持弱拒绝(评分为2),认为论文有一定价值,但需要显著改进实验设计和对创新点的阐述。

 

审稿人 #3

1. 论文相关性:

   – 论文与BigData主题相关。

2. 创新性:

   – 认为论文创新性较高(评分为4),但指出一些细节问题,尤其是与现有模型的对比不足。

3. 技术质量:

   – 技术质量一般(评分为3),具体问题如下:

     – 公式编号错误:如公式(8)错误标记为公式(18)。

     – 缺乏对比实验:建议增加与其他先进模型(如W2NER)的对比,以证明提出的模型效果更好。

     – 消融实验不足:建议对Star-Transformer等模块进行消融实验,验证这些模块的作用。

4. 总体建议:

   – 审稿人总体认可论文的价值,但认为实验设计和结果分析仍需改进(评分为3,弱接受)。

 

审稿人 #4

1. 论文相关性:

   – 论文与BigData主题相关。

2. 创新性:

   – 认为论文创新性不足(评分为2),主要问题是使用的技术已被广泛应用,缺乏显著的创新点,尤其是BERT与领域词汇结合的方法并不新颖。

3. 技术质量:

   – 技术质量较差(评分为2),具体问题如下:

     – 实验设计问题:仅使用了两个数据集,且没有进行交叉验证和统计测试,部分提升可能并不显著。

     – 实验结果不充分:建议提供更多实验数据,尤其是对不在词典中的实体识别效果。

     – 写作问题:论文中有许多语法和表达问题,建议找母语为英语的人进行修改。

4. 总体建议:

   – 审稿人对论文持弱拒绝(评分为2),认为论文的实验设计和创新性不够明显。

 

总结

 

各个审稿人的意见可以总结为以下几点:

 

1. 创新性不足:

   – 多位审稿人认为论文的创新性不够,主要原因是使用了现有技术(如BERT、Star-Transformer、BiLSTM等),但没有清楚地说明哪些部分是创新的。尤其是与已有方法(如文献[17]和W2NER模型)的对比不足。

2. 实验设计不足:

   – 审稿人普遍认为实验设计不够充分:

     – 数据集数量太少,建议增加更多的公开数据集。

     – 结果分析不够深入,尤其在长命名实体识别和不在词典中的实体识别方面,缺乏明确的优势。

     – 缺少消融实验,无法明确验证每个模块的作用。

     – 没有交叉验证和统计测试,部分实验结果可能并不显著。

3. 计算成本和超参数分析不足:

   – 多位审稿人提到论文没有讨论模型的计算代价,建议在论文中提供训练时间、超参数数量等相关信息。

4. 写作和格式问题:

   – 论文中存在公式编号错误、格式问题以及英文表达不当的问题,影响了论文的可读性。

 

改进:

 

– 明确创新点:在修订时,需进一步强调论文的创新点,尤其是与现有方法的对比,突出论文的独特贡献。

– 加强实验设计:增加更多数据集进行实验,特别是公开数据集。扩展实验分析,进行消融实验、交叉验证和统计测试。

– 提供计算代价分析:在论文中加入模型的训练成本、超参数数量以及训练和测试时间等信息。

– 改进写作质量:仔细检查公式和格式,找英语母语者帮助修改论文中的语法和表达问题。

修改后的文章结构

标题
摘要
关键字

I. 介绍
研究背景、目的和贡献

II. 相关工作(国内外研究现状,文献综述)
A 医学命名实体识别的传统方法
(BiLSTM+CRF,BERT这些传统方法)
B 集成词典信息的命名实体识别方法
(分为两种,一种在特征编码层集成词典信息,一种在嵌入的时候就集成词典信息,比如LEBERT)

III. 模型结构
A. BERT嵌入层
B. Star-Transform(创新点说明)
C. 旋转位置编码(ROPE)(创新点说明)
D. BiLSTM
E. CRF解码层

IV. 实验结果
A. 数据集
1. CCKS2020医学数据集

2.chip医学数据集

2. 自构建的乳腺癌超声报告数据集

4.resume通用领域数据集
B. 实验指标
C. 实验设置
D. 与哪些模型进行比对
1.CRF
2.BiLSTM-CRF

3.BERT-BiLSTM-CRF
3.RoBERTa-CRF
4.NFLAT
5.GraphModel-Dict
6.LEBERT(baseline)

         7. MECT

          8.Lattice-LSTM

cck2020的比对结果:(以及训练成本分析)
乳腺癌超声波的比对结果:(以及训练成本分析)

chip的对比结果(以及训练成本分析)

resume的对比结果(以及训练成本分析)
E.实验结果分析
(每个数据集的不同实体的效果,药物,手术等等)
F.消融实验
以LEBERT为基线模型,查看两个数据集上在添加了相对位置编码后的结果

这里根据审稿意见,将基线模型改为BERT+BiLSTM+CRF,然后对+领域词典(LEBERT)、+首尾预测(两个BiLSTM)、+相对领域编码(用ROPE改进的star-transform)这几个做消融实验
G.误差分析
1.数据集中实体的标签不一致。
2.过度预测。非实体被预测为实体;
3.识别性能较差的英语缩写。
然后给了个表格给出预测错误的例子

V. 总结与展望

参考文献

此作者没有提供个人介绍
最后更新于 2024-10-16