论文部分内容阅读
摘要:K-fold交叉验证(CV)是估计机器学习模型真实性能的常用方法。CV的过程需要数据的隨机划分,因此性能评估实际上是随机的,具有可变性,这对于自然语言处理任务是非常重要的。所以建议使用较少变化的J-K-fold CV,其中J个独立的K-fold交叉验证用于评估性能。实验结果表明,通过重复的J-K-fold交叉验证进行调优能减少方差。
关键词:J-K-fold交叉验证;自然语言处理;调优
中图分类号:TP393
关键词:J-K-fold交叉验证;自然语言处理;调优
中图分类号:TP393