第二,阅读所有关键词的论文后,迅速打印word笔记本和下载的论文,寻找不方便打印的宝藏。
第三,在纸质版上圈出,再复习一遍。
第四,熟悉和模仿各板块的话语形式。 因为没有专门教你写论文的课程,所以必须读文献学习摘要的写法和引言的写法。 学校公布的“本科毕业论文格式要求”也是重要的参考项目。
第五,分板块边学边写。 也就是说,写作引言时只看手头文献的引言部分,可以同时使用不同颜色的水彩笔。
第六,反复修改前面的部分。 第二天接着写的时候,要通读前面的内容,修改。
4 .边写边记《引用》和《参考文献》。 另外,尽量不要找麻烦。
5 .写作要听身体的话。 累了就休息,继续写反而效率低下。 不想写就停下来,转移目标,放松大脑。
希望我的经验和论文写作安排对你有帮助!
关注我,和我一起交流更多与“大学生”相关的话题!
可见,自2012年AlexNet大显神威以来,研究人员已经提出了VGG、NiN、Inception、ResNet、DenseNet、NASNet等多种卷积体系结构,模型精度得到了稳定提高
但是,目前这些提高不仅来自于体系结构的修改,还来自于训练过程的改进,包括损失函数的优化、数据预处理方法的提取和优化方法的改进等。 过去几年,卷积网络和图像分割有了很大的改善,但大多数文献都简单提到了实现细节,但还有其他一些只在源代码中出现的技巧。
在这篇论文中,李沐等人的研究者研究了一系列的训练过程和模型结构的改善方法。 这些方法都提高了模型的精度,几乎不增加计算的复杂度。 其中许多都是次要的“技巧”,例如修改卷积幻灯片的大小或调整学习率策略。 总的来说,采用这些技巧会产生很大的不同。 因此,研究人员希望通过多种神经网络架构和数据集对它们进行评估,以研究其对最终模型准确率的影响。
研究人员的实验表明,一些技巧可以显著提高准确率,并将它们结合起来可以进一步提高模型的准确率。 我们还比较了基线ResNet、加入了各种技巧的ResNet、以及其他相关的神经网络,下表1显示了所有准确率的比较。 这些技术将ResNet50的Top-1验证精度从75.3%提高到79.29%,优于其他更新和改进的网络体系结构。 还表明,这些方法大多可以转移到其他领域和数据集,例如目标检测和语义分割。
论文: bagoftricksforimageclassificationwithconvolutionalneuralnetworks
论文地址: https://arxiv.org/pdf/1812.01187.pdf
摘要:图像分类研究的近期进展大多得益于训练过程的调整,包括数据的增强和优化方法的变化。 但是,在这些文献中,许多微调方法被简单地作为实现的细节,或者只在源代码中出现。 本文通过测试一系列微调方法和控制变量实验来评估对最终精度的影响。 表明结合不同的微调方法可以显著改善许多CNN模型。 例如,使用ImageNet训练的ResNet-50的top-1验证精度从75.3%提高到了79.29。 本研究还表明,提高图像分类精度可以在目标检测和语义分割等其他应用领域实现更好的迁移学习性能。
2训练过程目前,我们基本上是用少量的SGD或其变体来训练神经网络。 Algorithm 1展示了SGD的模板过程(感兴趣的读者请参考原论文)。 利用广泛使用的ResNet实现作为基线,培训过程主要分为六个步骤:
对图像进行随机采样并解码为32位原始像素浮点值。 每个像素值的取值范围为[ 0,255 ]。
以长宽比为3/4,4/3,矩形区域按8 %,100%]的比例随机剪切,然后缩放为224*224的正方形。
以0.5的概率随机水平翻转图像。
从均匀分布[0. 6,1.4 ]中提取系数,用于调整色调和亮度等。
从正态分布n (0,0.1 )中采样系数,加入PCA噪声。
图像分别通过减去(123.68,116.779,103.939 )并除以(58.393,57.12,57.375 )获得归一化的RGB三通道。
经过6个步骤可以进行训练和验证,基线模型的准确率如下所示。
表2 )注意在文献中实现的验证精度和我们的基线模型的验证精度,Inception V3的输入图像大小为299*299。
3随着高效培训GPU等硬件的普及,许多与性能相关的折衷方案和最佳选择正在发生变化。 本章研究了很多可以在不影响模型精度的情况下利用低精度和大量训练优点的技术。 此外,还有同时提高精度和训练速度的技术。
文章来源:《中华神经外科杂志》 网址: http://www.zhsjwkzz.cn/zonghexinwen/2022/1213/547.html
中华神经外科杂志投稿 | 中华神经外科杂志编辑部| 中华神经外科杂志版面费 | 中华神经外科杂志论文发表 | 中华神经外科杂志最新目录
Copyright © 2021 《中华神经外科杂志》杂志社 版权所有 Power by DedeCms
投稿电话: 投稿邮箱: