引
个人感觉本次Beta冲刺最大的槽点还是——反向延长 “冲刺周期”
- 做的不一样很容易,做的更好才是非常困难的
遗留的问题
- 经历了Alpha冲刺,组内大多数同学也大都对实践感到些许厌倦;原定计划内的一些功能也都因大大小小的原因被删减掉了;
- 而我们的核心功能——AR扫描、识别商铺返回对应信息这样一个功能的准确率也十分堪忧,在Alpha阶段没有发现的问题也均在Alpha总结之后暴露出来:
- 算法端通过两个模型分别来完成检测、识别功能,这样分割模块的机制导致我们识别准确率不能达到预期较高的标准。
- APP端的AR扫描存在着照相机对焦以及扫描检测的时间段设置问题,这导致了我们获取的图片过于模糊、较难识别。
- 如上所述,由于均涉及核心功能的效果,这两个问题对于我们这个项目来说已经可以称得上是Bug级别的问题了;在Alpha阶段,开发人员只需马上去修复并在签入之后告知大家修改内容即可。
- 但在Beta阶段,新代码签入前,则需要经过一系列的会诊、讨论,需要协商修改Bug的潜在风险,这也给修改Bug的及时性带来很大考量,因为每一步的修改均可能导致软件趋向于另一极端的不稳定,带来潜在的Bug。
做的不一样
- 大多数人对于智能识别商铺名这一概念均是:先区分商铺招牌以及宣传性文字,再进行文字识别。这就需要我们同时完成两个算法来实现,不稳定因素极大,因为两个模型中任一模型效果不佳均会导致结果不佳。
- 由于商铺信息均是在数据库内储存的,我们便可依此进行改进——仅检测对应商铺招牌,而不需对其进行识别,直接用分类的方式来完成。
- 具体如下流程图所示:
做的更好
- 经过繁杂的模型调参、训练,最终总算是得到一个鲁棒性颇优的模型,这里感谢一下团队各成员协助我重标数据以及测试模型。
- 简单给出几个测试样例如下所示:
- 应Alpha总结中柯老师给出挑战,我们应用数据增强手段,扩充了摩尔纹样本。
- 针对于模糊图片也能较好地识别出来
- 意外的是测试集中的遮挡图片也能识别 (推测是该类别此角度训练集过多)
- 本身Alpha阶段核心功能出现严重Bug后,在Beta冲刺阶段是极难修复的,冲刺的前几天大家都抱着做不出来就地解散、各奔东西的心态硬着头皮开发。
- 很幸运最终能思考出一个较优的解决方案,不论是在速度还是准确率上,也给我们的核心功能带来了较大的提升。
- 做的更好固然很难,但何妨不从做的不一样开始?一步一个脚印填好过去埋下的每一个坑,在不完美中追求完美;总的来说,本次Beta冲刺体验极佳!!!
获小黄衫感言
- 首先,很幸运能收获小黄衫一枚(?????)
- 软工实践这门课程上有太多太多的人比我优秀了,我侥幸获得小黄杉也是感觉受之有愧,但是这也多多少少是对我为软工实践这门课程以及自身付出努力的一个颇好的肯定!
- 个人觉得收获“小黄衫”的意义更多不在于奖励,而是在于反思
- 反思这件事情相对于幸运的获得者亦或是其他人来说都是一样的:反思历史遗留的问题;反思自身与他人的差距;但最重要的是展望后续的未来——经过后续不断的努力获得下一件 “小黄衫” 亦或是配得上这件 “领骑衫”。
致谢
- 个人作业中,赵畅同学提供的个人代码规范、展示算法思路等部分都做的十分优秀,我也参考了许多地方,这里感谢一下赵畅同学。
彩蛋
- 邀请了俞辛大哥合了张影。
一个人拍好羞耻鸭! - 望 “learning by doing” 这种学习实践精神常伴!~
原文地址:https://www.cnblogs.com/tomvii/p/10182757.html
时间: 2024-11-05 18:59:30