学习杂谈:费曼学习法和show me the code

最近陷入一个困惑,就是在参加面试的时候,很多学过的东西总是记不住或是记得不准确,从而在需要表述概念的时候,并不能很好的表达出来。我仔细分析了一下原因应该有两个,其一是语言表达能力,其二是对知识本身的掌握程度。

我特别想对第二点进行一个延伸的思考,以便形成一套自己的学习方法来辅助自己掌握知识。我一直相信勤能补拙,但我更相信学习是有方法论的,是有捷径的,有时候好的方法比盲目的努力更有用。

我理解的费曼学习法

回顾自己以前的学习生涯,其实我常常会运用“费曼学习法”,只是当时自己根本不理解那是一套比较科学的学习方法,那时候自己经常会去思考一个问题的本质,然后将问题和解答过程复述出来,或是给别人讲解,亦或是自己亲自去实际,去获得到一个反馈,从而起到查缺补漏,巩固知识的作用。

可针对近几年的学习情况来讲,我却渐渐地忽视了学习方法,而是沉浸在各种信息流中,缺少了独立的思考,缺少了反馈与实践。在这个信息大爆炸的时代,企图使用大脑去记忆所有信息,几乎是不可能的。即使有意识地去屏蔽一些无用的信息,刻意的去记住自认为重要的信息也是很做到的,因为没有练习和反馈。记得《刻意练习》那本书中提到过,要做有意识的训练,而且要坚持训练并有反馈,才能够形成一个完整的知识结构或是思维曲线。道理就是这样的,我们需要的是形成知识闭环,而不是单面的接受信息,因为那样的信息是无法融入自己的知识体系的。

仔细想想,费曼学习法应该是很有用的,我试图翻阅了自己以前的博客,当时在讲述内容的时候常常会深入到细节,并且有自己的思考和感悟,因此对于之前的一些东西还能够有所记忆。而后来的博客慢慢的变成了一种记录信息的工具了,企图用博客来记录知识,而解放大脑,虽然在一定程度上是有用的,但很多时候却适得其反,因为很多东西并没有经过思考,而是一种简单的复制粘贴,可怕的是自认为已经掌握了知识,起到了一种自我感动的作用。我想这大概就是造成我对于知识记忆模糊的主要原因之一吧。

总结来说,就是自己在学习过程中,思考的东西少了,复制粘贴的东西多,一方面是因为发达的互联网,自己过度依赖于网络解决问题。一方面却是知识的局限性,毕竟当处于一种知识结构底层时,很难甄别上层内容的正确性。也就是对于不了解的内容,你是无法判断其合理性的。这时候书本应该是一个了解信息的好办法,其次是官方网站,其次才是专业博客,最后才普通博文。

之前提到过软件开发是一种实施细节,而非是一种知识。这种实施细节对于开发人员是十分不友好的,因为技术一直在更细迭代,实施细节一直在变换,开发人员也要花费精力不断的去了解这些细节,因为如果不了解实施细节的话,是无法进行软件开发的。并且这些实施细节换一个平台,换一个工具可能就并不管用了。私以为,开发人员核心竞争力应该是学习能力,解决问题的思维方式,还有就是扎实的专业基础。这几个方面也是我一直试图去提升的能力。

Talk is cheap. Show me the code.

上面讲了那么多,其实只是一个关于方法论的思考。而事实上,Linus Torvalds的这句“Talk is cheap. Show me the code”才更加直观,能说算什么,给我看看代码这句话真的很实在,现实就是如此,能够代表一个人的不就是作品嘛,比起我会做事什么,更有用的是我已经做到了什么。

代码能力是一个开发人员的基础,在软件行业也不讲究什么花里胡哨,有能力就上,没能力就下,这是一个既真实又残酷的事实。所以多写一些有用的代码,少看一些没用的鸡汤。我个人的规划也是如此,如果以后写文章的话尽量附上代码,详尽内容细节。泛泛而谈确实没有太多意思。

以上。

原文地址:https://www.cnblogs.com/small-world/p/11407609.html

时间: 2024-10-31 01:44:17

学习杂谈:费曼学习法和show me the code的相关文章

[Go语言]从Docker源码学习Go——init()方法和identifier首字母大小写区分

init()方法 如果想在一个go文件里,进行一些初始化的工作,可以把代码放到init()方法中. init()方法先被执行. func init() { // initialization of package } 注意:它是没有输入参数和返回参数的. identifier首字母大小写区分 当identifier(比如constant,variable,type,function,struct field,...)的命名首字母是大写的话,那表示这个identifier在包外是可以见的: 类似p

用Spark学习FP Tree算法和PrefixSpan算法

在FP Tree算法原理总结和PrefixSpan算法原理总结中,我们对FP Tree和PrefixSpan这两种关联算法的原理做了总结,这里就从实践的角度介绍如何使用这两个算法.由于scikit-learn中没有关联算法的类库,而Spark MLlib有,本文的使用以Spark MLlib作为使用环境. 1. Spark MLlib关联算法概述 在Spark MLlib中,也只实现了两种关联算法,即我们的FP Tree和PrefixSpan,而像Apriori,GSP之类的关联算法是没有的.而

现代C++新四大名著及C++学习杂谈

现代C++新四大名著及C++学习杂谈 翻开自己的博客,在2012年8月我曾经写过如下一篇博客, <<C++学习的方法以及四大名著>> http://www.cnblogs.com/pugang/archive/2012/08/17/2643710.html 想想时间过得真快,转眼5年了,在这5年中C++也发生了翻天覆地的变化.2012年的时候C++11刚刚确定不久,很多技术资料也没有来得及更新,编译器也没有完全支持主流的C++11新特性,自然很多公司对于新版本的C++使用也是持有一

最好的学习办法 | 打基础、模仿、试错、费曼学习法 | 短时烧脑

学习能力的高低,直接影响到学习效率,比如一个新的知识点,有人学习十分钟就掌握了,有人学习一个星期都掌握不了.学习能力强,相比于学习能力差的人,可以大幅地节省时间成本. 学习能力强,一般被叫作"聪明",而学习能力弱一般被叫作"笨拙".很多企业,都希望找一个聪明的员工,除了忠诚度.自驱动之类的行为指标外. 所以,不管是从效率还是从就职优势来说,提高学习能力都是很重要的事情. 提高学习能力有很多维度可以考虑,其中一个维度就是学习办法,一个好的学习办法有利于提高学习能力.

费曼学习法

背景: 费曼学习法的灵感源于诺贝尔物理奖获得者理查德•费曼(Richard Feynman),运用费曼技巧,你只需花上20分钟就能深入理解知识点,而且记忆深刻,难以遗忘. 知识有两种类型,我们绝大多数人关注的都是错误的那类. 第一类知识注重了解某个事物的名称. 第二类知识注重了解某件事物. 这可不是一回事儿.著名的诺贝尔物理学家理查德·费曼(Richard Feynman)能够理解这二者间的差别,这也是他成功最重要的原因之一.事实上,他创造了一种学习方法,确保他会比别人对事物了解的更透彻. 费曼

费曼学习法的浅显理解

关于费曼学习法的浅显理解 概念: 费曼学习法是一种我正在使用的学习法,一个人A学到了或理解了一个自己以前接触或者没接触过的知识点B(理解的浅显含义:A通过B推出D结论)可以此人尽自己最大能力将这个知识点阐述于另外一个人C,C可以达到推出D结论地步.这是我的理解方式于费曼学习法 图示 关键 此学习法的关键在于三个词,简述 类比 迭代. 笔者自己得到的关键词组合便是,学习一次概念之后的结果,用简短的语言将知识点讲述出来,通过自己想起来简单的例子去形象化概念,听者听不懂的时候,对这个听不懂的地方进行查

全球公认的高效学习方法——费曼学习法

你是否曾幻想读一遍书就记住所有的内容?是否想学习完一项技能就马上达到巅峰水平?除非你是天才,不然这是不可能的.对于大多数的普通人来说,可以通过死记硬背来达到学习的目的,但效率低下.当然,也可以通过优秀的学习法来进行学习,比如今天讲的“费曼学习法”,“思维导图学习法”,“西蒙学习法”,“SQ3R 阅读法” 可以将你的学习效率极大的提高. 一.费曼学习法 Feynman Technique 费曼学习法是由加拿大物理学家费曼所发明的一种高效的学习方法,费曼本身是一个天才,13岁自学微积分,24岁加入曼

世界上最好的学习法:费曼学习法

世界上最好的学习法:费曼学习法 你是否曾幻想读一遍书就记住所有的内容?是否想学习完一项技能就马上达到巅峰水平?除非你是天才,不然这是不可能的.对于大多数的普通人来说,可以通过笨办法(死记硬背)来达到学习的目的,但效率低下.当然,也可以通过优秀的学习法来进行学习,比如今天讲的“费曼学习法”,可以将你的学习效率极大的提高. 费曼学习法是由加拿大物理学家费曼所发明的一种高效的学习方法,费曼本身是一个天才,13岁自学微积分,24岁加入曼哈顿计划(核武器计划):而Google创始人谢尔盖布林都在使用的学习

DNN结构构建:NAS网络结构搜索和强化学习、迁移学习

DNN结构构建:NAS网络结构搜索和强化学习.迁移学习 2018年05月14日 15:23:20 wishchin 阅读数 2537更多 分类专栏: ANN/DNN/纤维丛 前言 谷歌推出的NASNet架构,用于大规模图像分类和识别.NASNet架构特点是由两个AutoML设计的Layer组成——Normal Layer and Reduction Layer,这样的效果是不再需要相关专家用human knowledge来搭建卷积网络架构,直接用RNN把Hyperparameter计算出来,这样