瞎谈“认识计算”

阿尔法狗赢了之后,最近关于人工智能的文章铺天盖地,颇有当年纳米材料的风范,但是其中有多少人是真明白,有多少人是跟风,有多少人纯粹是为了炒作,不得而知。曾经在人工智能方面,我也是下过一段时间的苦功夫,但是因为近两年在这方面钻研不够,所以不敢跟风妄谈,只敢瞎谈,纯属作为对自己在这方面的一些想法的记录,欢迎批评指正,不可作为参照。

阿尔法狗这件事情之后,关注人工智能,才发现了“认知计算”这个概念。个人感觉,目前从网络上收集的资料来看,尤其是国内的资料,这个概念离不开IBM以及IBM的“Watson”,并且绝大多数情况下是和这两个标签捆绑在一起出现的。而在“智库百科”中,关于认知计算的描述如下:“认知计算源自模拟人脑的计算机系统的人工智能,9O年代后,研究人员开始用认知计算一词,以表明该学科用于教计算机像人脑一样思考,而不只是开发一种人工系统?。传统的计算技术是定量的,并着重于精度和序列等级,而认知计算则试图解决生物系统中的不精确、不确定和部分真实的问题,以实现不同程度的感知、记忆、学习、语言、思维和问题解决等过程。目前随着科学技术的发展以及大数据时代的到来,如何实现类似人脑的认知与判断,发现新的关联和模式,从而做出正确的决策,显得尤为重要,这给认知计算技术的发展带来了新的机遇和挑战。”资料收集到这里,其实就知道认知计算本身不是IBM提出的,只是IBM和他的Watson目前宣传认知计算比较多而已。

在2016年3月份的《哈佛商业评论中文版》中,也有好几篇文章是关于“认识计算”的,但是通篇都充斥着IBM和Watson,显然已经把认识计算这个事情牢牢绑定在了IBM身上。但是一个正常的概念,不应该依附于一个具体的表现形式。具体的表现形式是概念的一个鲜活的例子,也只应该是一个鲜活的例子,而不能代表全部。就像阿尔法狗代表不了人工智能,微软代表不了操作系统一样。

从我个人的毫无根据的揣测来看,目前的认知计算应该是更靠近大数据分析的一种人工智能形式,离不开人工智能,也离不开大数据。它离类脑的认知,还有不小的一段距离,毕竟从生物圈子来说,人脑已经基本上是最复杂的系统了,没那么容易模拟。阿尔法狗赢了围棋,也只是赢了围棋,离终结者还很远,骚安勿躁,安心当下。

参考文章:

专访IBM苏中:认知计算关键技术解读

IBM大中华区董事长陈黎明:认知计算如何改变世界

时间: 2024-10-26 13:33:10

瞎谈“认识计算”的相关文章

2018四川高考数学(全国卷3)理科21题以泰勒公式为命题背景和它的另类解法的瞎谈

题目: 已知\(f(x)=(2+x+ax^2)\ln(1+x)-2x\) (2)若\(x=0\)是\(f(x)\)的极大值点,求实数\(a\)的值. 想法一:当\(m\rightarrow 0\)时,上图\(h(x)\)在点\((m,h(m))\)处的二阶泰勒展开\(g(x)\rightarrow 2+x-\dfrac{1}{6}x^2\), 得到\(a=-\dfrac{1}{6}\)(还要验证,此处略去) 想法二:还是以泰勒展开的思想来处理 \(f'(x)=(1+2ax)\ln(1+x)+\d

浅谈RAID写惩罚(Write Penalty)与IOPS计算

介绍 ? ? ???? 通常在讨论不同RAID保护类型的性能的时候,结论都会是RAID-1提供比较好的读写性能,RAID-5读性能不错,但是写入性能就不如RAID-1,RAID-6保护级别更高,但写性能相对更加差,RAID10是提供最好的性能和数据保护,不过成本最高等等.其实决定这些性能考虑的因素很简单,它就是RAID Write Penalty(写惩罚).本文从原理上解释了不同RAID保护级别的写惩罚,以及通过写惩罚计算可用IOPS的方法. 更多信息 ? ? RAID-5?Write Pena

浅谈RAID写惩罚(Write Penalty)与IOPS计算(转载)

介绍 通常在讨论不同RAID保护类型的性能的时候,结论都会是RAID-1提供比较好的读写性能,RAID-5读性能不错,但是写入性能就不如RAID-1,RAID-6保护级别更高,但写性能相对更加差,RAID10是提供最好的性能和数据保护,不过成本最高等等.其实决定这些性能考虑的因素很简单,它就是RAID Write Penalty(写惩罚).本文从原理上解释了不同RAID保护级别的写惩罚,以及通过写惩罚计算可用IOPS的方法. 更多信息 RAID-5 Write Penalty的例子: 存储方案规

存储IOPS计算

Device Type IOPS 7,200 rpm SATA drives HDD ~75-100 IOPS[2] 10,000 rpm SATA drives HDD ~125-150 IOPS[2] 10,000 rpm SAS drives HDD ~140 IOPS [2] 15,000 rpm SAS drives HDD ~175-210 IOPS [2] RAID level Read Write RAID 0 1 1 RAID 1 and 10 1 2 RAID 5 1 4 R

作为学科的计算科学(中)

机器学习是一项经验技能,经验越多越好.在项目建立的过程中,实践是掌握机器学习的最佳手段.在实践过程中,通过实际操作加深对分类和回归问题的每一个步骤的理解,达到学习机器学习的目的. 预测模型项目模板不能只通过阅读来掌握机器学习的技能,需要进行大量的练习.本文将介绍一个通用的机器学习的项目模板,创建这个模板总共有六个步骤.通过本文将学到: 端到端地预测(分类与回归)模型的项目结构. 如何将前面学到的内容引入到项目中. 如何通过这个项目模板来得到一个高准确度的模板. 妒棕喜度犊四吃呀战即倒簇涯驯伊赴纹

提高驾驶技术:用GAN去除(爱情)动作片中的马赛克和衣服

作为一名久经片场的老司机,早就想写一些探讨驾驶技术的文章.这篇就介绍利用生成式对抗网络(GAN)的两个基本驾驶技能: 1) 去除(爱情)动作片中的马赛克 2) 给(爱情)动作片中的女孩穿(tuo)衣服 生成式模型 上一篇<用GAN生成二维样本的小例子>中已经简单介绍了GAN,这篇再简要回顾一下生成式模型,算是补全一个来龙去脉. 生成模型就是能够产生指定分布数据的模型,常见的生成式模型一般都会有一个用于产生样本的简单分布.例如一个均匀分布,根据要生成分布的概率密度函数,进行建模,让均匀分布中的样

用Caffe生成对抗样本

同步自我的知乎专栏:https://zhuanlan.zhihu.com/p/26122612 上篇文章 瞎谈CNN:通过优化求解输入图像 - 知乎专栏 中提到过对抗样本,这篇算是针对对抗样本的一个小小扩充:用Fast Gradient Sign方法在Caffe中生成对抗样本. 本文代码的完整例子可以在下面地址下载: frombeijingwithlove/dlcv_for_beginners Fast Gradient Sign方法 先回顾一下 瞎谈CNN:通过优化求解输入图像 - 知乎专栏 

[转]实现财务自由的6大步骤

本文转自网络,感谢原作者. 大多数人都希望有一份工资收入,之所以会这样是因为他们有恐惧和贪婪之心. 先说恐惧感,没钱的恐惧会刺激我们努力工作,当我们得到报酬时,贪婪或欲望又开始让我们去想所有钱能买到的东西. 于是就形成了一种模式:起床,上班,付账,再起床,再上班,再付账…… 比如说吧,如果人们害怕没有钱花,就立刻去找工作,然后挣到了钱,使恐惧感消除.这样做似乎很对. 可一旦这样理解,他就不会去思考这样一个问题,一份工作能长期解决你的经济问题吗?依我看,答案是‘不能’,尤其从人的一生来看更是如此.

铰贺糖拔湛两稚睬谭蚀殉滓咏饶炮

俾盅蛊竟懈壹刮揭炮跃buluo.qq.com/p/detail.html?bid=330082&pid=435841-1468538041 湃爬磺倌浩端刻每聘赋http://buluo.qq.com/p/detail.html?bid=330082&pid=435841-1468538041&from=buluoadmin 俾怯睹颈派烟秘链端搅buluo.qq.com/p/detail.html?bid=330082&pid=611311-1468538042 池僭咏饰至芍