机器学习算法及应用领域相关的中国大牛[转]

李航:http://research.microsoft.com/en-us/people/hangli/,是MSRA Web Search and Mining Group高级研究员和主管,主要研究领域是信息检索,自然语言处理和统计学习。近年来,主要与人合作使用机器学习方法对信息检索中排序,相关性等问题的研究。曾在人大听过一场他的讲座,对实际应用的问题抽象,转化和解决能力值得学习。
周志华:http://cs.nju.edu.cn/zhouzh/,是南京大学的杰青,机器学习和数据挖掘方面国内的领军人物,其好几个研究生都进入了美国一流高校如uiuc,cmu等学习和深造。周教授在半监督学习,multi-label学习和集成学习方面在国际上有一定的影响力。另外,他也是ACML的创始人。人也很nice,曾经发邮件咨询过一个naive的问题,周老师还在百忙之中回复了我,并对我如何发邮件给了些许建议。
杨强:http://www.cse.ust.hk/~qyang/,香港科技大学教授,也是KDD 2012的会议主席,可见功力非同一般。杨教授是迁移学习的国际领军人物,曾经的中国第一位acm全球冠军上交的戴文渊硕士期间就是跟他合作发表了一系列高水平的文章。还有,杨教授曾有一个关于机器学习和数据挖掘有意思的比喻:比如你训练一只狗,若干年后,如果它忽然有一天能帮你擦鞋洗衣服,那么这就是数据挖掘;要是忽然有一天,你发现狗发装成一个老太婆消失了,那么这就是机器学习。
李建中:http://db.hit.edu.cn/jianzhongli/,哈工大和黑大共有教授,是分布式数据库的领军人物。近年来,其团队在不确定性数据,sensor network方面也发表了一系列有名文章。李教授为人师表,教书育人都做得了最好,在圈内是让人称道的好老师和好学者。
唐杰:http://keg.cs.tsinghua.edu.cn/jietang/,清华大学副教授,是图挖掘方面的专家。他主持设计和实现的Arnetminer是国内领先的图挖掘系统,该系统也是多个会议的支持商。
张钹:http://www.csai.tsinghua.edu.cn/personal_homepage/zhang_bo/index.html 清华大学教授,中科院院士,。现任清华大学信息技术研究院指导委员会主任,微软亚洲研究院技术顾问等。主要从事人工智能、神经网络、遗传算法、智能机器人、模式识别以及智能控制等领域的研究工作。在过去二十多年中,张钹教授系统地提出了问题求解的商空间理
论。近年来,他建立了神经与认知计算研究中心以及多媒体信息处理研究组。该研究组已在图像和视频的分析与检索方面取得一些重要研究成果。
刘铁岩:http://research.microsoft.com/en-us/people/tyliu/ MSRA研究主管,是learning to rank的国际知名学者。近年逐步转向管理,研究兴趣则开始关注计算广告学方面。
王海峰:http://ir.hit.edu.cn/~wanghaifeng/ 信息检索,自然语言处理,机器翻译方面的专家,ACL的副主席,百度高级科学家。近年,在百度主持研发了百度翻译产品。
何晓飞:http://people.cs.uchicago.edu/~xiaofei/ 浙江大学教授,多媒体处理,图像检索以及流型学习的国际领先学者。
朱军:http://www.ml-thu.net/~jun/ 清华大学副教授,机器学习绝对重量级新星。主要研究领域是latent variable models, large-margin learning, Bayesian nonparametrics, and sparse learning in high dimensions. 他也是今年龙星计划的机器学习领域的主讲人之一。
吴军:http://www.cs.jhu.edu/~junwu/ 腾讯副总裁,前google研究员。著名《数学之美》和《浪潮之巅》系列的作者。
张栋:http://weibo.com/machinelearning 前百度科学家和google研究员,机器学习工业界的代表人物之一。
戴文渊:http://apex.sjtu.edu.cn/apex_wiki/Wenyuan_Dai 现百度凤巢ctr预估组leader。前ACM大赛冠军,硕士期间一系列transfer learning方面的高水平论文让人瞠目结舌。

时间: 2024-12-09 20:06:11

机器学习算法及应用领域相关的中国大牛[转]的相关文章

机器学习算法及应用领域相关的中国大牛

李航:http://research.microsoft.com/en-us/people/hangli/,是MSRA Web Search and Mining Group高级研究员和主管,主要研究领域是信息检索,自然语言处理和统计学习.近年来,主要与人合作使用机器学习方法对信息检索中排序,相关性等问题的研究.曾在人大听过一场他的讲座,对实际应用的问题抽象,转化和解决能力值得学习.周志华:http://cs.nju.edu.cn/zhouzh/,是南京大学的杰青,机器学习和数据挖掘方面国内的领

几个机器学习算法及应用领域相关的中国大牛

周志华:http://cs.nju.edu.cn/zhouzh/,是南京大学的杰青,机器学习和数据挖掘方面国内的领军人物,其好几个研究生都进入了美国一流高校如uiuc,cmu等学习和深造.周教授在半监督学习,multi-label学习和集成学习方面在国际上有一定的影响力.另外,他也是ACML的创始人.人也很nice,曾经发邮件咨询过一个naive的问题,周老师还在百忙之中回复了我,并对我如何发邮件给了些许建议. 杨强:http://www.cse.ust.hk/~qyang/,香港科技大学教授,

推荐几个机器学习算法及应用领域相关的中国大牛:(转)

http://emuch.net/html/201209/4842092.html 作者: just1do1it (站内联系TA)    发布: 2012-08-15 李航:http://research.microsoft.com/en-us/people/hangli/,是MSRA Web Search and Mining Group高级研究员和主管,主要研究领域是信息检索,自然语言处理和统计学习.近年来,主要与人合作使用机器学习方法对信息检索中排序,相关性等问题的研究.曾在人大听过一场他

利用机器学习算法寻找网页的缩略图

博客中的文章均为meelo原创,请务必以链接形式注明本文地址 描述一个网页 现在的世界处于一个信息爆炸的时代.微信.微博.新闻网站,每天人们在大海捞针的信息海洋里挑选自己感兴趣的信息.我们是如何判断哪条信息可能会感兴趣?回想一下,你会发现是标题.摘要和缩略图.通过标题.摘要和缩略图,就能够很好地猜测到网页的内容.打开百度搜索引擎,随便搜索一个关键字,每一条搜索结果也正是这三要素构成的. 那么一个自然的问题是搜索引擎是如何找到网页的标题.摘要和缩略图的呢. 寻找网页的标题其实是一个非常简单的问题.

Martin Wainwright:用统计机器学习算法,加速人工智能的普及

(上图为美国加州大学伯克利分校的教授Martin Wainwright) Martin Wainwright是国际著名的统计学和计算科学专家,作为美国加州大学伯克利分校的教授,他既任教于该校的统计学系也任教于该校的电子工程与计算科学(EE&CS)系,由此而具备了横跨数学与计算科学两个领域的独特观点与优势. 在2017年7月15日由顺丰科技.钛媒体和杉数科技共同举办的"AI与智慧物流圆桌论坛"上,Martin介绍了一种近两年来出现的新型统计机器学习算法Newton Sketch,

机器学习算法需要注意的一些问题

对于机器学习的实际运用,光停留在知道了解的层面还不够,我们需要对实际中容易遇到的一些问题进行深入的挖掘理解.我打算将一些琐碎的知识点做一个整理. 1 数据不平衡问题 这个问题是经常遇到的.就拿有监督的学习的二分类问题来说吧,我们需要正例和负例样本的标注.如果我们拿到的训练数据正例很少负例很多,那么直接拿来做分类肯定是不行的.通常需要做以下方案处理: 1.1 数据集角度 通过调整数据集中正负样本的比例来解决数据不平衡,方法有: 1.1.1 增加正样本数量 正样本本来就少,怎么增加呢?方法是直接复制

机器学习算法须要注意的一些问题

对于机器学习的实际运用.光停留在知道了解的层面还不够,我们须要对实际中easy遇到的一些问题进行深入的挖掘理解.我打算将一些琐碎的知识点做一个整理. 1 数据不平衡问题 这个问题是经常遇到的. 就拿有监督的学习的二分类问题来说吧.我们须要正例和负例样本的标注.假设我们拿到的训练数据正例非常少负例非常多,那么直接拿来做分类肯定是不行的. 通常须要做下面方案处理: 1.1 数据集角度 通过调整数据集中正负样本的比例来解决数据不平衡,方法有: 1.1.1 添加正样本数量 正样本本来就少,怎么添加呢?方

机器学习系列(9)_机器学习算法一览(附Python和R代码)

本文资源翻译@酒酒Angie:伊利诺伊大学香槟分校统计学同学,大四在读,即将开始计算机的研究生学习.希望认识更多喜欢大数据和机器学习的朋友,互相交流学习. 内容校正调整:寒小阳 && 龙心尘 时间:2016年4月 出处:http://blog.csdn.net/han_xiaoyang/article/details/51191386 http://blog.csdn.net/longxinchen_ml/article/details/51192086 声明:版权所有,转载请联系作者并注

简单易学的机器学习算法——AdaBoost

一.集成方法(Ensemble Method) 集成方法主要包括Bagging和Boosting两种方法,随机森林算法是基于Bagging思想的机器学习算法,在Bagging方法中,主要通过对训练数据集进行随机采样,以重新组合成不同的数据集,利用弱学习算法对不同的新数据集进行学习,得到一系列的预测结果,对这些预测结果做平均或者投票做出最终的预测.AdaBoost算法和GBDT(Gradient Boost Decision Tree,梯度提升决策树)算法是基于Boosting思想的机器学习算法.