机器学习---算法学习3

词向量:

将词语"嵌入"到一个N维空间,使得词语相近的词语放到相近的位置。

机器翻译类不类似于矩阵的变换?

谷歌出品的一个工具Word2Vec,用于入门。

句向量?段向量?文档向量?

很多事情向量化,可以解决很多问题。

传统的one-hot 编码的原来是,有多少个字就有多少个维度.

科[1,0,0,0,0,0,0,0]

学[0,1,0,0,0,0,0,0]

one hot -- >词向量表(全连接的大矩阵)-->输出(该词的矩阵)

Embedding层就是one hot 层。

时间序列:每次作预测都是一个序列, 序列每个时间点都有若干个属性,实际上是一个矩阵的输入。

时间递归神经网络(LSTM):专门用于解决序列类型的神经网络。

时间: 2024-12-30 12:29:12

机器学习---算法学习3的相关文章

机器学习算法学习---推荐系统的常用算法(一)

概括分类: 1)基于内容的推荐:这一类一般依赖于自然语言处理NLP的一些知识,通过挖掘文本的TF-IDF特征向量,来得到用户的偏好,进而做推荐.这类推荐算法可以找到用户独特的小众喜好,而且还有较好的解释性.这一类由于需要NLP的基础,本文就不多讲,在后面专门讲NLP的时候再讨论. 2)协调过滤推荐:本文后面要专门讲的内容.协调过滤是推荐算法中目前最主流的种类,花样繁多,在工业 界已经有了很多广泛的应用.它的优点是不需要太多特定领域的知识,可以通过基于统计的机器学习算法来得到较好的推荐效果.最大的

机器学习---算法学习

朴素贝叶斯公式 Hmm隐马尔科夫 动态规划: 线性回归: 逻辑回归(sigmoid):在线性组合的基础上加了个非线性的激活函数,用于解决二分类问题,softmax,用于解决多分类问题. 集成学习(连续模型):针对错误的模型进行训练,设置多个模型,每个模型都有不同的权重,逐层进行逻辑回归.或则其他逐层激活函数~ ,集成学习是一种学习策略,把组合的模型当作初始化模型,组合再组合,就是多层神经网络(MLP) 数学角度:矩阵运算与激活函数的层叠------f(...f(w2f(w1x+b1)+b2))

机器学习算法学习---处理分类问题常用算法(二)

k-近邻算法采用测量不同特征值之间的距离方法进行分类. 优点:精度高.对异常值不敏感.无数据输入假定. 缺点:计算复杂度高.空间复杂度高. 适用范围:数值型.标称型. 工作原理:存在一个样本数据集合(训练样本集),并且样本集中每个数据都存在标签.输入没有标签的新数据后,将数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本集中特征最相近数据的分类标签. python实现简单的KNN算法如下: KNN from numpy import * import operator def ge

机器学习算法学习---处理聚类问题常用算法(二)

DBSCAN(Density-Based Spatial Clustering of Applications with Noise,具有噪声的基于密度的聚类方法)是一种很典型的密度聚类算法,和K-Means,BIRCH这些一般只适用于凸样本集的聚类相 比,DBSCAN既可以适用于凸样本集,也可以适用于非凸样本集. DBSCAN的主要优点有: 1) 可以对任意形状的稠密数据集进行聚类,相对的,K-Means之类的聚类算法一般只适用于凸数据集. 2) 可以在聚类的同时发现异常点,对数据集中的异常点

机器学习算法学习---模型融合和提升的算法(二)

元算法(集成方法)是对其他算法进行组合的一种方式. 优点:泛化错误率低,易编码,可以应用在大部分分类器上,无参数调整. 缺点:对离群点敏感 适用数据:数值型.标称型 AdaBoost算法的具体步骤如下: 1. 给定训练样本集S,其中X和Y分别对应于正例样本和负例样本: T为训练的最大循环次数: 2. 初始化样本权重为1/n ,即为训练样本的初始概率分布: 3. 第一次迭代: (1) 训练样本的概率分布相当下,训练弱分类器: (2) 计算弱分类器的错误率: (3) 选取合适阈值,使得误差最小: (

郑捷《机器学习算法原理与编程实践》学习笔记(第六章 神经网络初步)6.3 自组织特征映射神经网路(SMO)

具体原理网址:http://wenku.baidu.com/link?url=zSDn1fRKXlfafc_tbofxw1mTaY0LgtH4GWHqs5rl8w2l5I4GF35PmiO43Cnz3YeFrrkGsXgnFmqoKGGaCrylnBgx4cZC3vymiRYvC4d3DF3 自组织特征映射神经网络(Self-Organizing Feature Map.也称Kohonen映射),简称为SMO网络,主要用于解决模式识别类的问题.SMO网络属于无监督学习算法,与之前的Kmeans算

机器学习算法中如何选取超参数:学习速率、正则项系数、minibatch size

机器学习算法中如何选取超参数:学习速率.正则项系数.minibatch size 本文是<Neural networks and deep learning>概览 中第三章的一部分,讲机器学习算法中,如何选取初始的超参数的值.(本文会不断补充) 学习速率(learning rate,η) 运用梯度下降算法进行优化时,权重的更新规则中,在梯度项前会乘以一个系数,这个系数就叫学习速率η.下面讨论在训练时选取η的策略. 固定的学习速率.如果学习速率太小,则会使收敛过慢,如果学习速率太大,则会导致代价

《机器学习算法原理与编程实践》学习笔记(一)

第一章 机器学习的基础 1.1编程语言与开发环境 1.1.1 Python 安装(略) 1.2.2 Python安装包的安装:可以选选择安装集成包anaconda(略) 1.1.3 IDE配置及安装测试 IDE选择UltraEdit高级文本编辑器,配置步骤如下: (1)选择"高级"-->"用户工具"命令,如图1.4所示. 图1.5 配置UltraEdit步骤1 (2)在如图1.5所示输入各项参数,然后单击"应用按钮" 图1.5 配置Ultr

从机器学习到学习的机器,数据分析算法也需要好管家

(上图为IBM大数据与分析事业部全球研发副总裁Dinesh Nirmal) 今年是莎士比亚逝世四百周年.在莎翁名剧<尤利乌斯·凯撒>中一个占卜师有这样一句没有上下文的预言:"请小心'三月'中", 凯撒听后不知道这句话是何意思,于是说让这个占卜师继续做梦吧.结果在三月十五日,凯撒被密谋暗杀.类似的,今天的预测算法可以告诉你一个预言,但却无法提供合适的上下文,这让人难以做出进一步行动的决策. 另一个关于预测算法的例子是在最新的<复仇者联盟3>中,出现了一个人工智能合