Kaggle新手入门之路

学完了Coursera上Andrew Ng的Machine Learning后,迫不及待地想去参加一场Kaggle的比赛,却发现从理论到实践的转变实在是太困难了,在此记录学习过程.

一:安装Anaconda

教程大多推荐使用Jupyter Notebook来进行数据科学的相关编程,我们通过Anaconda来安装Jupyter Notebook和需要用到的一些python库,按照以下方法重新安装了Anaconda,平台Win10

Anaconda安装

二:Jupyter Notebook

参照以下两篇文章配置好了Jupyter Notebook,学习了相关的基本操作

Jupyter可以做哪些事情

Jupyter Notebook常用快捷键

  • 启动:在cmd或Anaconda Prompt下输入jupyter notebook
  • 新建:Files页面右侧‘New‘
  • 运行当前cell:Ctrl+Enter
  • 代码补全:Tab
  • 查看方法文档:Shift+Tab
  • 复选cell:Shift+上下键
  • 删除cell:双击D
  • 撤销删除:Z
  • 保存当前Notebook:S
  • 关闭文档:Home页面选中文档后‘Shutdown‘
  • 关闭服务器:终端中按两次Ctrl+C
  • 显示matplotlib图表:%matplotlib inline

三:Numpy

numpy中文教程

官方文档

  • Numpy是一个用于进行数组运算的库
  • Numpy中最重要的对象是称为ndarray的N维数组类型
  • 一般使用如下语句导入:import numpy as np
  • 创建数组:numpy.array(object, dtype = None, copy = True, order = None, subok = False, ndmin = 0)
  • 可以用np.dtype()定义结构体
  • 数组维度:ndarray.shape
  • 数组维数:ndarray.ndim
  • 调整数组维度:ndarray.reshape(shape)
  • 创建未初始化数组:numpy.empty(shape, dtype = float, order = ‘C‘)
  • 创建零数组:numpy.zeros(shape, dtype = float, order = ‘C‘)
  • 创建一数组:numpy.ones(shape, dtype = float, order = ‘C‘)
  • 用现有数据创建数组:numpy.asarray(a, dtype = None, order = None)
  • 按数值范围创建数组:numpy.arange(start = 0, stop, step = 1, dtype),类似的有linspace()和logspace()
  • 切片:b=a[start:stop:step],可以用...代表剩余维度
  • 整数索引:每个整数数组表示该维度的下标值,b=a[[r1, r2], [c1, c2]]
  • 布尔索引:返回是布尔运算的结果的对象,可以用&或|连接()分隔的条件
  • 在 NumPy 中可以对形状不相似的数组进行操作,因为它拥有广播功能,我的理解是,广播是一种维度的单方向拉伸
  • 数组迭代:numpy.nditer(ndarray)或ndarray.flat
  • 数组长度:len(arr)
  • 访问第i个元素:一维数组用a[i],多维数组用a.flat[i]
  • 数组转置:ndarray.T
  • 数组分割:numpy.split(ary, indices_or_sections, axis),第二项的值为整数则表明要创建的等大小的子数组的数量,是一维数组则表明要创建新子数组的点。
  • 追加值:numpy.append(arr, values, axis)
  • 插入值:numpy.insert(arr, idx, values, axis)
  • 删除值:numpy.delete(arr, values, axis)
  • 去重数组:numpy.unique(arr, return_index, return_inverse, return_counts)
  • 字符串函数:numpy.char类
  • 三角函数:numpy.sin(arr),numpy.cos(arr),numpy.tan(arr)
  • 四舍五入:numpy.around(arr,decimals)
  • 向下取整:numpy.floor(arr)
  • 向上取整:numpy.ceil(arr)
  • 取倒数:numpy.reciprocal(arr),注意对于大于1的整数返回值为0
  • 幂运算:numpy.power(arr,pow),pow可以是一个数,也可以是和arr对应的数组
  • 取余:numpy.mod(a,b),b可以是一个数,也可以是和a对应是数组
  • 最小值:numpy.amin(arr,axis)
  • 最大值:numpy.amax(arr,axis)
  • 数值跨度:numpy.ptp(arr,axis)
  • 算术平均值:numpy.mean(arr,axis)
  • 标准差:numpy.std(arr)
  • 方差:numpy.var(arr)
  • 副本的改变会影响原数组(赋值),视图的改变不会影响原数组(ndarray.view(),切片,ndarray.copy())
  • 线性代数:numpy.linalg模块

四:Matplotlib

官方教程

官方教程中文翻译

matplotlib入门教程

Jupyter Notebook Viewer的matplotlib lecture

建议先看官方教程,通过折线图熟悉基本操作,然后看入门教程第三章到第六章掌握各种图的画法

  • 一般使用如下语句导入:import matplotlib.pyplot as plt
  • 绘图:plt.plot(x,y),可选color,marker,label等参数,默认的x坐标为从0开始且与y长度相同的数组,x坐标与y坐标一般使用numpy数组,也可以用列表
  • 设置线条:plt.setp()
  • 轴名称:plt.xlable(‘str‘),plt.ylable(‘str)
  • 添加文本:plt.txt(xpos,ypos,‘str‘)
  • 添加格子:plt.grid(True)
  • 展示图片:plt.show()
  • 图题:plt.title(‘str‘)
  • 图示:plt.legend(),结合plot()中的label参数使用
  • 获取子图:plt.sublot(nrows,ncols,index)或plt.subplot2grid((nrows,ncols),(rows,cols)),可选colspan和rowspan属性
  • 创建画布:plt.figure()
  • 数学表达式:TeX表达式
  • 非线性轴:plt.xscale(‘scale‘),plt.yscale(‘scale‘),可选参数log,symlog,logit等
  • 填充颜色:plt.fill(x,y)和plt.fill_between(x,y,where=...)
  • 条形图:plt.bar(x,y),注意多个条形图的默认颜色相同,应选择不同的颜色方便区分
  • 直方图:plt.hist(x,bins),直方图是一种显示区段内数据数量的图像,x为数据,bins为数据区段,可选histtype,rwidth等属性
  • 散点图:plt.scatter(x,y),散点图通常用于寻找相关性或分组,可选color,marker,label等属性
  • 堆叠图:plt.stackplot(x,y1,y2,y3...),堆叠图用于显示部分对整体随时间的关系,通过利用plt.plot([],[],color,label)添加与堆叠图中颜色相同的空行,可以使堆叠图的意义更加清晰,可选colors等属性
  • 饼图:plt.pie(slice),饼图用于显示部分对整体的关系,可选labels,colors,explode,autupct等属性

五:Pandas

10 Minutes to Pandas

十分钟搞定pandas(上文翻译版)

利用python进行数据分析

上面两个教程用于速成,下面这本书是pandas的作者写的,用于仔细了解

  • 一般使用如下语句导入:import pandas as pd
  • Pandas是基于NumPy 的一种工具,提供了一套名为DataFrame的数据结构,比较契合统计分析中的表结构,可用Numpy或其它方式进行计算
  • 创建Series:pd.Series=(data,index),Series是一维数组
  • 创建DataFrame:pd.DataFrame(data,index,colums),也可以传递一个字典结构来填充data和colums,DataFrame类似于二维表格,简称df
  • 查看df头尾行:df.head(i),df.tail(i),如不填参数则分别返回除了前五行/倒数前五行的内容
  • 查看索引/列/数据:df.index,df.colums,df.values
  • 快速统计汇总:df.descrbe()
  • 数据转置:df.T
  • 按轴排序:df.sort_index(axis=0,ascending=True)
  • 按值排序:df.sort_values(colums,axis=0,ascending=Ture)
  • 获取:df[‘columnname‘]或df.columnname,会返回某列
  • 对行切片:df[start:stop:step],利用df[n:n+1]即可获取某行
  • 通过标签选择某行:df.loc[index,columname]
  • 通过位置选择某行:df.iloc[indexpos,columnpos],df.iloc[i,:]可获取一行,df.iloc[:,i]可获取一列
  • 布尔索引:df[bool],可以对单独的列进行判定,也可以对整个DataFrame进行判定
  • 在pandas中使用np.nan代替缺失值,这些值不会被包含在计算中
  • 对index和columns进行增删改:df.reindex(index,columns)
  • 去掉含有缺失值的行:df.dropna(how=‘any‘),可以选择how=‘all‘只去掉所有值均缺失的行
  • 补充缺失值:df.fillna(value)
  • 数据应用:df.apply(func),可以是现有函数也可以是lambda函数
  • 连接:pd.contact(obj),obj可以是Series,DataFrame,Panel
  • 合并:pd.merge(left,right)
  • 追加:df.append(data)
  • 分组:df.groupby(columnname).func(),通常为分组/执行函数/组合结果
  • 时间:pandas有着重采样等丰富的时间操作
  • 写入CSV文件:df.to_csv(filename)
  • 读取CSV文件:df.read_csv(filename),结果为DataFrame

六:Scikit-learn

python机器学习实践与kaggle实战

Sklearn快速入门

官方文档

官方文档中文翻译

  • sklearn 把所有机器学习的模式整合统一起来了,学会了一个模式就可以通吃其他不同类型的学习模式
  • 步骤一般分为导入模块-创建数据-建立模型-训练-预测

特征工程:

在机器学习中,很重要的一步是对特征的处理,我们参考下文,先给出一些常用的特征处理方法在sklearn中的用法

使用sklearn做单机特征工程

  • 标准化(需要使用距离来度量相似性或用PCA降维时):

    from sklearn.preprocessing import StandardScaler
    data_train = StandardScaler().fit_transform(data_train)
    data_test = StandardScaler().fit_transform(data_test)
  • 区间缩放:

    from sklearn.preprocessing import MinMaxScaler
    data = MinMaxScaler().fit_transform(data)
  • 归一化(利于计算梯度下降,消除量纲):

    from sklearn.preprocessing import Normalizer
    data = Normalizer().fit_transform(data)
  • 定量特征二值化(大于epsilon为1,小于等于epsilon为0):

    from sklearn.preprocessing import Binarizer
    data = Binarizer(threshold = epsilon).fit_transform(data)
  • 类别型特征转换为数值型特征:

实际上就是保留数值型特征,并将不同的类别转换为哑变量(独热编码),可参考:python中DictVectorizer的使用

from sklearn.feature_extraction import DictVectorizer
vec = DictVectorizer(sparse = False)
X_train = vec.fit_transform(X_train.to_dict(orient = ‘recoed‘))
  • 卡方检验:

    from sklearn.feature_selection import SelectKBest
    from sklearn.feature_selection import chi2
    #选择K个最好的特征,返回选择特征后的数据
    skb = SelectKBest(chi2, k = 10).fit(X_train, y_train)
    X_train = skb.transform(X_train)
    X_test = skb.transform(X_test)
  • 互信息法:

    from sklearn.feature_selection import SelectKBest
    from minepy import MINE
    
    #由于MINE的设计不是函数式的,定义mic方法将其为函数式的,返回一个二元组,二元组的第2项设置成固定的P值0.5
    def mic(x, y):
        m = MINE()
        m.compute_score(x, y)
        return (m.mic(), 0.5)
    
    #选择K个最好的特征,返回特征选择后的数据
    SelectKBest(lambda X, Y: array(map(lambda x:mic(x, Y), X.T)).T, k=2).fit_transform(iris.data, iris.target)
  • 主成分分析(PCA):

    from sklearn.decomposition import PCA
    estimator = PCA(n_components=2)#几个主成分
    X_pca = estimator.fit_transform(X_data)

学习算法:

划分训练集和测试集:

from sklearn.cross_validation import train_test_split
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size = 0.25, random_state = 33)

训练:

from sklearn import LearnAlgorithm#导入对应的学习算法包
la = LearnAlgorithm()
la.fit(X_train, y_train)
y_predict = la.predict(x_test)

随机梯度下降法(SGD):

from sklearn.linear_model import SGDClassifier
sgd = SGDClassifier()
from sklearn.linear_model import SGDRegressor
sgd = SGDRegressor(loss=‘squared_loss‘, penalty=None, random_state=42)

支持向量机(SVM):

支持向量分类(SVC):

from sklearn.svm import SVC
svc_linear = SVC(kernel=‘linear‘)#线性核,可以选用不同的核

支持向量回归(SVR):

from sklearn.svm import SVR
svr_linear = SVR(kernel=‘linear‘)#线性核,可以选用不同的核如poly,rbf

朴素贝叶斯(NaiveBayes):

from sklearn.naive_bayes import MultinomialNB
mnb = MultinomialNB()

决策树(DecisionTreeClassifier):

from sklearn.tree import DecisionTreeClassifier
dtc = DecisionTreeClassifier(criterion=‘entropy‘, max_depth=3, min_samples_leaf=5)#最大深度和最小样本数,用于防止过拟合

随机森林(RandomForestClassifier):

from sklearn.ensemble import RandomForestClassifier
rfc = RandomForestClassifier(max_depth=3, min_samples_leaf=5)

梯度提升树(GBDT):

from sklearn.ensemble import GradientBoostingClassifier
gbc = GradientBoostingClassifier(max_depth=3, min_samples_leaf=5)

极限回归森林(ExtraTreesRegressor):

from sklearn.ensemble import ExtraTreesRegressor()
etr = ExtraTreesRegressor()

评估:

from sklearn import metrics
accuracy_rate = metrics.accuracy_score(y_test, y_predict)
metrics.classification_report(y_test, y_predict, target_names = data.target_names)#可以获取准确率,召回率等数据

K折交叉检验:

from sklearn.cross_validation import cross_val_score,KFold
cv = KFold(len(y), K, shuffle=True, random_state = 0)
scores = cross_val_score(clf, X, y, cv = cv)

from sklearn.cross_validation import cross_val_score
scores = cross_val_score(dt, X_train, y_train, cv = K)

注意这里的X,y需要为ndarray类型,如果是DataFrame则需要用df.values和df.values.flatten()转化

Pipeline机制:

pipeline机制实现了对全部步骤的流式化封装和管理,应用于参数集在数据集上的重复使用.Pipeline对象接受二元tuple构成的list,第一个元素为自定义名称,第二个元素为sklearn中的transformer或estimator,即处理特征和用于学习的方法.以朴素贝叶斯为例,根据处理特征的不同方法有以下代码:

clf_1 = Pipeline([(‘count_vec‘, CountVectorizer()), (‘mnb‘, MultinomialNB())])
clf_2 = Pipeline([(‘hash_vec‘, HashingVectorizer(non_negative=True)), (‘mnb‘, MultinomialNB())])
clf_3 = Pipeline([(‘tfidf_vec‘, TfidfVectorizer()), (‘mnb‘, MultinomialNB())])

特征选择:

from sklearn import feature_selection
fs =  feature_selection.SelectPercentile(feature_selection.chi2, percentile=per)
X_train_fs = fs.fit_transform(X_train, y_train)

我们以特征选择和5折交叉检验为例,实现一个完整的参数选择过程:

from sklearn import feature_selection
from sklearn.cross_validation import cross_val_score
percentiles = range(1,100)
results= []
for i in percentiles:
    fs =  feature_selection.SelectPercentile(feature_selection.chi2, percentile=i)
    X_train_fs = fs.fit_transform(X_train, y_train)
    scores = cross_val_score(dt, X_train_fs, y_train, cv = 5)
    results = np.append(results, scores.mean())

opt = np.where(results == results.max())[0]
fs = feature_selection.SelectPercentile(feature_selection.chi2, percentile=opt)
X_train_fs = fs.fit_transform(X_train, y_train)
dt.fit(X_train_fs, y_train)
y_predict = dt.predict(x_test)

超参数:

超参数指机器学习模型里的框架参数,在竞赛和工程中都非常重要

集成学习(Ensemble Learning):

通过对多个模型融合以提升整体性能,如随机森林,XGBoost,参考下文:

Ensemble Learning-模型融合-Python实现

多线程网格搜索:

用于寻找最优参数,可参考下文:

Sklearn-GridSearchCV网格搜索

from sklearn.cross_validation import train_test_split
from sklearn.grid_search import GridSearchCV
X_train, X_test, y_train, y_test = train_test_split(news.data[:3000], news.target[:3000], test_size=0.25, random_state=33)

from sklearn.svm import SVC
from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.pipeline import Pipeline

clf = Pipeline([(‘vect‘, TfidfVectorizer(stop_words=‘english‘, analyzer=‘word‘)), (‘svc‘, SVC())])

parameters = {‘svc__gamma‘: np.logspace(-2, 1, 4), ‘svc__C‘: np.logspace(-1, 1, 3)}

gs = GridSearchCV(clf, parameters, verbose=2, refit=True, cv=3, n_jobs=-1)

%time _=gs.fit(X_train, y_train)
gs.best_params_, gs.best_score_
print gs.score(X_test, y_test)

七:Kaggle

学习完以上内容后,可以参考下文,已经可以完成一些较为简单的kaggle contest了

机器学习系列(3)_逻辑回归应用之Kaggle泰坦尼克之灾

原文地址:https://www.cnblogs.com/limitlessun/p/8489749.html

时间: 2024-08-09 11:20:48

Kaggle新手入门之路的相关文章

【LaTeX】E喵的LaTeX新手入门教程(2)基础排版

换了块硬盘折腾了好久..联想的驱动真坑爹.前情回顾[LaTeX]E喵的LaTeX新手入门教程(1)准备篇文档框架嗯昨天我们已经编写了一个最基本的文档,其内容是这样的:\documentclass{article}\begin{document}XXX is a SB.\end{document}这个文档呢其实是分为两部分的:一部分是\begin{document}之前的那部分也就是第一行,这一部分我们称之为导言区.导言区的内容可以不只一行,它的作用是完成文档的基础设定.比如在这个文档中,我们使用

Android新手入门2016(16)--画图

本文来自肥宝传说之路,引用必须注明出处! 画图设计到图片的格式,有空可以看看图片资源各种格式.了解一下图片格式,对学习有用的.而且我面试别人的时候也很喜欢问这个问题,哈哈. 先看个图. 直接看代码吧,注释很详细了. activity_hello_world.xml <?xml version="1.0" encoding="utf-8"?> <LinearLayout xmlns:android="http://schemas.andro

【原创】新手入门一篇就够:从零开发移动端IM

一.前言 IM发展至今,已是非常重要的互联网应用形态之一,尤其移动互联网时代,它正以无与论比的优势降低了沟通成本和沟通代价,对各种应用形态产生了深远影响. 做为IM开发者或即将成为IM开发者的技术人员,IM的价值和重要性不言自明.但从技术实现来说,IM系统的开发(尤其是移动端IM)还是存在许多技术难点和坑点的.也正因如此,优质的IM开发相关的资料.实践性成果,对于没有太多技术储备的新手来说,尤其难以获得. 本文将以新手的视角引导你阅读相关文章,以便为从零开发一个移动端IM做好方方面面的知识准备:

小猪的Android入门之路 Day 5 - part 2

小猪的Android入门之路 Day 5 - part 2 Activity片段:Fragment(碎片)                                  ------转载请注明出处:coder-pig 本节引言: 在part 1中我们对android的基本单元Activity进行了详细的解析,而在part 2中我们将会讲解 Activity片段:Fragment(碎片),一开始是为了简化大屏幕手机或者平板电脑的UI设计,但是现在也普遍用于 普通手机,比如Fragment +

Gulp新手入门教程

Gulp 是一个自动化工具,前端开发者可以使用它来处理常见任务: 搭建web服务器 文件保存时自动重载浏览器 使用预处理器如Sass.LESS 优化资源,比如压缩CSS.JavaScript.压缩图片 当然Gulp能做的远不止这些.如果你够疯狂,你甚至可以使用它搭建一个静态页面生成器.Gulp真的足够强大,但你必须学会驾驭它. 这是这篇文章的主要目的.帮助你了解Gulp的基础用法,助你早日完成一统天下的大业. 在我们深入了解之前,我们先来说说为什么是Gulp. 为什么是Gulp? 类似Gulp的

javascript新手入门必读书籍推荐

在当下,极多的程序员是通过自学来完成入门以及提升的.对于JavaScript的学习来说,同样不例外.许多新手入门javascript选择通过视频教程或者论坛交流的方式进行学习,这种方式固然较为轻松和便捷,但在知识的获取上有些碎片化,对于新手来说不是很好. 在javascript的入门阶段,通过书籍来学习对于新手来说才是最好的手段.书籍的学习固然比较枯燥,但是也是最权威,最系统化的,对于新手来说能够快速的完成基础知识的奠基,而对于之后进一步的提升也是大有裨益.这里笔者就结合自身经验为各位javas

新手入门:微信小程序--从入门到精通宝典

<ignore_js_op> 作为新手入门的宝典,我们整理了本论坛各种有价值的内容,并按循序渐进的方式呈现给大家.大家可以按顺序一篇一篇的攻克本帖中的内容,也可以作为字典,跳转至关注的内容去学习.希望大家在这里能快速成长,成为微信小程序开发的顶尖高手. 本帖的内容结构如下:一:小程序之张小龙全面阐述及思维导图:二:微信小程序官方地址三:如何学习微信小程序四:新手入门系列教程集合五:公司开发前必读六:个人开发前必读 一:小程序之张小龙全面阐述及思维导图: 小程序之张小龙全面阐述:于1月9日上线(

WordPress建站 新手入门

WordPress建站 新手入门教程系列 1. WordPress入门 之 什么是WordPress? 2. WordPress入门 之 搭建WordPress站点需要什么条件? 3. WordPress入门 之 如何安装WordPress 4. WordPress入门 之 USBWebserver 快速搭建本地PHP环境 5. WordPress入门 之 WordPress基本设置 6. WordPress入门 之 创建和管理文章分类 7. WordPress入门 之 鲜为人知的后台“小私密”

2015-2:新手入门之菜鸟也要用kaili

前沿:今天有些抽筋,看了看小站的视频(百度搜关键词:百度贴吧小站kali视频),突然有些丹痒痒,决定玩玩kali,这几天一直在看CCNP的还有RHCA的一些教程,感觉需要学习的还是挺多的,唉~关键是我比较手残,这次实验总的来说比较曲折,安装前我还特意看了看优酷上关于安装kali到本机的视频,主要是虚拟机玩起来不怎么拉风,在一个,硬盘还有一百多G空着,我习惯把一些资料放在移动硬盘,本机主要安装一些软件之类的.虚拟机下操作就一个重点,安装以后立刻快照,安好各种工具以后立刻快照,一个白的,一个实用的出