udacity 机器学习课程

MODE 众数

mean 均值

median 中位数

standard deviation 标准差

numpy:

    import numpy as np

    array_1 = np.array([[1, 2], [3, 4]], float)
    array_2 = np.array([[5, 6], [7, 8]], float)
    print array_1 + array_2
    print ""
    print array_1 - array_2
    print ""
    print array_1 * array_2

    array_1 = np.array([1, 2, 3], float)
    array_2 = np.array([[6], [7], [8]], float)
    print np.mean(array_1)
    print np.mean(array_2)
    print ""
    print np.dot(array_1, array_2)

np.dot

Pandas:

创建一个Series:

import pandas as pd
series = pd.Series([‘Dave‘, ‘Cheng-Han‘, ‘Udacity‘, 42, -1789710578])
print series
cuteness = pd.Series([1, 2, 3, 4, 5], index=[‘Cockroach‘, ‘Fish‘, ‘Mini Pig‘,
                                                 ‘Puppy‘, ‘Kitten‘])
print cuteness > 3
print ""
print cuteness[cuteness > 3]

创建一个数据框,DataFram

    data = {‘year‘: [2010, 2011, 2012, 2011, 2012, 2010, 2011, 2012],
            ‘team‘: [‘Bears‘, ‘Bears‘, ‘Bears‘, ‘Packers‘, ‘Packers‘, ‘Lions‘,
                     ‘Lions‘, ‘Lions‘],
            ‘wins‘: [11, 8, 10, 15, 11, 6, 10, 4],
            ‘losses‘: [5, 8, 6, 1, 5, 10, 6, 12]}
    football = pd.DataFrame(data)
    print football
    print football.dtypes
    print ""
    print football.describe()
    print ""
    print football.head()
    print ""
    print football.tail()
data = {‘year‘: [2010, 2011, 2012, 2011, 2012, 2010, 2011, 2012],
            ‘team‘: [‘Bears‘, ‘Bears‘, ‘Bears‘, ‘Packers‘, ‘Packers‘, ‘Lions‘,
                     ‘Lions‘, ‘Lions‘],
            ‘wins‘: [11, 8, 10, 15, 11, 6, 10, 4],
            ‘losses‘: [5, 8, 6, 1, 5, 10, 6, 12]}
football = pd.DataFrame(data)
print football[‘year‘]
print ‘‘
print football.year  # shorthand for football[‘year‘]
print ‘‘
print football[[‘year‘, ‘wins‘, ‘losses‘]]   #显示year,wins,losses,列

print football.iloc[[0]]    #显示第一行
print football[3:5]
print football[football.wins > 10]  #打印wins大于10的数据
print football[(football.wins > 10) & (football.team == "Packers")]
时间: 2024-10-16 15:24:36

udacity 机器学习课程的相关文章

udacity 机器学习课程 统计字数

"""Count words.""" def count_words(s, n): """Return the n most frequently occuring words in s.""" # TODO: Count the number of occurences of each word in s word = s.split() worddict = {} for item

Andrew Ng机器学习课程笔记(五)之应用机器学习的建议

Andrew Ng机器学习课程笔记(五)之 应用机器学习的建议 版权声明:本文为博主原创文章,转载请指明转载地址 http://www.cnblogs.com/fydeblog/p/7368472.html 前言 学习了Andrew Ng课程,开始写了一些笔记,现在写完第5章了,先把这5章的内容放在博客中,后面的内容会陆续更新! 这篇博客主要记录了Andrew Ng课程第五章应用机器学习的建议,主要介绍了在测试新数据出现较大误差该怎么处理,这期间讲到了数据集的分类,偏差,方差,学习曲线等概念,帮

Stanford机器学习课程笔记4-Kmeans与高斯混合模型

这一部分属于无监督学习的内容,无监督学习内容主要包括:Kmeans聚类算法.高斯混合模型及EM算法.Factor Analysis.PCA.ICA等.本文是Kmeans聚类算法.高斯混合模型的笔记,EM算法是适用于存在latent/hidden变量的通用算法,高斯混合模型仅仅是EM算法的一种特殊情况,关于EM算法的推到参见Andrew Ng讲义.由于公式太多,最近时间又忙实习的事就简单写一些,回头看时还得参考Ng的笔记和自己的打印Notes上的笔记,这里的程序对理解可能能提供另外的一些帮助. K

CMU机器学习课程-简介

CMU在机器学习研究领域大名鼎鼎,Tom Mitchell 即是该学校老师.学校开设有机器学习课程.如今机器学习应用的领域越来越广泛,之前传统的<机器学习>课程,现在分成一般非机器学习领域学生的<机器学习导论>和<高级机器学习>课程. 一.机器学习入门课程 链接:Introduction to Machine Learning 专门为非机器学习领域的学生开设. 二.机器学习高级课程 链接:Advanced Introduction to Machine Learning

斯坦福大学机器学习课程原始讲义(含公开课视频) (转载)

http://blog.csdn.net/v_july_v/article/details/7624837 斯坦福大学机器学习课程原始讲义 本资源为斯坦福大学机器学习课程原始讲义,为Andrew Ng 所讲,共计20个PDF,基本涵盖了机器学习中一些重要的模型.算法.概念,此次一并压缩上传分享给大家,朋友们可以直接点击右边下载:斯坦福大学机器学习课程原始讲义.zip. 斯坦福大学机器学习公开课视频 与之配套的则是斯坦福大学的机器学习公开课的视频: 1. 网易翻译的公开课视频:http://v.1

Andrew Ng机器学习课程笔记(二)之逻辑回归

Andrew Ng机器学习课程笔记(二)之逻辑回归 版权声明:本文为博主原创文章,转载请指明转载地址 http://www.cnblogs.com/fydeblog/p/7364598.html 前言 学习了Andrew Ng课程,开始写了一些笔记,现在写完第5章了,先把这5章的内容放在博客中,后面的内容会陆续更新! 这篇博客主要记录了Andrew Ng课程第二章逻辑回归的笔记,主要介绍了梯度下降法,逻辑回归的损失函数,多类别分类等等 简要介绍:逻辑回归算法是分类算法,我们将它作为分类算法使用.

Andrew Ng机器学习课程10补充

Andrew Ng机器学习课程10补充 VC dimension 讲到了如果通过最小化训练误差,使用一个具有d个参数的hypothesis class进行学习,为了学习好,一般需要参数d的线性关系个训练样本.到这里需要指出一点,这个结果是基于empirical risk minimization得到的,而对于那些大部分的discriminative的学习算法采用的通过最小化training error或者training error的近似值,前面推导的结论并不总是可以用,而对于non_ERM 学

Stanford机器学习课程笔记——神经网络的表示

Stanford机器学习课程笔记--神经网络的表示 1. 为什么要引入神经网络 其实这个问题等价与神经网络和之前的回归模型有什么区别,如果你没有学过其他机器学习算法的话.这个问题可以通过一个例子来说明:如果样本都是60*60的图像,那么每个样本的特征维数都是3600个,使用前面讲的线性回归模型,那么需要建立的参数个数就有3600的:如果是非线性回归模型,还要考虑高次项的情况,需要求解的参数就更加多了.此时的回归模型将会变得异常复杂,故我们需要其余比较高效的模型来解决这些实际的问题.这个时候我们就

Andrew Ng机器学习课程17(2)

Andrew Ng机器学习课程17(2) 声明:引用请注明出处http://blog.csdn.net/lg1259156776/ 说明:主要介绍了利用value iteration和policy iteration两种迭代算法求解MDP问题,还介绍了在实际应用中如何通过积累"经验"更新对转移概率和reward的估计的学习模型,并结合两种迭代算法进行求解的完整过程. 2015-10-11 艺少 版权声明:本文为博主原创文章,转载请注明出处http://blog.csdn.net/lg1