《数学分析Analysis》の 学习笔记

>> 皮亚诺(Peano)公理

定义自然数

公理2.1   0是一个自然数.

公理2.2   若n是自然数, 则n++也是自然数.

公理2.3   0不是任何自然数的后继, 即对于每个自然数n , 都有n++ ≠ 0.

公理2.4   不同的自然数必有不同的后继者; 也就是说, 若n, m是自然数且n≠m, 则n++ ≠ m++. 等价地说, 若n++ = m++, 则必有n = m.

公理2.5(数学归纳原理)   设P(n)是关于自然数的一个性质, 假设P(0)是真的 , 并假设只要P(n)是真的, 则P(n++)也是真的. 那么对于每个自然数n,  P(n)都是真的.

 

//单个自然数有限, 自然数的集合无限.

 

 

 

>> 自然数的运算

1. 增长(++)

2. 加法

定义2.2.1(自然数的加法)    设m是自然数. 为使m加上0, 我们定义0+m:=m. 现归纳的假定已定义好如何使m加上n. 那么把m加上n++则定义为(n++)+m := (n+m)++.

定义

0+m = m

(n++)+m = (n+m)++

 

推论

m+0 = m

①0+0 = 0

②假设n+0 = n

∵ (n++)+0 = (n+0)++ = n++

∴ 假设成立.

n+(m++) = (n+m)++

①0+(m++) = m++

②假设 n+(m++) = (n+m)++

∵(n++)+(m++) = ( n+(m++) )++ = (n+m)++ ++ = ( (n++)+m )++

∴假设成立.

n++ = n+1

n+1 = n+(0++) = (n+0)++ = n++

交换律: 对于任何自然数n, m, n+m = m+n.

①0+m = m+0

②假设 n+m = m+n

∵(n++)+m = (n+m)++ = n+(m++)

∴假设成立.

结合律: 对于任何自然数a, b, c,  (a+b)+c = a+(b+c)

①(a+0)+c = a+c = a+(0+c)

②假设 (a+b)+c = a+(b+c)

∵( a+(b++) )+c = ( (a+b)++ )+c = ( (a+b)+c )++ = ( a+(b+c) )++ = a+(b+c)++ = a+( (b++)+c )

∴假设成立.

消去律: 设a, b, c为自然数, 且a+b = a+c, 则b = c.

①0+b = 0+c  → b = c

②假设a+b = a+c → b = c

∵ 设 (a++)+b = (a++)+c

(a+b)++ = (a+c)++   →  a+b = a+c(公理2.4)  →  b = c

∴假设成立.

定义2.2.7: 一个自然数叫做正的, 当且仅当它不等于0.

 

推论

1. 若a是正数, b是自然数. 则a+b是正数.

①a+0是正数

②假设a+b是正数

  ∵a+(b++) = (a+b)++ ≠ 0

∴假设成立.

2. 若a, b是自然数, 且a+b = 0. 则a = 0, b = 0.

(反证): 假设a≠0, 则a是正数. 由推论1, a+b是正数. 与a+b=0矛盾.

∴a=0, b=0(同理).

3.设a是正数, 则存在一个自然数b, 使b++ = a.

①0++ = 1

②假设b++ = a

∵a++ = (b++)++ = (b++)+1 ≠ 0

∴假设成立.

未完待续......

时间: 2024-10-05 10:36:33

《数学分析Analysis》の 学习笔记的相关文章

pattern analysis 学习笔记

核函数的定义和作用 机器学习中的范数规划化之:L0,L1,L2,核范数 MMD和再生核希尔伯特空间 rademacher complexity

Probability Latent Semantic Analysis (PLSA) 模型 学习笔记

Probability Latent Semantic Analysis (PLSA) 模型 学习笔记 PLSA是前面LSA的兄弟版,相比于LSA而言,PLSA定义了概率模型,而且每个变量以及相应的概率分布和条件概率分布都有明确的物理解释了.这篇博文我们分三部分来说PLSA:基本思想,EM算法推导,以及优缺点分析. 1.  PLSA的基本思想 PLSA是一种主题模型topic model,是针对文本中隐含的主题来建模的方法.PLSA就是给定了文档d之后,需要以一定的概率选择与文档相对应的主题z,

Latent Semantic Analysis (LSA) 模型 学习笔记

Latent Semantic Analysis (LSA) 模型 学习笔记 Latent Semantic Analysis 模型,隐性语义分析,也就是我们常说的LSA模型.后面还有他的兄弟PLSA和LDA模型,这个我们后面再说.这几个都是NLP中比较经典的模型!学习这个模型,主要总结到了三个方面:LSA模型可以应用在哪儿?LSA的理论部分,以及LSA的优缺点分析. 1. LSA的应用 LSA可以在VSM中降低样本的维度,并且可以从文本中发现隐含的语义维度. 在VSM中,文档被表示成由特征词出

[傅里叶变换及其应用学习笔记] 一. 预备知识

这份是本人的学习笔记,课程为网易公开课上的斯坦福大学公开课:傅里叶变换及其应用. 本课程学习路线: 从傅里叶级数开始,后续过渡到傅里叶变换. 扼要描述 傅里叶级数(fourier series),几乎等同于周期性现象的学习. 傅里叶变换(fourier transform),可作为傅里叶级数的极限情况,是对非周期性现象的数学分析. 两者间的共同点 分析(analysis),分解一个信号(函数),把它拆分成一系列组成部分,并希望这些组成部分比复杂的原始信号(函数)简单. 合成(synthesis)

LoadRunner学习笔记--未经排版

LoadRunner学习笔记 并发用户数量: 与服务器进行交互的在线用户数量 请求响应时间 从客户端发送请求到得到整个响应的时间 一般包括网络响应时间+server的响应时间 事务相应时间 完成这个事务所用的时间 是性能测试中重点关注的指标 吞吐率 单位时间在网络上传输的数据量(吞吐量:网络上传输的数据总量) 指从server返回客户端的 是衡量网络性能的主要指标 TPS 每秒钟系统能够处理事务的数量 点击率 每秒发送的HTTP请求的数量 点击率越大对server的压力也就越大 资源利用率 对不

UML学习笔记

这个学期有幸选到章老师的UML精品课程,虽然到目前仅仅上课两周,但是收益匪浅.尽管在本科接触过UML,却没有非常详细的对其进行深入的了解,只是对一些图的名称有所耳闻,没有深究其功能. 就最近所学知识,谈一下我对uml统一建模语言的一个总体认识,软件工程作为一门工程类学科,如同建筑类学科一样,当我们需要搭建一所建筑时,我们都需要对其进行需求和设计,在施工的时候,我们就需要一些设计图纸,例如各个房间的具体设计.三维视图等,通过这些图纸进行施工.软件工程也是如此,当我们拿到一个项目时,并不是直接开始编

Deep Learning(深度学习)学习笔记整理系列之(六)

Deep Learning(深度学习)学习笔记整理系列 [email protected] http://blog.csdn.net/zouxy09 作者:Zouxy version 1.0 2013-04-08 声明: 1)该Deep Learning的学习系列是整理自网上很大牛和机器学习专家所无私奉献的资料的.具体引用的资料请看参考文献.具体的版本声明也参考原文献. 2)本文仅供学术交流,非商用.所以每一部分具体的参考资料并没有详细对应.如果某部分不小心侵犯了大家的利益,还望海涵,并联系博主

R语言学习笔记

參考:W.N. Venables, D.M. Smith and the R DCT: Introduction to R -- Notes on R: A Programming Environment for Data Analysis and Graphics,2003. http://bayes.math.montana.edu/Rweb/Rnotes/R.html 前言:关于R 在R的官方教程里是这么给R下注解的:一个数据分析和图形显示的程序设计环境(A system for data

lucene学习笔记(三)

好几天没更新了.更新一下,方便自己和大家学习. 这是最基本的代码 package index; import java.io.File; import java.io.IOException; import java.util.HashMap; import java.util.Map; import org.apache.lucene.analysis.standard.StandardAnalyzer; import org.apache.lucene.document.Document;

Accelerated C++学习笔记7—<使用顺序容器并分析字符串>

第6章  使用库算法 本章中主要教我们如何使用几个库算法来解决与处理字符串和学生成绩相关的问题. 1.分析字符串 使用一个循环来连接两幅字符图案 for(vector<string>::const_iterator it = bottom.begin(); it != bottom.end(); ++it) ret.push_back(*it);</span> 等价于 ret.insert(ret.end(), bottom.begin(), bottom.end());</