《枪炮,钢铁与病菌》与《中国大历史》读后感
两本书放在一起做读后感,是因为前者对后者起到一个类似引理的作用:地理因素对社会文化的决定基础性作用,若缺此引理,中国大历史将失色不少,
中国大历史,作者黄仁宇,美籍华人,以资本主义世界观著史,因其为道地中国人,所以较剑桥史更为深刻,深得其中三昧,
对于不熟悉资本主义世界观的读者略啰嗦几句,其精髓在于反集权,以及由言论自由带来的对于社会改革的透彻剖析,
我之所以喜欢中国大历史,在于“农民阶层”这一框架的引入,带来物理般的分析视角。传统的历史,皆是通过描述视角。
上至司马迁的“太史公曰”,下至中学教科书的品头论足,给人片段式的支离感。举一个例子,关于鸦片战争。引发的原因是“清政府腐败无能,统治阶层愚昧无知”
潜台词是,假使清政府不腐败,则有为,假使不无知,则可制夷。而大历史作用就是告诉读者,不但这些假设不会成真,而且为什么这些假设其实男士避无可避的必然
通行的做法,切断了历史的脉络,毁灭史观的建立,使历史这一明智之学,沦为单纯诵记,
通过《枪炮钢铁与病菌》建立起的地理决定论,赋上中国大陆的参数,自然地引出了,中央集权政府,农民阶层,胡人与汉人这些概念,
关键就在于不是归纳了这些概念,而是产生了这些概念,不仅仅是,静态自如,而且是动态自洽,于是历史变成了屋里学的一个分支,社会动力学,
霍金解释说,一个理论是否合格取决于两件标准:一,解释现象,二,预测现象。
借助大历史的观点,观察当今中国,则何如?
问题太多,太杂。先来个鸟瞰,改革开放三十年,简单模仿,已不能再提供动力,飞速发展,必然降落,此为外患,土地经济盘根错节,郁郁乎不可解,此为内忧,
而我只想讲一讲老龄化。老龄化带来劳动力的减少与社会压力的增大,很多人以为养老金是国家出,与个人无关,其实政府干的是拆东墙补西墙的事,养老金的窟窿一定是纳税人来补,如果资本不能投入再生产,将严重制约资本的积累,更重要的是其深层次影响
对于老人问题,现在官方的做法是加强道德宣传,敬老爱老,窃以为到其实类似老人跌倒无人扶之类的并不是道德问题,而是经济问题。道德观乎私人,而集体性的道德滑坡必有背后隐情,如果老人不讹财,反赠财,收或不收,至少是一种精神慰藉,如果生活压力极小,整日优哉游哉,怎会不扶。
从大历史观念来说,经济增长放缓,转型受阻才是道德滑落的根本原因。
老龄化问题影响最严重的其实并非经济,而是文化领域,现在年届七十的老人,无疑都经历过三年自然灾害,文革,经历了体制化生产,其思维早已固定。而现代生活方式引入,直接冲散了古老中国代代相传的生活习俗,
年轻人大部分时间都呆在学校与同龄人相处,缺少了中式家庭习俗的耳濡目染
在学校,勤勉者苦研考试——传统科举制与现代素质教育在中国地理环境——人多物稀条件中诞下的怪胎,
开放者拥抱世界,看美剧,看日漫,或者打打游戏,思维深受其消费产品的刻划,我不打算评价其历史效应,因为只有时间有这资格,但无疑,新老阶层思维差异之大,足以撕裂宗族的凝聚力——这是又一在中国地理环境下的产物。
高等教育简直是一场骗局,长辈被欺骗。他们抱定鲤鱼跃龙门的希望,消耗了大量时间,金钱,送孩子上大学,
学生被欺骗,他们被告知成绩越好,能力越强,为了追求一个更好的自己,为了获取更好的机会,日夜苦读,毕业后才发现自己,除了教书一无所能,世界观转变,坐标系漂移,年轻人迷茫,方向在哪里?
历史的经验告诉我,上一个时代的痛,是下一个时代的嘲讽。
《枪炮,钢铁与病菌》与《中国大历史》读后感
时间: 2024-10-04 07:17:25
《枪炮,钢铁与病菌》与《中国大历史》读后感的相关文章
《深入浅出Python》与《Python网络数据采集》读后感
本学期在课程之外,自主计划学习Python语言以及爬虫知识.书籍方面,采用了O`Reilly的<深入浅出Python>与<Python网络数据采集>.前者用于Python语法的学习,后者则作为爬虫知识的详解. 与我们日常使用的教材不同的是,<深入>像是一个老鸟,在一步一步通过对话的形式手把手地教你.个人体会,该书作为入门教材,十分妥当,但是深入理解还需另辟蹊径.全书从文本处理出发讲解基础语法,再设计背景,随着假设要求不断扩展,将Python语言在web开发.Androi
笔记之Python网络数据采集
笔记之Python网络数据采集 非原创即采集 一念清净, 烈焰成池, 一念觉醒, 方登彼岸 网络数据采集, 无非就是写一个自动化程序向网络服务器请求数据, 再对数据进行解析, 提取需要的信息 通常, 有api可用, api会比写网络爬虫程序来获取数据更加方便. Part1 创建爬虫 Chapter1 初建网络爬虫 一旦你开始采集网络数据, 就会感受到浏览器为我们所做的所有细节, 它解释了所有的html, css, JavaScript 网络浏览器是一个非常有用的应用, 它创建信息的数据包, 发送
Python网络数据采集pdf
下载地址:网盘下载 内容简介 · · · · · · 本书采用简洁强大的Python语言,介绍了网络数据采集,并为采集新式网络中的各种数据类型提供了全面的指导.第一部分重点介绍网络数据采集的基本原理:如何用Python从网络服务器请求信息,如何对服务器的响应进行基本处理,以及如何以自动化手段与网站进行交互.第二部分介绍如何用网络爬虫测试网站,自动化处理,以及如何通过更多的方式接入网络. 作者简介 · · · · · · Ryan Mitchell 数据科学家.软件工程师,目前在波士顿Link
《python 网络数据采集》代码更新
<python 网络数据采集>这本书中会出现很多这一段代码: 1 from urllib.request import urlopen 2 from bs4 import BeautifulSoup 3 html = urlopen(url) 4 bsobj = BeautifulSoup(html) 我也跟着输入这一段代码,但会出现提示: UserWarning: No parser was explicitly specified, so I'm using the best availa
(数据科学学习手札47)基于Python的网络数据采集实战(2)
一.简介 马上大四了,最近在暑期实习,在数据挖掘的主业之外,也帮助同事做了很多网络数据采集的内容,接下来的数篇文章就将一一罗列出来,来续写几个月前开的这个网络数据采集实战的坑. 二.马蜂窝评论数据采集实战 2.1 数据要求 这次我们需要采集的数据是知名旅游网站马蜂窝下重庆区域内所有景点的用户评论数据,如下图所示: 思路是,先获取所有景点的poi ID,即每一个景点主页url地址中的唯一数字: 这一步和(数据科学学习手札33)基于Python的网络数据采集实战(1)中做法类似,即在下述界面: 翻页
学习爬虫:《Python网络数据采集》中英文PDF+代码
适合爬虫入门的书籍<Python网络数据采集>,采用简洁强大的Python语言,介绍了网络数据采集,并为采集新式网络中的各种数据类型提供了全面的指导.第一部分重点介绍网络数据采集的基本原理:如何用Python从网络服务器请求信息,如何对服务器的响应进行基本处理,以及如何以自动化手段与网站进行交互.第二部分介绍如何用网络爬虫测试网站,自动化处理,以及如何通过更多的方式接入网络. <Python网络数据采集>高清中文PDF,224页,带目录和书签,能够复制:高清英文PDF,255页,带
python学习之爬虫网络数据采集
Python 给人的印象是抓取网页非常方便,提供这种生产力的,主要依靠的就是urllib.requests这两个模块. 网络数据采集之urllib urllib库官方文档地址:https://docs.python.org/3/library/urllib.htmlurllib库是python的内置HTTP请求库,包含以下各个模块内容:(1)urllib.request:请求模块(2)urllib.error:异常处理模块(3)urllib.parse:解析模块(4)urllib.robotpa
下载大数据实战课程第一季Python基础和网络爬虫数据分析
python语言近年来越来越被程序相关人员喜欢和使用,因为其不仅简单容易学习和掌握,而且还有丰富的第三方程序库和相应完善的管理工具:从命令行脚本程序到gui程序,从B/S到C/S,从图形技术到科学计算,软件开发到自动化测试,从云计算到虚拟化,所有这些领域都有python的身影:python已经深入到程序开发的各个领域,并且会越来越多的人学习和使用. 大数据实战课程第一季Python基础和网络爬虫数据分析,刚刚入手,转一注册文件,视频的确不错,可以先下载看看:链接:http://pan.baidu
Python中的网络扫描大杀器Scapy初探
Python中的网络扫描大杀器Scapy初探 最近经历了Twisted的打击,这个网络编程实在看不懂,都摸不透它的内在逻辑,看来网络编程不是那么好弄的.还好,看到了scapy,这种网络的大杀器,让我一看就爱不释手,这才是我需要的网络工具啊.Scapy的功能如此之多,以至于...我到现在还是没看懂.在官方网站也介绍的不多,后来搜了一下,有一本书Security Power Tools一书中,第六章介绍了Scapy,虽然简单,但是还是不明白,这两天一直在忙活着看Scapy.看了几个应用,比较
Python 基础学习 网络小爬虫
<span style="font-size:18px;"># # 百度贴吧图片网络小爬虫 # import re import urllib def getHtml(url): page = urllib.urlopen(url) html = page.read() return html def getImg(html): reg = r'src="(.+?\.jpg)" pic_ext' imgre = re.compile(reg) imgli