用Pandas Dataframe来抓取重构金融股票的各种业务&数据形态

4. 如果计算各项股票指标时,或者处理业务流程时,上一篇的直观认知数据结构,怎样帮助开发者去好好操作,又同时避免计算错误的坑。

首先从上篇的数据结据,可以看出/设计出多少种业务和股票指标。

A. 恒生成份股的股份编号

恒指成份股编别 = list(恒生成份股.keys())

B. 个股的收市价&成交额。

腾讯收市价 = 恒生指数[成份股].iloc[大市成交日, 收市价]
腾讯成交额 = 恒生指数[成份股].iloc[大市成交日, 成交额]

C. 恒生成份股的收市价&成交额。

恒生成份股收市价s = 恒生指数[成份股].iloc[大市成交日, 收市价]
恒生成份股成交额s = 恒生指数[成份股].iloc[大市成交日, 成交额]

D. 恒生成份股的昨日收市价&成交额。

恒生成份股昨日收市价s = 恒生指数[成份股].iloc[大市昨日成交, 收市价]恒生成份股昨日成交额s = 恒生指数[成份股].iloc[大市昨日成交, 成交额]

E. 恒生成份股的5天收市价

MA5 = 恒生指数[成份股][2020-01-07 : 2020-01-11][收市价]

F. 恒生成份股的5天均线(MA5)

MA5 = 恒生指数[成份股][2020-01-07 : 2020-01-11][收市价].mean()

原文地址:https://www.cnblogs.com/chenkuang/p/12236369.html

时间: 2024-10-10 09:08:03

用Pandas Dataframe来抓取重构金融股票的各种业务&数据形态的相关文章

运用python抓取博客园首页的所有数据,而且定时持续抓取新公布的内容存入mongodb中

原文地址:运用python抓取博客园首页的所有数据,而且定时持续抓取新公布的内容存入mongodb中 依赖包: 1.jieba 2.pymongo 3.HTMLParser # -*- coding: utf-8 -*- """ @author: jiangfuqiang """ from HTMLParser import HTMLParser import re import time from datetime import date im

Python爬虫成长之路:抓取证券之星的股票数据

获取数据是数据分析中必不可少的一部分,而网络爬虫是是获取数据的一个重要渠道之一.鉴于此,我拾起了Python这把利器,开启了网络爬虫之路. 本篇使用的版本为python3.5,意在抓取证券之星上当天所有A股数据.程序主要分为三个部分:网页源码的获取.所需内容的提取.所得结果的整理. 一.网页源码的获取 很多人喜欢用python爬虫的原因之一就是它容易上手.只需以下几行代码既可抓取大部分网页的源码. import urllib.request url='http://quote.stockstar

运用python抓取博客园首页的全部数据,并且定时持续抓取新发布的内容存入mongodb中

原文地址:运用python抓取博客园首页的全部数据,并且定时持续抓取新发布的内容存入mongodb中 依赖包: 1.jieba 2.pymongo 3.HTMLParser # -*- coding: utf-8 -*- """ @author: jiangfuqiang """ from HTMLParser import HTMLParser import re import time from datetime import date im

从统计局抓取2016年最新的全国区县数据!!

using System; using System.Collections.Generic; using System.Web; using System.Web.UI; using System.Web.UI.WebControls; using HtmlAgilityPack; using System.Text; public partial class 抓取区县 : System.Web.UI.Page { protected void Page_Load(object sender,

用Pandas Dataframe支撑起多只金融产品股票的数据内部形态

3. 如果同时拿一个板块股票的收市价和成交额 前一篇说到,用大盘指数,如恒生指数,上证,深证,这些重要的大盘指数来做Dataframe主键,那麽如果是同时拿一个板块股票的收市价和成交额,可以怎样操作呢. 在实际开发中,应该是简单的数据结构,容易阅读为主,所以Dataframe的multi indexes我不建议使用,这令代码很难阅读. 最简单的方法,当然是用dict来保存各股票的Dataframe. codes = { # 中石化, 中海洋, 中石油 '石油': ['0386.HK', '088

实时抓取雪球用户股票持仓变动 -- 测试

import urllib2 import urllib import cookielib import json import time from pyExcelerator import * w = Workbook() #创建一个工作簿 ws = w.add_sheet('Hey, Xueqiu') #创建一个工作表 # 表头 ws.write(0,0,u'Name') ws.write(0,1,u'Screen Name') ws.write(0,2,u'Follower') ws.wr

Python爬虫入门教程 29-100 手机APP数据抓取 pyspider

1. 手机APP数据----写在前面 继续练习pyspider的使用,最近搜索了一些这个框架的一些使用技巧,发现文档竟然挺难理解的,不过使用起来暂时没有障碍,估摸着,要在写个5篇左右关于这个框架的教程.今天教程中增加了图片的处理,你可以重点学习一下. 2. 手机APP数据----页面分析 咱要爬取的网站是 http://www.liqucn.com/rj/new/ 这个网站我看了一下,有大概20000页,每页数据是9个,数据量大概在180000左右,可以抓取下来,后面做数据分析使用,也可以练习优

Python爬虫新手教程:手机APP数据抓取 pyspider

1. 手机APP数据----写在前面 继续练习pyspider的使用,最近搜索了一些这个框架的一些使用技巧,发现文档竟然挺难理解的,不过使用起来暂时没有障碍,估摸着,要在写个5篇左右关于这个框架的教程.今天教程中增加了图片的处理,你可以重点学习一下. 2. 手机APP数据----页面分析 咱要爬取的网站是 http://www.liqucn.com/rj/new/ 这个网站我看了一下,有大概20000页,每页数据是9个,数据量大概在180000左右,可以抓取下来,后面做数据分析使用,也可以练习优

用Python进行网页抓取

引言 从网页中提取信息的需求日益剧增,其重要性也越来越明显.每隔几周,我自己就想要到网页上提取一些信息.比如上周我们考虑建立一个有关各种数据科学在线课程的欢迎程度和意见的索引.我们不仅需要找出新的课程,还要抓取对课程的评论,对它们进行总结后建立一些衡量指标.这是一个问题或产品,其功效更多地取决于网页抓取和信息提取(数据集)的技术,而非以往我们使用的数据汇总技术. 网页信息提取的方式 从网页中提取信息有一些方法.使用API可能被认为是从网站提取信息的最佳方法.几乎所有的大型网站,像Twitter.