由上一节中爬虫程序已经在scrapy中定义完成,我们准备生成app。
目前生成app的软件颇多,这里我们需要以数据库驱动,选择了appery.io。
1. 生成数据库
注册完成之后,先在database选项卡中添加一行新用户,名为root。随后添加新的数据库名为scrapy和新的collections名为properties。
完成即可见:
随后在collections中添加所需要的数据库字段:
属性都先选择string。数据库定义完成。
2. 接收数据
是的appery接收我们爬虫的数据需要API和程序。
API key可以在collections 下的setting里找到,先复制出来。
另外还需要安装scrapyapperyio:
>pip install scrapyapperyio
另外需要在爬虫项目下的setting文件中添加声明:
ITEM_PIPELINES = {‘scrapyapperyio.ApperyIoPipeline‘: 300} APPERYIO_DB_ID = ‘eaa757de-3004-46d2-9ac0-bfe1cb5d85e0‘ #API key APPERYIO_USERNAME = ‘root‘ APPERYIO_PASSWORD = ‘root‘ APPERYIO_COLLECTION_NAME = ‘properties‘
OK!再次启动爬虫程序... 返回collections中查看,数据都已经些进来了哈。
3. 设计app
创建app时选择Database Services,然后再project中选择page,app的版式就显示在中间了,我们向其中添加一个一行两列Grid,image在左侧,有侧为一个link和lebal。
再选择DATA标签,data source下选择service并添加,打开Success的映射。
将数据库中字段与前端标签对应,保存。
在events中添加startscreen在服务加载时就启动,提升载入速度。
全部保存无误,test测试一下:
已经显示出来啦,只可惜网络问题加载不出QR code,否则手机便可以直接扫码查看。
当然在export中也可以直接将项目代码导出。
时间: 2024-11-05 23:32:55