SQL.py

import sqlite3,sys
def convert(value):
    if value.startswith(‘~‘):
        return value.strip(‘~‘)
    if not value:
        value=‘0‘
    return float(value)
conn=sqlite3.connect(‘food.db‘)
curs=conn.cursor()
curs.execute(‘‘‘
CREATE TABLE IF NOT EXISTS food(
id      TEXT    PRIMARY KEY,
desc    TEXT,
water   FLOAT,
fat     FLOAT,
fiber   FLOAT,
sugar   FLOAT
)
‘‘‘)
insert_query=‘INSERT INTO food VALUES(?,?,?,?,?,?)‘
for line in open(‘ABBREV.txt‘):
    fields=line.split(‘^‘)
    field_count=len(fields)
    print(fields)
    vals=[convert(f) for f in fields[:field_count]]
    curs.execute(insert_query,vals)
conn.commit()

select_all=‘SELECT * FROM food‘
curs.execute(select_all)
print(curs.fetchall())

select_str=‘fat<=100 AND fiber>=10 AND sugar ORDER BY sugar‘
try:
    if sys.argv[1]: select_str=sys.argv[1]
    print(‘\n‘,sys.argv,‘\n‘)
except: pass
#命令行调用,windows下SQL.py要加引号
#python SQL.py ‘fat<=100 AND fiber>=10 AND sugar ORDER BY sugar‘
print(select_str)
select_query=‘SELECT * FROM food WHERE %s‘ % select_str
curs.execute(select_query)
names=[f[0] for f in curs.description]
name=[f for f in curs.description]
print(name)
for row in curs.fetchall():
    for pair in zip(names,row):
        print(‘%s:%s‘ % pair)
conn.close()
时间: 2024-10-10 05:32:41

SQL.py的相关文章

pyspark原理简介

概述 这是前段时间在看spark的python支持的时候,简单过了一下pyspark里的python代码,整理了一个大致流程.虽然几乎不会python,但基本上能看懂pyspark是怎么让不同虚拟机之间传输数据的.如何在python环境调用java类的.pyspark SDK的丰富程度取决于什么.需要做些什么流程和封装等. 我看了下,应该只有Pyspark Internals这篇wiki里介绍了pyspark的实现机制,大体是下面这张图就可以表示: 在python driver端,SparkCo

使用scrapy框架---爬小说,入库

本人步骤: 1>setting.py: BOT_NAME = 'newding' SPIDER_MODULES = ['newding.spiders']NEWSPIDER_MODULE = 'newding.spiders' ROBOTSTXT_OBEY = True ITEM_PIPELINES = { 'newding.pipelines.NewdingPipeline': 300,} 以上配置:创建项目会自动出现这些 以下是想要入数据库的(阶段): MYSQL_USER = 'root'

Python--day5--常用模块

介绍: 本文主要是学习python常用模块的记录,后面记录的不是很详细,以后再补. 2016年12月27日 目录: 模块介绍 json & pickle time  &   datetime模块 &月历 random模块 OS SYS shutil shelves xml yaml ConfigParser hashlib subprocess logging 模块 就是用一堆代码实现某个功能的代码集合. 模块分三种: 自定义模块 内置标准模块(标准库) 开源模块 开源模块网站  

python 爬虫爬取几十家门店在美团外卖上的排名,并插入数据库,最后在前端显示

爬虫脚本: #!/usr/bin/env python # encoding: utf-8 """ @version: ?? @author: phpergao @license: Apache Licence  @file: meituan_paiming.py @time: 2016/8/1 15:16 """ import urllib,json,re import urllib.parse import http.cookiejar im

Oracle表结构转换SqlSERVER表结构 脚本

在审计工作中,有时需要将Oracle的表结构修改后再SqlSERVER中创建表结构,然后将数据导入到SqlSERVER中,在修改表结构的过程中方法狠多.手工修改,最蠢的方法,或者用工具UE批量修改,还凑合的方法,最方便的方法就是用脚本唰的一下,全部改好 : vi     parameter.ini#sysType---1:Linux;others:windowssysType=1#readFiledir is OldFilereadFiledir=/root/tmpmycnf/dbquery/y

django 1.7+ default_permissions

由于做Caption要做权限设计.在核心类的设计的时候需要做好权限的基础设计.django 1.7+以后 django.db.modes新增特性 default_permissions,官方文档语焉不详. 决定自己探索下,不想一一分析代码,遂引入bug,直接观察核心线路. 引入bug方法: class baseModel(models.Model): #.... class Meta: default_permissions='add'#should be ('add','change',...

通过读取excel数据和mysql数据库数据做对比(二)-代码编写测试

通过上一步,环境已搭建好了. 下面开始实战, 首先,编写链接mysql的函数conn_sql.py import pymysql def sql_conn(u,pwd,h,db): conn=pymysql.connect(user=u,passwd=pwd,host=h,db=db) #print("连接数据库"+db+"成功了!!") return conn 在编写,查询数据库的语句:sql.py import pymysql import conn_sql d

爬虫框架:scrapy

Scrapy一个开源和协作的框架,其最初是为了页面抓取 (更确切来说, 网络抓取 )所设计的,使用它可以以快速.简单.可扩展的方式从网站中提取所需的数据.但目前Scrapy的用途十分广泛,可用于如数据挖掘.监测和自动化测试等领域,也可以应用在获取API所返回的数据(例如 Amazon Associates Web Services ) 或者通用的网络爬虫. Scrapy 是基于twisted框架开发而来,twisted是一个流行的事件驱动的python网络框架.因此Scrapy使用了一种非阻塞(

flask-session、数据库连接池

flask-session 作用:将默认保存的签名cookie中的值保存到redis/memcached/file/Mongodb/SQLAlchemy 安装:pip3 install flask-session 使用方法1: from flask import Flask, session from flask_session import RedisSessionInterface import redis app = Flask(__name__) conn = redis.Redis(h