数据库数据查重

rowid是数据库中存数据之后,自动为那条数据配上的编码,每条数据所拥有的编码都不相同,我们可以根据rowid快速的确定某一列,然后对其操作。

这是数据库查重,并且删除所有重复数据,只保留一条,这里我是根据ID这一列查重,多列查重的方法类似。

delete from tb where (id) in
(select Name from tb group by Name having count(id) >1)
and rowid not in (select min(rowid) from tb group by Name having count(id)>1);
commit;

将不同地区的数据查询出来,并且相同地区数据放在一起,从上到下,依次列在一张表上。

A  union all  B 将两个表连接起来,上边全部是表A,下边全部是表B,两个表的数据全部显示出来,不管是否重复。

A  union  B  将两个表连接起来,与union all相似,不过如果两个表中如果有重复的数据,则会把重复的数据删除,只保留一个,并且排序会打乱,并不是上方全部是表A,下方是表B。

select * from tb t WHERE DIQU=‘朝阳‘ union all select * from tb t WHERE DIQU=‘经开‘ union all
select * from tb t WHERE DIQU=‘南关‘ union all select * from tb t WHERE DIQU=‘绿园‘
union all select * from tb t WHERE DIQU=‘二道‘union all select * from tb t WHERE DIQU=‘高新‘
union all select * from tb t WHERE DIQU=‘汽车城‘union all select * from tb t WHERE DIQU=‘德惠‘
union all select * from tb t WHERE DIQU=‘宽城‘union all select * from tb t WHERE DIQU=‘净月‘
union all select * from tb t WHERE DIQU=‘榆树‘

时间: 2024-10-29 04:59:29

数据库数据查重的相关文章

JQuery Validate插件如何自定义验证方法(结合ajax实现数据库的查重)

概述 本文介绍Validate自定义表单校验方式.Validate插件虽然提供了丰富的验证规则,但在很多时候仍然很难满足我们的开发需求,在注册页面我们需要通过ajax验证用户输入的用户名是否已经被他人注册,那此时通过传统的Validate验证方式已经无法满足需求了! 我们可以通过自定义验证方法来结合ajax实现这个需求. 自定义ajax基本语法 因为validate是JQuery的插件,所以在此之前必须先导入JQuery和validate的JS包. <script type="text/j

VS连接Access数据库--连接字符串及执行查询语句的方法(增删改查,用户名查重,根据用户获取密码查询)

ACCESS数据的连接及语句执行操作,不难,久不用会生疏,每次都要找资料,干脆自己整理下,记录下来,需要的时候,直接查看,提高效率.也供初学者参考 1.连接字符串 public static string strConn = @"Provider=Microsoft.Jet.OLEDB.4.0;Data Source=" + Directory.GetCurrentDirectory() + "\\**.mdb;"; 2.数据语句执行(增删差改,用户名查重,根据用户

用反射机制实现对数据库数据的增、查例子

一.什么是反射机制        简单的来说,反射机制指的是程序在运行时能够获取自身的信息.在java中,只要给定类的名字,    那么就可以通过反射机制来获得类的所有信息.二.哪里用到反射机制        有些时候,我们用过一些知识,但是并不知道它的专业术语是什么,在刚刚学jdbc时用过一行代码,    Class.forName("com.mysql.jdbc.Driver.class").newInstance();但是那时候只知道那行代码是生成    驱动对象实例,并不知道它

【NLP】Python实例:基于文本相似度对申报项目进行查重设计

Python实例:申报项目查重系统设计与实现 作者:白宁超 2017年5月18日17:51:37 摘要:关于查重系统很多人并不陌生,无论本科还是硕博毕业都不可避免涉及论文查重问题,这也对学术不正之风起到一定纠正作用.单位主要针对科技项目申报审核,传统的方式人力物力比较大,且伴随季度性的繁重工作,效率不高.基于此,单位觉得开发一款可以达到实用的智能查重系统.遍及网络文献,终未得到有价值的参考资料,这个也是自然.首先类似知网,paperpass这样的商业公司其毕业申报专利并进行保密,其他科研单位因发

paperDF 瑞克论文查重软件 使用说明

paperDF 瑞克论文查重软件 使用说明 软件下载地址:https://pan.baidu.com/s/1b60LEu 一.软件截图 (软件启动界面) (单文件查重 软件运行界面) 目录文件介绍 二.使用说明 1.本软件是基于JAVA开发,运行本软件需安装JRE1.7或以上版本JAVA运行环境. 2.本软件需作者授权后才能使用.获取授权方法: 1.运行本软件,软件将提示获取授权.请复制授权文本框中的字符串发到作者邮箱获取授权文件. 2.将获取到的授权文件替换软件目录中的mylicense.li

Asp.net--GridView控件--(1)高亮显示当前所在行,(2)高亮显示单击行,(3)绑定数据库数据,(4)分页,(5)导出到excel表格,(6)首列插入序号

//本页代码中的DB类及方法在http://www.cnblogs.com/Deerjiadelu/p/7252769.html中能查询到 (1)Asp.net--GridView控件--高亮显示当前所在行 protected void gvquery_DataBound(object sender, GridViewRowEventArgs e) { //高亮显示光标所在行 if (e.Row.RowType == DataControlRowType.DataRow)//判断当前行是不是数据

solr 简单搭建 数据库数据同步(待续)

原来在别的公司负责过文档检索模块的维护(意思就是不是俺开发的啦).所以就稍微接触和研究了下文档检索. 文档检索其实是全文检索,是通过一种技术把N多文档进行一定规律的切割归类,然后创建易于搜索的索引式文件,然后搜索具有某些规律的文档时,能够通过快速定位索引,然后根据索引提供的信息精确定位到文档从而实现迅速找到文档.这个文档一般成为条目. 上家公司的时候使用的是Lucene加上Zoie实现的.lucene是apache下的开源项目,不过并不是全文检索的实现,而是一个全文检索的引擎,是一个架构,是其他

海量文件查重SimHash和Minhash

SimHash 事实上,传统比较两个文本相似性的方法,大多是将文本分词之后,转化为特征向量距离的度量,比如常见的欧氏距离.海明距离或者余弦角度等等.两两比较固然能很好地适应,但这种方法的一个最大的缺点就是,无法将其扩展到海量数据.例如,试想像Google那种收录了数以几十亿互联网信息的大型搜索引擎,每天都会通过爬虫的方式为自己的索引库新增的数百万网页,如果待收录每一条数据都去和网页库里面的每条记录算一下余弦角度,其计算量是相当恐怖的. 我们考虑采用为每一个web文档通过hash的方式生成一个指纹

SqlserverAll关键字查重

SQLSERVER中的ALL.PERCENT.CUBE关键字.ROLLUP关键字和GROUPING函数 转:http://www.cnblogs.com/lyhabc/p/3280634.html SQLSERVER中的ALL.PERCENT.CUBE关键字.ROLLUP关键字和GROUPING函数 SQLSERVER中的ALL.PERCENT.CUBE关键字.ROLLUP关键字和GROUPING函数 先来创建一个测试表 1 USE [tempdb] 2 GO 3 4 CREATE TABLE