linq 获取不重复数据,重复数据 var unique = arr.GroupBy(o => o).Where(g => g.Count() == 1) .Select(g => g.ElementAt(0));

static void Main(string[] args)
{
int[] arr = { 1, 3, 3, 3, 3, 4, 5, 4, 5, 8, 9, 3 };

//不重复
var unique = arr.GroupBy(o => o).Where(g => g.Count() == 1)
.Select(g => g.ElementAt(0));
var uniqueList = arr.Distinct<int>().ToList();
foreach(var a in uniqueList)
{
Console.WriteLine(a);
}

Console.WriteLine("\n\n\n");
foreach (var a in unique)
{
System.Diagnostics.Debug.WriteLine(a);
Console.WriteLine(a);
}

Console.ReadLine();

//重复元素
var duplicate = arr.GroupBy(o => o)
.Where(g => g.Count() > 1)
.Select(g => g.ElementAt(0));
foreach(var a in duplicate)
{
Console.WriteLine(a);
}

Console.ReadLine();

时间: 2024-10-20 06:46:21

linq 获取不重复数据,重复数据 var unique = arr.GroupBy(o => o).Where(g => g.Count() == 1) .Select(g => g.ElementAt(0));的相关文章

抓取新浪微博数据存入MongoDB,避免重复插入微博数据的方法

def getMyDatalist(): #id这个key key = str(u'id').decode('utf-8') #存储旧数据的id列表 old_ids = [] #存储新微博的列表 extr_wb = [] #从MongoDB上获取的数据 old_datalist = weibodata.find() for old in old_datalist: old_ids.append(old[key]) #从微博上抓取新数据 data = client.statuses.home_ti

oracle 分页查询数据重复问题

最近在做项目的时候发现一个问题,oracle 在查询分页数据的时候,有几条数据重复查询了,并且有几条数据在分页的时候消失了.百度了一下发现,ORACLE 在查询数据的时候返回的行不是固定的,他只是按照顺序从数据中读取符合条件的数据返回到客户端,给用户误解为默认排序. 然而,当我加上排序的时候,还是查询有重复的数据,(指第一页数据在第二页也查询出来了),这是我就疑问了,当我检查数据的时候,发现我排序的字段有空的情况,而且有很多条,导致排序返回的 伪列并不是唯一的. 总结: oracle 分页查询数

SQL查询数据重复问题,和合并数据问题

前几个月,做项目.查询数据遇到数据重复问题 用 distinct 这个关键字去重,大多数情况下都可以去重的 SELECT  distinct a.id,a.* from a ItemName = stuff((SELECT ',' + ItemName FROM InspectBill AS t WHERE t .InspectBillNo = InspectBill.InspectBillNo FOR xml path('')), 1, 1, '')

Oracle分页排序的实现与分页数据重复问题

对于关系数据库来说,直接写SQL拉数据在列表中显示是很常用的做法.但如此便带来一个问题:当数据量大到一定程度时,系统内存迟早会耗光.另外,网络传输也是问题.如果有1000万条数据,用户想看最后一条,这时即便有足够的内存,在网络上传输这么多数据也得一两小时吧,恐怕没几个用户有这么耐心等.因此分页是必须的. 现在网上的论坛.博客什么的,基本上都会有分页功能,有些是SQL分页的,有些可能是NOSQL用其它方法分页,都有很成熟的东西了.本文根据我自己的经验,以ORACLE为例,讲下简单的SQL分页和排序

iOS去除数组中重复的model数据

// 去除数组中model重复 for (NSInteger i = 0; i < self.selectedModelArray.count; i++) { for (NSInteger j = i+1;j < self.selectedModelArray.count; j++) { AssistantModel *tempModel = self.selectedModelArray[i]; AssistantModel *model = self.selectedModelArray[

利用ROW_NUMBER中的partition by 删除重复Key的数据

With temp As ( Select ROW_NUMBER() over(partition by LogisticsPlan order by createon) rowID,ID from LogisticsPlan Where LogisticsPlan IN( 'AGDPM15071704', 'AGDDE15071401', 'SGDPM15071404', 'AGDPM15071404', 'SGDDE15071104' ) ) Delete from LogisticsPla

iOS用SegmentController来切换tableView的时候 reloadData会造成数据重复创建 解决办法

把在Cell上面创建的控件放在Cell==nil的判断里面,这样,每次进来就会先判断有没有,就可以避免数据重复创建,导致视图越盖越厚 if (cell==nil) { cell=[[UITableViewCell alloc]initWithStyle:UITableViewCellStyleDefault reuseIdentifier:cellIDD]; self.inviteLabel=[[UILabel alloc]initWithFrame:CGRectMake(10,5,[UIScr

上海上传数据重复-sftp端口关闭

关键: (1) sftp的测试指令:sftp -oPort=2125 [email protected] (2)让上海那边自己试了一下,也不行,他们自己重置了一下sftp的密码,我们可以登录了: 上海那边反应,在10月10号早上 ,大量重复数据发送到上海政府端,查询后发现在: dx-qcs-regulation-shanghai06 这个主机有问题:里面有大量的重复数据, 查询程序后发现,sftp关闭了,由于sftp无法正常上传数据,数据无法正常上传之后,会保存到本地,并在之后,在此尝试发送,

MongoDB数据重复解决方案

当我们在测试阶段时难免会出现一些程序写错,导致数据重复,本人因为这个问题,倒腾了几天,刚开始的思路是写脚本,因为自己语言学的太菜,导致连一个定义的公式都没想出来,后来是利用MongoDB里面的聚合解决的. 下面我以一个小实例来讲把: 不难看出,姓名有出现重复的现象,少的情况我们可以逐个删除,当数据量达到几百万,几千万的时候估计大家有些发愁了,应该会有些朋友会想到写脚本去筛选然后删除这些重复的数据把,其实可以利用MongoDB中的聚合去删除重复的数据 第一个括号是:相同数据的字段 第二个括号是:操