重庆分公司,新征程启航
为企业提供网站建设、域名注册、服务器等服务
创新互联www.cdcxhl.cn八线动态BGP香港云服务器提供商,新人活动买多久送多久,划算不套路!
创新互联建站坚持“要么做到,要么别承诺”的工作理念,服务领域包括:成都做网站、网站建设、企业官网、英文网站、手机端网站、网站推广等服务,满足客户于互联网时代的含山网站设计、移动媒体设计的需求,帮助企业找到有效的互联网解决方案。努力成为您成熟可靠的网络建设合作伙伴!这篇文章将为大家详细讲解有关mongodb数据库去重的方法,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。
MongoDB删除重复的数据,方法如下:
db.Passages.aggregate([ { $group:{_id:{content:'$content',endTime:'$endTime',startTime:'$startTime'},count:{$sum:1},dups: {$addToSet:'$_id'}} }, { $match:{count:{$gt:1}} } ]).forEach(function(it){ it.dups.shift(); db.Passages.remove({_id: {$in: it.dups}}); });
下面来解析:
1、使用aggregate聚合查询重复数据
·$group中是查询条件,根据content、endTime、startTime字段来聚合相同的数据;
·$count用来统计重复出现的次数, $match来过滤没有重复的数据;
·$addToSet将聚合的数据id放入到dups数组中方便后面使用;
2、查询结果使用forEach进行迭代id来删除数据
·shift()作用是剔除队列中第一条id,避免删掉所有的
关于mongodb数据库去重的方法就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。