日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 综合教程 >内容正文

综合教程

如何用SQL语句去掉重复记录(如何查找MySQL中查询慢的SQL语句)

發布時間:2023/12/19 综合教程 20 生活家
生活随笔 收集整理的這篇文章主要介紹了 如何用SQL语句去掉重复记录(如何查找MySQL中查询慢的SQL语句) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

海量數據(百萬以上),其中有些全部字段都相同,有些部分字段相同,怎樣高效去除重復? 如果要刪除手機(mobilePhone),電話(officePhone),郵件(email)同時都相同的數據,以前一直使用這條語句進行去重: delete from 表 where id not in (select max(id) f

海量數據(百萬以上),其中有些全部字段都相同,有些部分字段相同,怎樣高效去除重復?

如果要刪除手機(mobilePhone),電話(officePhone),郵件(email)同時都相同的數據,以前一直使用這條語句進行去重:

delete from 表 where id not in 
(select max(id) from 表 group by mobilePhone,officePhone,email )
or
delete from 表 where id not in 
(select min(id) from 表 group by mobilePhone,officePhone,email )

登錄后復制

其中下面這條會稍快些。上面這條數據對于100萬以內的數據效率還可以,重復數1/5的情況下幾分鐘到幾十分鐘不等,但是如果數據量達到300萬以上,效率驟降,如果重復數據再多點的話,常常會幾十小時跑不完,有時候會鎖表跑一夜都跑不完。無奈只得重新尋找新的可行方法,今天終于有所收獲:

//查詢出唯一數據的ID,并把他們導入臨時表tmp中
select min(id) as mid into tmp from 表 group by mobilePhone,officePhone,email
//查詢出去重后的數據并插入finally表中
insert into finally select (除ID以外的字段) from customers_1 where id in (select mid from tmp)

登錄后復制

效率對比:用delete方法對500萬數據去重(1/2重復)約4小時。4小時,很長的時間。

用臨時表插入對500萬數據去重(1/2重復)不到10分鐘。

SQL語句去掉重復記錄,獲取重復記錄

按照某幾個字段名稱查找表中存在這幾個字段的重復數據并按照插入的時間先后進行刪除,條件取決于order by 和row_num。

方法一按照多條件重復處理:

delete tmp from(
select row_num = row_number() over(partition by 字段,字段 order by 時間 desc)
    from 表 where 時間> getdate()-1
) tmp
where row_num > 1 

登錄后復制

方法二按照單一條件進行去重:

delete from 表 where 主鍵ID not in(
select max(主鍵ID) from 表 group by 需要去重的字段 having count(需要去重的字段)>=1
)

登錄后復制

注意:為提高效率如上兩個方法都可以使用臨時表, not in 中的表可以先提取臨時表#tmp,

然后采用not exists來執行,為避免數量過大,可批量用Top控制刪除量

delete top(2) from 表 
        where  not exists (select 主鍵ID
  from #tmp where #tmp.主鍵ID=表.主鍵ID) 

登錄后復制

總結

以上是生活随笔為你收集整理的如何用SQL语句去掉重复记录(如何查找MySQL中查询慢的SQL语句)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。