日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 运维知识 > 数据库 >内容正文

数据库

Redis基本使用及百亿数据量中的使用技巧分享

發布時間:2023/12/4 数据库 25 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Redis基本使用及百亿数据量中的使用技巧分享 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

作者:依樂祝
原文地址:https://www.cnblogs.com/yilezhu/p/9941208.html

  • 作者:大石頭

  • 時間:2018-11-10 晚上20:00

  • 地點:釘釘群(組織代碼BKMV7685)QQ群:1600800

  • 內容:Redis基本使用及百億數據量中的使用技巧分享

  • 記錄人:依樂祝

熱場準備

熟悉的開場白,大家晚上好啊,今天給大家分享的是Redis在大數據中的使用,可能真正講的是一些redis的使用技巧,Redis基本的一些東西。

首先給大家個地址,源碼以及實例都在里面,當然今天的分享也是按照里面的實例來進行的,大家可以先進行下載。
http://git.newlifex.com/NewLife/NewLife.Redis
當然這里也附上Redis的下載地址:
windows:https://github.com/MicrosoftArchive/redis/releases
http://x.newlifex.com/Redis-x64-3.2.100.msi
Linux:https://redis.io/download

開始

Redis封裝架構講解

實際上NewLife.Redis是一個完整的Redis協議的功能的實現,但是redis的核心功能并沒有在這里面,Redis的核心功能的實現是在NewLife.Core里面。這里可以打開看一下,NewLife.Core里面有一個NewLife.Caching的命名空間,里面有一個Redis類里面實現了Redis的基本功能,另一個類是RedisClient是Redis的客戶端。Redis的核心功能就是有這兩個類實現。RedisClient代表著Redis客戶端對服務器的一個連接。Redis真正使用的時候有一個Redis連接池,里面存放著很多個RedisClient對象。


所以我們Redis的封裝有兩層,一層是NewLife.Core里面的Redis以及RedisClient。另一層就是NewLife.Redis。這里面的FullRedis是對Redis的實現了Redis的所有的高級功能。這里你也可以認為NewLife.Redis是Redis的一個擴展。

Test實例講解Redis的基本使用

實例

打開Program.cs看下代碼

這里XTrace.UseConsole();是向控制臺輸出日志,方便調試使用查看結果。

接下來看第一個例子Test1。具體的我都在代碼中進行了注釋,大家可以看下

  • Set的時候如果是字符串或者字符數據的話Redis會直接保存起來(字符串內部機制也是保存二進制),如果是其他類型會默認進行json序列化然后再保存起來

  • Get的時候如果是字符串或者字符數據會直接獲取,如果是其他類型會進行json反序列化

  • Set第三個參數過期時間單位是秒。

  • vs調試小技巧,按F5或者直接工具欄“啟動”會編譯整個解決方案會很慢(VS默認),可以選中項目然后右鍵菜單選擇調試->啟動新實例。會只編譯將會用到的項目,這樣對調試來說會快很多。

  • 大家運行調試后可以看到控制臺輸出的內容:向右的箭頭=》是ic.Log=XTrace.Log輸出的日志

  • 字典的使用:對象的話需要把json全部取出來然后轉換成對象,而字典的話就可以直接取某個字段。

  • 隊列是List結構實現的,使用場景可以上游數據太多,下游處理不過來的時候,那么就可以使用這個隊列。上游的數據發到隊列,然后下游慢慢的消費。另一個應用,跨語言的協同工作,比方說其他語言實現的程序往隊列里面塞數據,然后另一種語言來進行消費處理。哈,這種方式類似mq的概念,雖然有點low,但是也很好用。

  • 集合,用的比較多的是用在一個需要精確判斷的去重功能。像我們每天有三千萬訂單,這三千萬訂單可以有重復,這時候我想統計下一共有訂單,這時候直接數據庫group by是不大可能的,因為數據庫中分了十幾張表,這里分享個實戰經驗:比方說攬收,商家發貨了,網點要把件收回來,但是收回來之前網點不知道自己有多少貨啊,這時候我們做了一個功能,也就是訂單會發送到我們公司來,我們會建一個time_site的key的集合,而且集合本身有去重的功能,而且我們可以很方便的通過set.Count功能來統計數量,當件被攬收以后,我們后臺把這個件從集合中Remove掉.然后這個Set中存在的就是網點還沒有攬收的件,這時候通過Count就會知道這個網點今天還有多少件沒有攬收。實際使用中這個數量比較大,因為有幾萬個網點。

  • Redis中布隆過濾器,去重的,面試的時候問的比較多

  • 小經驗分享:

    • 數據庫中不合法的時間處理:判斷時間中的年份,是否大于2000年。如果小于2000就認為不合法。習慣大于小于號不習慣用等于號,這樣可以處理很多意外的數據

    • Set的時候最好指定過期時間防止有些需要刪除的數據,我們忘記刪了

    • Redis異步盡量不用,因為Redis延遲本身很小,大概在100us-200us,再一個就是Redis本身是單線程的,異步任務切換的耗時比網絡耗時還要大。

    • List用法:物聯網中數據上傳,量比較大時,我們可以把這些數據先放在Redis的List中,比如說一秒鐘1萬條,然后再批量取出來然后批量插入數據庫中。這時候要設置好key,可以前綴+時間,對于已經處理的List可以進行remove移除。

    壓力測試

    接下來看第四個例子,我們直接做壓力測試,代碼如下:

    運行的結果如下圖所示:

    測試就是進行get,set remove,累加等的操作。大家可以看到在我本機上輕輕松松的到了六十萬,多線程的時候甚至到了一百多萬。為什么會達到這么高的ops呢,下面給大家說一下。

    • Bench 會分根據線程數分多組進行添刪改壓力測試。

    • rand 參數,是否隨機產生key/value。

    • batch 批大小,分批執行讀寫操作,借助GetAll/SetAll進行優化。

    Redis中NB的函數來提升性能

    上面的操作如果大家都掌握的基本算Redis入門了,接下來進行進階。會了基本比別人更勝一籌了。

  • GetAll()與SetAll()

  • GetAll:比方說我要取是個key,這個時候可以用getall。這時候redis就執行了一次命令。比方說我要取10個key那么用get的話要取10次,如果用getall的話要用1次。一次getall時間大概是get的一點幾倍,但是10次get的話就是10倍的時間,這個賬你應該會算吧。強烈推薦大家用getall。

    setall 跟getall相似。批量設置K-V.

    setall與getall性能很恐怖,官方公布的ops也就10萬左右,為什么我們的測試輕輕松松到五十萬甚至上百萬,因為我們就用了setall,getall。

    如果get,set兩次以上,建議用getall,setall

  • Redis管道Pipeline

  • 比如執行10次命令會打包成一個包集體發過去執行,這里實現的方式是StartPipeline()開始,StopPipeline()結束中間的代碼就會以管道的形式執行。這里推薦使用我們的更強的武器,AutoPipeline自動管道屬性。管道操作到一定數量時,自動提交,默認0.使用了不需要使用AutoPipeline,就不需要StartPipeline,StopPipeline指定開始結束了!

  • Add與Replace

    • Add:Redis中沒有這個Key就添加,有了就不要添加,返回false

    • Replace:有則替換,還會返回原來的值,沒有則不進行操作

    Add跟Replace就是實現Redis分布式鎖的關鍵

    Redis使用技巧,經驗分享

    在項目的Readme中,這里摘錄下:

    特性

    • 在ZTO大數據實時計算廣泛應用,200多個Redis實例穩定工作一年多,每天處理近1億包裹數據,日均調用量80億次

    • 低延遲,Get/Set操作平均耗時200~600us(含往返網絡通信)

    • 大吞吐,自帶連接池,最大支持1000并發

    • 高性能,支持二進制序列化(默認用的json,json很低效,轉成二進制性能會提升很多)

    Redis經驗分享

    • 在Linux上多實例部署,實例個數等于處理器個數,各實例最大內存直接為本機物理內存,避免單個實例內存撐爆(比方說8核心處理器,那么就部署8個實例)

    • 把海量數據(10億+)根據key哈希(Crc16/Crc32)存放在多個實例上,讀寫性能成倍增長

    • 采用二進制序列化,而非常見的Json序列化

    • 合理設計每一對Key的Value大小,包括但不限于使用批量獲取,原則是讓每次網絡包控制在1.4k字節附近,減少通信次數(實際經驗幾十k,幾百k也是沒問題的)

    • Redis客戶端的Get/Set操作平均耗時200~600us(含往返網絡通信),以此為參考評估網絡環境和Redis客戶端組件(達不到就看一下網絡,序列化方式等等)

    • 使用管道Pipeline合并一批命令

    • Redis的主要性能瓶頸是序列化、網絡帶寬和內存大小,濫用時處理器也會達到瓶頸

    • 其它可查優化技巧
      以上經驗,源自于300多個實例4T以上空間一年多穩定工作的經驗,并按照重要程度排了先后順序,可根據場景需要酌情采用!

    緩存Redis的兄弟姐妹

    Redis實現ICache接口,它的孿生兄弟MemoryCache,內存緩存,千萬級吞吐率。
    各應用強烈建議使用ICache接口編碼設計,小數據時使用MemoryCache實現;
    數據增大(10萬)以后,改用Redis實現,不需要修改業務代碼。

    提問環節聊聊大數據中Redis使用的經驗,問題

  • 一條數據多個key怎么設置比較合理?
    如果對性能要求不是很高直接用json序列化實體就好,沒必要使用字典進行存儲。

  • 隊列跟List有什么區別?左進右出的話用List還是用隊列比較好?
    隊列其實就是用List實現的,也是基于List封裝的。左進右出的話直接隊列就好。Redis的List結構比較有意思,既可以左進右出,也能右進左出。所以它既可以實現列表結構,也能隊列,也能實現棧

  • 存放多個字段的類性能一樣嗎?
    大部分場景都不會有偏差,可能對于大公司數據量比較大的場景會有些偏差

  • 可否介紹一下使用Redis進行數據計算、統計的場景?
    略。自己看視頻吧!o(∩_∩)o 哈哈!(因為我沒聽清!)

  • 大數據寫入到數據庫之后 比如數據到億以上的時候 統計分析這塊 查詢這塊 能不能分享些經驗。
    分表分庫,拆分到一千萬以內。

  • CPU為何暴漲?

  • 程序員終極理念:CPU達到百分百,然后性能達到最優,盡量不要浪費。最痛恨的是:如果cpu不到百分百,性能沒法提升了,說明代碼有問題!

    總結

    雖然Redis會用,但是沒有像大石頭這樣的大數據使用場景。今天的視頻收獲頗豐,可能大部分人跟我一樣,沒有大石頭的使用場景,但是值得借鑒的經驗還是很豐富的!期待下一次的精彩分享。同時附上QQ群:1600800。可以共同交流使用經驗!

    原文地址: https://www.cnblogs.com/yilezhu/p/9941208.html


    .NET社區新聞,深度好文,歡迎訪問公眾號文章匯總 http://www.csharpkit.com

    總結

    以上是生活随笔為你收集整理的Redis基本使用及百亿数据量中的使用技巧分享的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。