日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Hadoop参数汇总

發布時間:2025/7/14 编程问答 53 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Hadoop参数汇总 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

Hadoop參數匯總

@(hadoop)[配置]

linux參數

以下參數最好優化一下:

  • 文件描述符ulimit -n
  • 用戶最大進程 nproc (hbase需要 hbse book)
  • 關閉swap分區
  • 設置合理的預讀取緩沖區
  • Linux的內核的IO調度器
  • JVM參數

    JVM方面的優化項Hadoop Performance Tuning Guide

    Hadoop參數大全

    適用版本:4.3.0

    主要配置文件:

    • core
    • hdfs
    • yarn
    • mapred

    重要性表示如下:

    • 重要
    • 一般
    • 不重要

    core-default.xml

    • hadoop.common.configuration.version

      配置文件的版本。

    • hadoop.tmp.dir=/tmp/hadoop-${user.name}

      Hadoop的臨時目錄,其它目錄會基于此路徑。本地目錄。

      只可以設置一個值;建議設置到一個足夠空間的地方,而不是默認的/tmp下
      服務端參數,修改需重啟

    • hadoop.security.authorization=false

      是否開啟安全服務驗證。

      建議不開啟。認證操作比較復雜,在公司內部網絡下,重要性沒那么高

    • io.file.buffer.size=4096

      在讀寫文件時使用的緩存大小。這個大小應該是內存Page的倍數。

      建議1M

    • io.compression.codecs=null

      壓縮和解壓縮編碼類列表,用逗號分隔。這些類是使用Java ServiceLoader加載。

    • fs.defaultFS=file:///

      默認文件系統的名稱。URI形式。uri's的scheme需要由(fs.SCHEME.impl)指定文件系統實現類。 uri's的authority部分用來指定host, port等。默認是本地文件系統。

      HA方式,這里設置服務名,例如:hdfs://mycluster1
      HDFS的客戶端訪問HDFS需要此參數。

    • fs.trash.interval=0

      以分鐘為單位的垃圾回收時間,垃圾站中數據超過此時間,會被刪除。如果是0,垃圾回收機制關閉。可以配置在服務器端和客戶端。如果在服務器端配置trash無效,會檢查客戶端配置。如果服務器端配置有效,客戶端配置會忽略。

      建議開啟,建議4320(3天)
      垃圾回收站,如有同名文件被刪除,會給文件順序編號,例如:a.txt,a.txt(1)

    • fs.trash.checkpoint.interval=0

      以分鐘為單位的垃圾回收檢查間隔。應該小于或等于fs.trash.interval。如果是0,值等同于fs.trash.interval。每次檢查器運行,會創建新的檢查點。

      建議設置為60(1小時)

    • dfs.ha.fencing.methods=null

      HDFS的HA功能的防腦裂方法。可以是內建的方法(例如shell和sshfence)或者用戶定義的方法。建議使用sshfence(hadoop:9922),括號內的是用戶名和端口,注意,這需要NN的2臺機器之間能夠免密碼登陸

      fences是防止腦裂的方法,保證NN中僅一個是Active的,如果2者都是Active的,新的會把舊的強制Kill。

    • dfs.ha.fencing.ssh.private-key-files=null

      使用sshfence時,SSH的私鑰文件。?使用了sshfence,這個必須指定

    • ha.zookeeper.quorum=null

      Ha功能,需要一組zk地址,用逗號分隔。被ZKFailoverController使用于自動失效備援failover。

    • ha.zookeeper.session-timeout.ms=5000

      ZK連接超時。ZKFC連接ZK時用。設置一個小值可以更快的探測到服務器崩潰(crash),但也會更頻繁的觸發失效備援,在傳輸錯誤或者網絡不暢時。建議10s-30s

    • hadoop.http.staticuser.user=dr.who

      在網頁界面訪問數據使用的用戶名。默認值是一個不真實存在的用戶,此用戶權限很小,不能訪問不同用戶的數據。這保證了數據安全。也可以設置為hdfs和hadoop等具有較高權限的用戶,但會導致能夠登陸網頁界面的人能看到其它用戶數據。實際設置請綜合考慮。如無特殊需求。使用默認值就好

    • fs.permissions.umask-mode=22

      在創建文件和目錄時使用此umask值(用戶掩碼)。類linux上的文件權限掩碼。可以使用8進制數字也可以使用符號,例如:"022" (8進制,等同于以符號表示的u=rwx,g=r-x,o=r-x),或者"u=rwx,g=rwx,o="(符號法,等同于8進制的007)。注意,8進制的掩碼,和實際權限設置值正好相反,建議使用符號表示法,描述更清晰

    • io.native.lib.available=true

      是否啟動Hadoop的本地庫,默認啟用。本地庫可以加快基本操作,例如IO,壓縮等。

    • hadoop.http.filter.initializers=org.apache.hadoop.http.lib.StaticUserWebFilter

      Hadoop的Http服務中,用逗號分隔的一組過濾器類名,每個類必須擴展自org.apache.hadoop.http.FilterInitializer。 這些組件被初始化,應用于全部用戶的JSP和Servlet頁面。 列表中定義的順序就是過濾器被調用的順序。

    • hadoop.security.authentication

      安全驗證規則,可以是simple和kerberos。simple意味著不驗證。

    • hadoop.security.group.mapping=org.apache.hadoop.security.JniBasedUnixGroupsMappingWithFallback

      user到group的映射類。ACL用它以給定user獲取group。默認實現是 org.apache.hadoop.security.JniBasedUnixGroupsMappingWithFallback, 如果JNI有效,它將發揮作用,使用Hadoop的API去獲取user的groups列表。如果JNI無效,會使用另一個基于shell的實現, ShellBasedUnixGroupsMapping。這個實現是基于Linux、Unix的shell的環境。

    • hadoop.security.groups.cache.secs=300

      user到gourp映射緩存的有效時間。如果超時,會再次調用去獲取新的映射關系然后緩存起來。

    • hadoop.security.service.user.name.key=null

      如果相同的RPC協議被多個Server實現,這個配置是用來指定在客戶端進行RPC調用時,使用哪個principal name去聯系服務器。不建議使用

    • hadoop.security.uid.cache.secs=14400

      安全選項。不建議使用

    • hadoop.rpc.protection=authentication

      rpc連接保護。可取的值有authentication(認證), integrity(完整) and privacy(隱私)。不建議使用

    • hadoop.work.around.non.threadsafe.getpwuid=false

      一些系統已知在調用getpwuid_r和getpwgid_r有問題,這些調用是非線程安全的。這個問題的主要表現特征是JVM崩潰。如果你的系統有這些問題,開啟這個選項。默認是關閉的。

    • hadoop.kerberos.kinit.command=kinit

      用來定期的向Hadoop提供新的Kerberos證書。所提供命令需要能夠在運行Hadoop客戶端的用戶路徑中查找到,否則,請指定絕對路徑。不建議使用

    • hadoop.security.auth_to_local=null

      映射kerberos principals(代理人)到本地用戶名

    • io.bytes.per.checksum=512

      每次進行校驗和檢查的字節數。一定不能大于io.file.buffer.size.

    • io.skip.checksum.errors=FALSE

      是否跳過校驗和錯誤,默認是否,校驗和異常時會拋出錯誤。

    • io.serializations=org.apache.hadoop.io.serializer.WritableSerialization,org.apache.hadoop.io.serializer.avro.AvroSpecificSerialization,org.apache.hadoop.io.serializer.avro.AvroReflectSerialization

      序列化類列表,可以被用來獲取序列化器和反序列化器(serializers and deserializers)。

    • io.seqfile.local.dir=${hadoop.tmp.dir}/io/local

      本地文件目錄。sequence file在merge過程中存儲內部數據的地方。可以是逗號分隔的一組目錄。最好在不同磁盤以分散IO。實際不存在的目錄會被忽略。

    • io.map.index.skip=0

      跳過的索引實體數量在entry之間。默認是0。設置大于0的值可以用更少的內存打開大MapFiles。注意:MpaFile是一組Sequence文件,是排序后的,帶內部索引的文件

    • io.map.index.interval=128

      MapFile包含兩個文件,數據文件和索引文件。每io.map.index.interval個記錄寫入數據文件,一條記錄(行key,數據文件位置)寫入索引文件。

    • fs.default.name=file:///

      過時。使用(fs.defaultFS)代替

    • fs.AbstractFileSystem.file.impl=org.apache.hadoop.fs.local.LocalFs

      文件系統實現類:file

    • fs.AbstractFileSystem.hdfs.impl=org.apache.hadoop.fs.Hdfs

      文件系統實現類:hdfs

    • fs.AbstractFileSystem.viewfs.impl=org.apache.hadoop.fs.viewfs.ViewFs

      文件系統實現類:viewfs (例如客戶端掛載表)。

      在實現federation特性時,客戶端可以部署此系統,方便同時訪問多個nameservice

    • fs.ftp.host=0.0.0.0

      非Hdfs文件系統設置。暫不關注

    • fs.ftp.host.port=21

      非Hdfs文件系統設置。暫不關注

    • fs.df.interval=60000

      磁盤使用統計刷新間隔,以毫秒為單位

    • fs.s3.block.size=67108864

      非Hdfs文件系統設置。暫不關注

    • fs.s3.buffer.dir=${hadoop.tmp.dir}/s3

      非Hdfs文件系統設置。暫不關注

    • fs.s3.maxRetries=4

      非Hdfs文件系統設置。暫不關注

    • fs.s3.sleepTimeSeconds=10

      非Hdfs文件系統設置。暫不關注

    • fs.automatic.close=true

      默認的,文件系統實例在程序退出時自動關閉,通過JVM shutdown hook方式。可以把此屬性設置為false取消這種操作。這是一個高級選項,需要使用者特別關注關閉順序。不要關閉

    • fs.s3n.block.size=67108864

      非Hdfs文件系統設置。暫不關注

    • io.seqfile.compress.blocksize=1000000

      SequenceFiles以塊壓縮方式壓縮時,塊大小大于此值時才啟動壓縮。

    • io.seqfile.lazydecompress=TRUE

      懶惰解壓,僅在必要時解壓,僅對塊壓縮的SequenceFiles有效。

    • io.seqfile.sorter.recordlimit=1000000

      在SequenceFiles.Sorter spill過程中,保存在內存中的記錄數

    • io.mapfile.bloom.size=1048576

      在BloomMapFile使用的布隆過濾器內存大小。

    • io.mapfile.bloom.error.rate=0.005

      BloomMapFile中使用布隆過濾器失敗比率. 如果減少這個值,使用的內存會成指數增長。

    • hadoop.util.hash.type=murmur

      默認Hash算法實現. 'murmur':MurmurHash, 'jenkins':JenkinsHash.

    • ipc.client.idlethreshold=4000

      連接數閥值,超過此值,需要進行空閑連接檢查

    • ipc.client.kill.max=10

      定義客戶端最大數量,超過會被斷開連接

    • ipc.client.connection.maxidletime=10000

      毫秒,最大時間,超過后客戶端會斷開和服務器的連接。

    • ipc.client.connect.max.retries=10

      客戶端連接重試次數。

    • ipc.client.connect.max.retries.on.timeouts=45

      在連接超時后,客戶端連接重試次數

    • ipc.server.listen.queue.size=128

      定義服務器端接收客戶端連接的監聽隊列長度

    • ipc.server.tcpnodelay=false

      在服務器端開啟/關閉Nagle's算法,此算法可以延遲小數據包發送,從而達到網絡流量更有效利用。但是這對小數據包是不利的。默認關閉。建議false,即開啟Nagle算法

    • ipc.client.tcpnodelay=false

      參考ipc.server.tcpnodelay,客戶端參數。或許可以考慮關閉Nagle算法,增加客戶端響應速度

    • hadoop.rpc.socket.factory.class.default=org.apache.hadoop.net.StandardSocketFactory

      高級選項,暫不考慮

    • hadoop.rpc.socket.factory.class.ClientProtocol=null

      高級選項,暫不考慮

    • hadoop.socks.server=null

      高級選項,暫不考慮

    • net.topology.node.switch.mapping.impl=org.apache.hadoop.net.ScriptBasedMapping

      機架感知實現類。

    • net.topology.script.file.name=null

      配合ScriptBasedMapping使用。腳本文件。此腳本文件,輸入是ip地址,輸出是機架路徑。

    • net.topology.script.number.args=100

      機架感知腳本文件的參數最大數量。腳本每次運行被傳遞的參數,每個參數是一個ip地址

    • net.topology.table.file.name=null

      在net.topology.script.file.name被設置為 org.apache.hadoop.net.TableMapping時,可以使用此配置。文件格式是一個有兩個列的文本文件,使用空白字符分隔。第一列是DNS或IP地址,第二列是機架路徑。如無指定,使用默認機架(/default-rack)

    • file.stream-buffer-size=4096

      非hdfs文件系統,暫不關注

    • s3.stream-buffer-size=4096

      非hdfs文件系統,暫不關注

    • kfs.stream-buffer-size=4096

      非hdfs文件系統,暫不關注

    • ftp.stream-buffer-size=4096

      非hdfs文件系統,暫不關注

    • tfile.io.chunk.size=1048576

      非hdfs文件系統,暫不關注

    • hadoop.http.authentication.type=simple

      Oozie Http終端安全驗證。可選值:simple | kerberos |#AUTHENTICATION_HANDLER_CLASSNAME#

      建議simple,關閉驗證

    • hadoop.http.authentication.token.validity=36000

      安全選項。暫不關注

    • hadoop.http.authentication.signature.secret.file=${user.home}/hadoop-http-auth-signature-secret

      安全選項。暫不關注

    • hadoop.http.authentication.cookie.domain=null

      安全選項。暫不關注

    • hadoop.http.authentication.simple.anonymous.allowed=TRUE

      安全選項。暫不關注

    • hadoop.http.authentication.kerberos.principal=HTTP/_HOST@LOCALHOST

      安全選項。暫不關注

    • hadoop.http.authentication.kerberos.keytab=${user.home}/hadoop.keytab

      安全選項。暫不關注

    • dfs.ha.fencing.ssh.connect-timeout=30000

      SSH連接超時,毫秒,僅適用于內建的sshfence fencer。

    • ha.zookeeper.parent-znode=/hadoop-ha

      ZK失效備援功能,需要在ZK上創建節點,這里是根節點的名稱。ZKFC會在這下面工作。注意,NameService ID會 被寫到此節點下,所以即便是開啟federation功能,也僅需要指定一個值。

    • ha.zookeeper.acl=world:anyone:rwcda

      ZKFC創建的ZK節點的訪問控制權限設置。可以多個,逗號分隔。此設置和ZK的CLI使用相同的格式。

    • ha.zookeeper.auth=null

      ZK操作時的權限驗證。

    • hadoop.ssl.keystores.factory.class=org.apache.hadoop.security.ssl.FileBasedKeyStoresFactory

      安全選項。暫不關注

    • hadoop.ssl.require.client.cert=FALSE

      安全選項。暫不關注

    • hadoop.ssl.hostname.verifier=DEFAULT

      安全選項。暫不關注

    • hadoop.ssl.server.conf=ssl-server.xml

      安全選項。暫不關注

    • hadoop.ssl.client.conf=ssl-client.xml

      安全選項。暫不關注

    • hadoop.ssl.enabled=FALSE

      安全選項。暫不關注

    • hadoop.jetty.logs.serve.aliases=TRUE

      是否允許在Jetty中使用別名服務。

    • ha.health-monitor.connect-retry-interval.ms=1000

      HA功能的健康監控連接重試間隔

    • ha.health-monitor.check-interval.ms=1000

      HA功能的健康監控連接間隔

    • ha.health-monitor.sleep-after-disconnect.ms=1000

      HA功能的健康監控,在因網絡問題失去連接后休眠多久。用于避免立即重試,此時網絡問題仍在,沒有意義

    • ha.health-monitor.rpc-timeout.ms=45000

      HA功能健康監控的超時時間,毫秒

    • ha.failover-controller.new-active.rpc-timeout.ms=60000

      FC等待新的NN變成active狀態的超時時間。

    • ha.failover-controller.graceful-fence.rpc-timeout.ms=5000

      FC等待舊的active變成standby的超時時間。

    • ha.failover-controller.graceful-fence.connection.retries=1

      FC在做完美隔離是的連接重試次數(graceful fencing)

    • ha.failover-controller.cli-check.rpc-timeout.ms=20000

      手動運行的FC功能(從CLI)等待健康檢查、服務狀態的超時時間。

    hdfs-default.xml

    • hadoop.hdfs.configuration.version=1

      配置文件的版本

    • dfs.datanode.address=0.0.0.0:50010

      DN服務地址和端口,用于數據傳輸。0表示任意空閑端口。

      xferPort dfs.datanode.address 50010 數據流地址 數據傳輸 infoPort dfs.datanode.http.address 50075 ipcPort dfs.datanode.ipc.address 50020 命令
    • dfs.datanode.http.address=0.0.0.0:50075

      DN的HTTP服務地址和端口。0表示任意空閑端口。

    • dfs.datanode.ipc.address=0.0.0.0:50020

      DN的IPC地址和端口。0表示任意空閑端口。

    • dfs.namenode.rpc-address=0.0.0.0:50090

      NN的RPC地址和端口

    • dfs.namenode.http-address=0.0.0.0:50070

      NN的HTTP地址和端口。0表示任意空閑端口。

    • dfs.datanode.du.reserved=0

      每個磁盤(volume)的保留空間,字節。要注意留足夠的空間給非HDFS文件使用。建議保留磁盤容量的5%或者50G以上

    • dfs.namenode.name.dir.restore=FALSE

      設置為true,允許NN嘗試恢復之前失敗的dfs.namenode.name.dir目錄。在創建checkpoint是做此嘗試。如果設置多個磁盤,建議允許

    • dfs.namenode.edits.dir=${dfs.namenode.name.dir}

      本地文件,NN存放edits文件的目錄。可以是逗號分隔的目錄列表。edits文件會存儲在每個目錄,冗余安全。

    • dfs.namenode.shared.edits.dir=null

      在多個NN中共享存儲目錄,用于存放edits文件。這個目錄,由active寫,由standby讀,以保持命名空間數據一致。此目錄不需要是dfs.namenode.edits.dir中列出的。在非HA集群中,它不會使用。建議使用qj方式,可以不關注這個選項

    • dfs.namenode.edits.journal-plugin.qjournal=org.apache.hadoop.hdfs.qjournal.client.QuorumJournalManager

      qj方式共享edits。建議使用此方式

    • dfs.permissions.enabled=true

      是否在HDFS中開啟權限檢查。

    • dfs.permissions.superusergroup=supergroup

      超級用戶組。僅能設置一個。

    • dfs.datanode.data.dir=file://${hadoop.tmp.dir}/dfs/data

      本地磁盤目錄,HDFS數據應該存儲Block的地方。可以是逗號分隔的目錄列表(典型的,每個目錄在不同的磁盤)。這些目錄被輪流使用,一個塊存儲在這個目錄,下一個塊存儲在下一個目錄,依次循環。每個塊在同一個機器上僅存儲一份。不存在的目錄被忽略。必須創建文件夾,否則被視為不存在。

    • dfs.replication=3

      數據塊副本數。此值可以在創建文件是設定,客戶端可以只有設定,也可以在命令行修改。不同文件可以有不同的副本數。默認值用于未指定時。

    • dfs.replication.max=512

      最大塊副本數,不要大于節點總數。

    • dfs.namenode.replication.min=1

      最小塊副本數。在上傳文件時,達到最小副本數,就認為上傳是成功的

    • dfs.blocksize=67108864

      塊大小,字節。可以使用后綴: k(kilo), m(mega), g(giga), t(tera), p(peta), e(exa)指定大小 (就像128k, 512m, 1g, 等待)。

    • dfs.client.block.write.retries=3

      客戶端寫數據到DN時,最大重試次數。超過重試次數就會報出錯誤。

    • dfs.client.block.write.replace-datanode-on-failure.enable=true

      在進行pipeline寫數據(上傳數據的方式)時,如果DN或者磁盤故障,客戶端將嘗試移除失敗的DN,然后寫到剩下的磁盤。一個結果是,pipeline中的DN減少了。這個特性是添加新的DN到pipeline。這是一個站點范圍的選項。當集群規模非常小時,例如3個或者更小,集群管理者可能想要禁止掉此特性。

    • dfs.client.block.write.replace-datanode-on-failure.policy=DEFAULT

      此屬性僅在dfs.client.block.write.replace-datanode-on-failure.enable設置為true時有效。

      • ALWAYS: 總是添加新的DN
        • NEVER: 從不添加新的DN
        • DEFAULT: 設r是副本數,n是要寫的DN數。在r>=3并且floor(r/2)>=n或者r>n(前提是文件是hflushed/appended)時添加新的DN。
    • dfs.heartbeat.interval=3

      DN的心跳間隔,秒

    • dfs.namenode.handler.count=10

      NN的服務線程數。用于處理RPC請求。

    • dfs.namenode.safemode.threshold-pct=0.999f

      數據進入安全模式閥值,百分比,float形式,數據塊達到最小副本數(dfs.namenode.replication.min)的百分比。值小于等于0意味著在退出安全模式前不等待數據修復。大于1的值將導致無法離開安全模式。

    • dfs.namenode.safemode.extension=30000

      安全模式擴展存在時間,在需要的閥值達到后,毫秒。可以設置為0,或者比較短的一個時間,例如3秒

    • dfs.datanode.balance.bandwidthPerSec=1048576

      在做數據平衡時,每個DN最大帶寬占用,每秒字節。默認值是1M。建議可以到10M

    • dfs.hosts=null

      文件名,包含了一個host列表,允許列表內機器連到NN。必須指定完整路徑。如果值為空,全部hosts都允許連入。

    • dfs.hosts.exclude=null

      文件名,包含了一個hosts列表,不允許列表內機器連到NN。必須指定完整路徑。如果值為空。沒有host被禁止。如果上述2個都設置并且有重合,dfs.hosts中優先級高。

    • dfs.stream-buffer-size=4096

      文件流緩存大小。需要是硬件page大小的整數倍。在讀寫操作時,數據緩存大小。注意和core-default.xml中指定文件類型的緩存是不同的,這個是dfs共用的

    • dfs.namenode.num.extra.edits.retained=1000000

      除最小的必須的editlog之外,額外保留的editlog文件數量。這是有用的,可以用于審核目的,或者HA設置一個遠程Standby節點并且有時可能離線時,都需要保留一個較長的backlog。


      典型的,每個edit大約幾百字節,默認的1百萬editlog大約有百兆到1G。注意:早先的extra edits文件可能操作這里設置的值,因為還有其它選項,例如dfs.namenode.max.extra.edits.segments.retained

      建議值:2200,約3天的

    • dfs.datanode.handler.count=10

      DN的服務線程數。這些線程僅用于接收請求,處理業務命令

    • dfs.datanode.failed.volumes.tolerated=0

      可以接受的卷的失敗數量。默認值0表示,任一個卷失敗都會導致DN關閉。

      建議設置此值,避免個別磁盤問題。如果此值超過真實磁盤數,將會報錯,啟動失敗

    • dfs.namenode.support.allow.format=true

      NN是否允許被格式化?在生產系統,把它設置為false,阻止任何格式化操作在一個運行的DFS上。

      建議初次格式化后,修改配置禁止

    • dfs.client.failover.max.attempts=15

      專家設置。客戶端失敗重試次數。

    • dfs.client.failover.connection.retries=0

      專家設置。IPC客戶端失敗重試次數。在網絡不穩定時建議加大此值

    • dfs.client.failover.connection.retries.on.timeouts=0

      專家設置。IPC客戶端失敗重試次數,此失敗僅指超時失敗。在網絡不穩定時建議加大此值

    • dfs.nameservices=null

      nameservices列表。逗號分隔。

      我們常用的僅配置一個,啟動federation功能需要配置多個

    • dfs.nameservice.id=null

      nameservice id,如果沒有配置或者配置多個,由匹配到的本地節點地址配置的IP地址決定。我們進配置一個NS的情況下,建議這里不配置

    • dfs.ha.namenodes.EXAMPLENAMESERVICE=null

      包含一個NN列表。EXAMPLENAMESERVICE是指具體的nameservice名稱,通常就是dfs.nameservices中配置的。值是預備配置的NN的ID。

      ID是自己取的,不重復就可以,例如nn1,nn2

    • dfs.ha.namenode.id=null

      NN的ID,如果沒有配置,由系統決定。通過匹配本地節點地址和配置的地址。

      這里設置的是本機的NN的ID(此配置僅對NN生效),由于要配置2個NN,建議沒有特殊需要,這里不進行配置

    • dfs.ha.automatic-failover.enabled=FALSE

      是否開啟自動故障轉移。建議開啟,true

    • dfs.namenode.avoid.write.stale.datanode=FALSE

      決定是否避開在臟DN上寫數據。寫操作將會避開臟DN,除非超過一個配置的比率 (dfs.namenode.write.stale.datanode.ratio)。

      嘗試開啟

    • dfs.journalnode.rpc-address=0.0.0.0:8485

      JournalNode RPC服務地址和端口

    • dfs.journalnode.http-address=0.0.0.0:8480

      JournalNode的HTTP地址和端口。端口設置為0表示隨機選擇。

    • dfs.namenode.audit.loggers=default

      審查日志的實現類列表,能夠接收audit事件。它們需要實現 org.apache.hadoop.hdfs.server.namenode.AuditLogger接口。默認值"default"可以用于引用默認的audit logger, 它使用配置的日志系統。安裝客戶自己的audit loggers可能影響NN的穩定性和性能。

      建議default,開啟

    • dfs.client.socket-timeout=60*1000

    • dfs.datanode.socket.write.timeout=8*60*1000

    • dfs.datanode.socket.reuse.keepalive=1000

    • dfs.namenode.logging.level=info

      DFS的NN的日志等級。值可以是:info,dir(跟蹤命名空間變動),"block" (跟蹤塊的創建刪除,replication變動),或者"all".

    • dfs.namenode.secondary.http-address=0.0.0.0:50090

      SNN的http服務地址。如果是0,服務將隨機選擇一個空閑端口。使用了HA后,就不再使用SNN了

    • dfs.https.enable=FALSE

      允許HDFS支持HTTPS(SSL)。建議不支持

    • dfs.client.https.need-auth=FALSE

      安全選項,暫不關注

    • dfs.https.server.keystore.resource=ssl-server.xml

      安全選項,暫不關注

    • dfs.client.https.keystore.resource=ssl-client.xml

      安全選項,暫不關注

    • dfs.datanode.https.address=0.0.0.0:50475

      安全選項,暫不關注

    • dfs.namenode.https-address=0.0.0.0:50470

      安全選項,暫不關注

    • dfs.datanode.dns.interface=default

      DN匯報它的IP地址的網卡。我們給DN指定了0.0.0.0之類的地址,這個地址需要被解析成對外地址,這里指定的是網卡名,即那個網卡上綁定的IP是可以對外的IP,一般的,默認值就足夠了

    • dfs.datanode.dns.nameserver=default

      DNS的域名或者IP地址。DN用它來確定自己的域名,在對外聯系和顯示時調用。一般的,默認值就足夠了

    • dfs.namenode.backup.address=0.0.0.0:50100

      NN的BK節點地址和端口,0表示隨機選用。使用HA,就不需要關注此選項了。建議不使用BK節點

    • dfs.namenode.backup.http-address=0.0.0.0:50105

      使用HA,就不需要關注此選項了。建議不使用BK節點

    • dfs.namenode.replication.considerLoad=true

      設定在選擇存放目標時是否考慮負載。需要

    • dfs.default.chunk.view.size=32768

      在瀏覽器中查看一個文件時,可以看到的字節數。

    • dfs.namenode.name.dir=file://${hadoop.tmp.dir}/dfs/name

      本地磁盤目錄,NN存儲fsimage文件的地方。可以是按逗號分隔的目錄列表,fsimage文件會存儲在全部目錄,冗余安全。這里多個目錄設定,最好在多個磁盤,另外,如果其中一個磁盤故障,不會導致系統故障,會跳過壞磁盤。由于使用了HA,建議僅設置一個。如果特別在意安全,可以設置2個

    • dfs.namenode.fs-limits.max-component-length=0

      路徑中每個部分的最大字節長度(目錄名,文件名的長度)。0表示不檢查長度。長文件名影響性能

    • dfs.namenode.fs-limits.max-directory-items=0

      設置每個目錄最多擁有多少個子目錄或者文件。0表示無限制。同一目錄下子文件和目錄多影響性能

    • dfs.namenode.fs-limits.min-block-size=1048576

      最小的Block大小,字節。在NN創建時強制驗證。避免用戶設定過小的Block Size,導致過多的Block,這非常影響性能。

    • dfs.namenode.fs-limits.max-blocks-per-file=1048576

      每個文件最大的Block數。在NN寫時強制檢查。用于防止創建超大文件。

    • dfs.block.access.token.enable=FALSE

      訪問DN時是否驗證訪問令牌。建議false,不檢查

    • dfs.block.access.key.update.interval=600

      安全選項,暫不關注

    • dfs.block.access.token.lifetime=600

      安全選項,暫不關注

    • dfs.datanode.data.dir.perm=700

      本地數據目錄權限設定。8進制或者符號方式都可以。

    • dfs.blockreport.intervalMsec=21600000

      數據塊匯報間隔,毫秒,默認是6小時。

    • dfs.blockreport.initialDelay=0

      第一次數據塊匯報時延遲,秒。目的是減輕NN壓力?

    • dfs.datanode.directoryscan.interval=21600

      DN的數據塊掃描間隔,秒。磁盤上數據和內存中數據調整一致。

    • dfs.datanode.directoryscan.threads=1

      線程池要有多少線程用來并發的壓縮磁盤的匯報數據。

    • dfs.namenode.safemode.min.datanodes=0

      NN收到回報的DN的數量的最小值,達不到此值,NN不退出安全模式。(在系統啟動時發生作用)。<=0的值表示不關心DN數量,在啟動時。大于DN實際數量的值會導致無法離開安全模式。建議不設置此值

    • dfs.namenode.max.objects=0

      DFS支持的最大文件、目錄、數據塊數量。0無限制。

    • dfs.namenode.decommission.interval=30

      NN周期性檢查退役是否完成的間隔,秒。

    • dfs.namenode.decommission.nodes.per.interval=5

      NN檢查退役是否完成,每dfs.namenode.decommission.interval秒檢查的節點數量。

    • dfs.namenode.replication.interval=3

      NN周期性計算DN的副本情況的頻率,秒。

    • dfs.namenode.accesstime.precision=3600000

      HDFS文件的訪問時間精確到此值,默認是1小時。0表示禁用訪問時間。

    • dfs.datanode.plugins=null

      DN上的插件列表,逗號分隔。

    • dfs.namenode.plugins=null

      NN上的插件列表,逗號分隔。

    • dfs.bytes-per-checksum=512

      每次計算校驗和的字節數。一定不能大于dfs.stream-buffer-size。

    • dfs.client-write-packet-size=65536

      客戶端寫數據時的包的大小。包是塊中的更小單位數據集合

    • dfs.client.write.exclude.nodes.cache.expiry.interval.millis=600000

      最大周期去讓DN保持在例外節點隊列中。毫秒。操過此周期,先前被排除的DN將被移除緩存并被嘗試再次申請Block。默認為10分鐘。

    • dfs.namenode.checkpoint.dir=file://${hadoop.tmp.dir}/dfs/namesecondary

      本地文件系統中,DFS SNN應該在哪里存放臨時[用于合并|合并后](to merge)的Image。如果是逗號分隔的目錄列表,Image文件存放多份。冗余備份。建議不使用SNN功能,忽略此配置

    • dfs.namenode.checkpoint.edits.dir=${dfs.namenode.checkpoint.dir}

      建議不使用SNN功能,忽略此配置

    • dfs.namenode.checkpoint.period=3600

      建議不使用SNN功能,忽略此配置

    • dfs.namenode.checkpoint.txns=1000000

      建議不使用SNN功能,忽略此配置

    • dfs.namenode.checkpoint.check.period=60

      建議不使用SNN功能,忽略此配置

    • dfs.namenode.checkpoint.max-retries=3

      建議不使用SNN功能,忽略此配置

    • dfs.namenode.num.checkpoints.retained=2
      建議不使用SNN功能,忽略此配置

    • dfs.namenode.num.extra.edits.retained=1000000

      數量限制,額外的edits事務數。

    • dfs.namenode.max.extra.edits.segments.retained=10000

      extra edit日志文件segments的最大數量。除了用于NN重啟時的最小edits文件之外。一個segments包含多個日志文件

    • dfs.namenode.delegation.key.update-interval=86400000

      NN中更新主代理令牌的時間間隔,毫秒。安全選項,不關注

    • dfs.namenode.delegation.token.max-lifetime=604800000

      NN中更新主代理令牌的時間間隔,毫秒。安全選項,不關注

    • dfs.namenode.delegation.token.renew-interval=86400000

      NN中更新主代理令牌的時間間隔,毫秒。安全選項,不關注

    • dfs.image.compress=FALSE

      Image文件要壓縮嗎?

    • dfs.image.compression.codec=org.apache.hadoop.io.compress.DefaultCodec

      Image文件壓縮編碼。必須是在io.compression.codecs中定義的編碼。

    • dfs.image.transfer.timeout=600000

      Image文件傳輸時超時。HA方式使用不到,可不關注

    • dfs.image.transfer.bandwidthPerSec=0

      Image文件傳輸時可以使用的最大帶寬,秒字節。0表示沒有限制。HA方式使用不到,可不關注

    • dfs.datanode.max.transfer.threads=4096

      = 舊參數 dfs.datanode.max.xcievers
      DN上傳送數據出入的最大線程數。

    • dfs.datanode.readahead.bytes=4193404

      預讀磁盤數據。如果Hadoop本地庫生效,DN可以調用posix_fadvise系統獲取頁面數據到操作系統的緩存中。這個配置指定讀取當前讀取位置之前的字節數。設置為0,取消此功能。無本地庫,此功能也無效。

    • dfs.datanode.drop.cache.behind.reads=FALSE

      在有些場景下,特別是對一些大的,并且不可能重用的數據,緩存在操作系統的緩存區是無用的。此時,DN可以配置自動清理緩存區數據,在已經發生向客戶端之后。此功能自動失效,在讀取小數據片時。(例如HBase的隨機讀寫場景)。通過釋放緩存,這在某些場景下可以提高性能。Hadoop本地庫無效,此功能無效。看起來是一個可以嘗試的特性

    • dfs.datanode.drop.cache.behind.writes=FALSE

      同dfs.datanode.drop.cache.behind.reads相似。

    • dfs.datanode.sync.behind.writes=FALSE

      如果是true,在寫之后,DN將指示操作系統把隊列中數據全部立即寫磁盤。和常用的OS策略不同,它們可能在觸發寫磁盤之前等待30秒。Hadoop本地庫無效,此功能無效。

    • dfs.client.failover.sleep.base.millis=500

      專家設置。失敗重試間的等待時間,毫秒。這里的值是個基本值,實際值會根據失敗/成功次數遞增/遞減50%。第一次失敗會立即重試。第二次將延遲至少dfs.client.failover.sleep.base.millis毫秒。依次類推。

    • dfs.client.failover.sleep.max.millis=15000

      專家設置。失敗重試見的等待時間最大值,毫秒。

    • dfs.ha.log-roll.period=120

      StandbyNode要求Active滾動EditLog,由于StandBy只能從已經完成的Log Segments中讀,所以Standby上的數據新鮮程度依賴于以如何的頻率滾動日志。秒。另外,故障轉移也會觸發一次日志滾動,所以StandbyNode在Active之前,數據也會更新成最新的。秒,默認是2分鐘。

    • dfs.ha.tail-edits.period=60

      StandbyNode以此頻率檢測共享目錄中最新的日志,秒。

    • dfs.ha.zkfc.port=8019

      zkfc的rpc端口

    • dfs.support.append=TRUE

      是否允許append。

    • dfs.client.use.datanode.hostname=FALSE

      是否客戶端應該使用DN的HostName,在連接DN時,默認是使用IP。

    • dfs.datanode.use.datanode.hostname=FALSE

      是否DN應該使用HostName連接其它DN,在數據傳輸時。默認是是IP。

    • dfs.client.local.interfaces=null

      逗號分隔的網卡列表,用于在客戶端和DN之間傳輸數據時。當創建連接時,客戶端隨機選擇一個并綁定它的socket到這個網卡的IP上。名字可以以網卡名(例如 "eth0"), 子網卡名 (eg "eth0:0"), 或者IP地址(which may be specified using CIDR notation to match a range of IPs)。

    • dfs.namenode.kerberos.internal.spnego.principal=${dfs.web.authentication.kerberos.principal}

      安全選項,暫不關注

    • dfs.secondary.namenode.kerberos.internal.spnego.principal=${dfs.web.authentication.kerberos.principal}

      安全選項,暫不關注

    • dfs.namenode.avoid.read.stale.datanode=FALSE

      決定是否避開從臟DN上讀數據。臟DN指在一個指定的時間間隔內沒有收到心跳信息。臟DN將被移到可以讀取節點列表的尾端。嘗試開啟

    • dfs.namenode.stale.datanode.interval=30000

      標記一個DN是臟的時間間隔。例如,如果NN在此設定的時間內沒有接收到來自某一個節點的心跳信息,此DN將被標記為臟的。此間隔不能太小,否則容易導致被頻繁的標記為臟DN。

      我們建議是1分鐘

    • dfs.namenode.write.stale.datanode.ratio=0.5f

      當全部DN被標記為臟DN的比率高于此閥值,停止不寫數據到臟DN的策略,以免造成熱點問題(有效的,可寫的DN太少,壓力太大)。

    • dfs.namenode.invalidate.work.pct.per.iteration=0.32f

      高級屬性。改變需小心。

    • dfs.namenode.replication.work.multiplier.per.iteration=2

      高級屬性。改變需小心。

    • dfs.webhdfs.enabled=FALSE

      在NN和DN上開啟WebHDFS (REST API)功能。

      可以開啟嘗試

    • hadoop.fuse.connection.timeout=300

      秒,在fuse_dfs中緩存libhdfs連接對象的超時時間。 小值使用內存小。大值可以加快訪問,通過避開創建新的連接對象。

    • hadoop.fuse.timer.period=5

    • dfs.metrics.percentiles.intervals=null

      Comma-delimited set of integers denoting the desired rollover intervals (in seconds) for percentile latency metrics on the Namenode and Datanode. By default, percentile latency metrics are disabled.

    • dfs.encrypt.data.transfer=FALSE

      是否加密傳輸數據?僅需要配置在NN和DN。客戶端可以自行判斷。

    • dfs.encrypt.data.transfer.algorithm=null

      可以設置為"3des"或"rc4"。否則使用默認的,通常是usually 3DES。3DES更安全,RC4更快。

    • dfs.datanode.hdfs-blocks-metadata.enabled=TRUE

      布爾值,設定后臺DN端是否支持DistributedFileSystem#getFileVBlockStorageLocations API。

    • dfs.client.file-block-storage-locations.num-threads=10

      在調用DistributedFileSystem#getFileBlockStorageLocations()的并發RPC的線程數

    • dfs.client.file-block-storage-locations.timeout=60

      Timeout (in seconds) for the parallel RPCs made in DistributedFileSystem#getFileBlockStorageLocations().

    • dfs.domain.socket.path=/var/run/hadoop-hdfs/dn._PORT

      可選選項。socket文件路徑,unix下。用來在DN和本地的HDFS客戶端加快網絡連接。如果字符串"_PORT"出現在路徑中,它將被DN的TCP端口替換。

    yarn-default.xml

    • yarn.app.mapreduce.am.env=null

      用戶為MR AM添加環境變量。例如:

    • A=foo 設置環境變量A為foo
    • B=$B:c 繼承并設置TT內的B變量
    • yarn.app.mapreduce.am.command-opts=-Xmx1024m

      MR AM的Java opts。如下符號會被替換:

      • @taskid@ 被替換成當前的TaskID。其它出現的'@'不會改變。例如,為了讓gc日志能夠按task打印存儲在/tmp目錄,可以設置'value'為:-Xmx1024m -verbose:gc -Xloggc:/tmp/@taskid@.gc
      • 如果hadoop本地庫可以使用,使用-Djava.library.path參數可能造成程序的此功能無效。這個值應該被替換,設置在MR的JVM環境中LD_LIBRARY_PATH變量中,使用 mapreduce.map.env和mapreduce.reduce.env配置項。
    • yarn.app.mapreduce.am.resource.mb=1536

      AM申請的內存

    • yarn.resourcemanager.address=0.0.0.0:8032

      RM地址:端口

    • yarn.resourcemanager.scheduler.address=0.0.0.0:8030

      調度器地址:端口

    • yarn.admin.acl=*

      ACL中誰可以管理YARN集群

    • yarn.resourcemanager.admin.address=0.0.0.0:8033

      RM管理接口地址:端口

    • yarn.resourcemanager.am.max-retries=1

      AM重試最大次數。服務端參數。重啟生效。

      建議4

    • yarn.resourcemanager.nodes.include-path=null

      存儲有效節點列表的文件

    • yarn.resourcemanager.nodes.exclude-path=null

      存儲拒絕節點列表的文件。如和包含文件沖突,包含文件優先級高

    • yarn.resourcemanager.scheduler.class=org.apache.hadoop.yarn.server.resourcemanager.scheduler.fifo.FifoScheduler

      調度器實現類。

      建議使用公平調度器

    • yarn.scheduler.minimum-allocation-mb=1024

      每個container想RM申請內存的最小大小。兆字節。內存請求小于此值,實際申請到的是此值大小。默認值偏大

    • yarn.scheduler.maximum-allocation-mb=8192

      每個container向RM申請內存的最大大小,兆字節。申請值大于此值,將最多得到此值內存。

    • yarn.resourcemanager.recovery.enabled=FALSE

      是否啟動RM的狀態恢復功能。如果true,必須指定yarn.resourcemanager.store.class。嘗試啟用

    • yarn.resourcemanager.store.class=null

      用于持久存儲的類。嘗試開啟

    • yarn.resourcemanager.max-completed-applications=10000

      RM中保存的最大完成的app數量。內存中存儲。

    • yarn.nodemanager.address=0.0.0.0:0

      NM中的container管理器的地址:端口

    • yarn.nodemanager.env-whitelist=JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,YARN_HOME

      container應該覆蓋而不是使用NM的環境變量名單。允許container自己配置的環境變量

    • yarn.nodemanager.delete.debug-delay-sec=0

      秒,一個app完成后,NM刪除服務將刪除app的本地文件目錄和日志目錄。為了診斷問題,把這個選項設置成足夠大的值(例如,設置為10分鐘),可以繼續訪問這些目錄。設置此選項,需要重啟NM。Yarn應用的工作目錄根路徑是yarn.nodemanager.local-dirs,Yarn應用日志目錄的根路徑是yarn.nodemanager.log-dirs。

      調試問題時可用

    • yarn.nodemanager.local-dirs=${hadoop.tmp.dir}/nm-local-dir

      本地文件存儲目錄,列表。一個應用的本地文件目錄定位方式:${yarn.nodemanager.local-dirs}/usercache/${user}/appcache/application_${appid}。每個container的工作目錄,是此目錄的子目錄,目錄名是container_${contid}。

      非常重要,建議配置多個磁盤,平衡IO。

    • yarn.nodemanager.log-dirs=${yarn.log.dir}/userlogs

      存儲container日志的地方。一個應用的本地日志目錄定位是:${yarn.nodemanager.log-dirs}/application_${appid}。每個container的日志目錄在此目錄下,名字是container_{$contid}。每個container目錄中包含stderr, stdin, and syslog等container產生的文件

      非常重要,建議配置多個磁盤

    • yarn.log-aggregation-enable=FALSE

      是否允許日志匯聚功能。建議開啟

    • yarn.log-aggregation.retain-seconds=-1

      保存匯聚日志時間,秒,超過會刪除,-1表示不刪除。 注意,設置的過小,將導致NN垃圾碎片。建議3-7天 = 7 * 86400 = 604800

    • yarn.nodemanager.log.retain-seconds=10800

      保留用戶日志的時間,秒。在日志匯聚功能關閉時生效。

      建議7天

    • yarn.nodemanager.remote-app-log-dir=/tmp/logs

      匯聚日志的地方,目錄路徑,HDFS系統。

      對于開了權限檢查的系統,注意權限問題。HDFS上。

    • yarn.nodemanager.remote-app-log-dir-suffix=logs

      匯聚日志目錄路徑后綴。匯聚目錄創建在{yarn.nodemanager.remote-app-log-dir}/${user}/{thisParam}

    • yarn.nodemanager.resource.memory-mb=8192

      NM上可以用于container申請的物理內存大小,MB。

    • yarn.nodemanager.vmem-pmem-ratio=2.1

      在設置container的內存限制時,虛擬內存到物理內存的比率。Container申請的內存如果超過此物理內存,可以以此比率獲取虛擬內存用于滿足需求。虛擬地址的是物理地址的倍數上限。建議設置的大點,例如:4.1,8.1,此虛擬內存并非內存,而是占用的虛擬地址。

    • yarn.nodemanager.webapp.address=0.0.0.0:8042

      NM的網頁界面地址和端口。

    • yarn.nodemanager.log-aggregation.compression-type=none

      匯聚日志的壓縮類型。匯聚日志是TFile格式文件。Hadoop-3315。可以使用的值有none,lzo,gz等。

      可以嘗試

    • yarn.nodemanager.aux-services=null

      請配置為:mapreduce.shuffle,在Yarn上開啟MR的必須項

    • yarn.nodemanager.aux-services.mapreduce.shuffle.class=org.apache.hadoop.mapred.ShuffleHandler

      對應參考yarn.nodemanager.aux-services

    • mapreduce.job.jar=null

      Job客戶端參數。提交的job的jar文件。

    • mapreduce.job.hdfs-servers=${fs.defaultFS}

      Job客戶端參數。

    • yarn.application.classpath=$HADOOP_CONF_DIR,$HADOOP_COMMON_HOME/share/hadoop/common/,$HADOOP_COMMON_HOME/share/hadoop/common/lib/,$HADOOP_HDFS_HOME/share/hadoop/hdfs/,$HADOOP_HDFS_HOME/share/hadoop/hdfs/lib/,$YARN_HOME/share/hadoop/yarn/*,$YARN_HOME/share/hadoop/yarn/lib/*

      YARN應用的CLASSPATH,逗號分隔列表。

    • yarn.app.mapreduce.am.job.task.listener.thread-count=30

      MR AM處理RPC調用的線程數。

    • yarn.app.mapreduce.am.job.client.port-range=null

      MR AM能夠綁定使用的端口范圍。例如:50000-50050,50100-50200。 如果你先要全部的有用端口,可以留空(默認值null)。

    • yarn.app.mapreduce.am.job.committer.cancel-timeout=60000

      毫秒,如果job被kill了,等待output committer取消操作的時間。

    • yarn.app.mapreduce.am.scheduler.heartbeat.interval-ms=1000

      MR AM發送心跳到RM的時間間隔,毫秒

    • yarn.app.mapreduce.client-am.ipc.max-retries=3

      在重新連接RM獲取Application狀態前,客戶端重試連接AM的次數。

    • yarn.app.mapreduce.client.max-retries=3

      客戶端重連RM/HS/AM的次數。這是基于ipc接口上的規則

    • yarn.ipc.client.factory.class=null

      創建客戶端IPC類的工廠類

    • yarn.ipc.serializer.type=protocolbuffers

      使用哪種序列化類

    • yarn.ipc.server.factory.class=null

      創建IPC服務類的工廠類

    • yarn.ipc.exception.factory.class=null

      創建IPC異常的工廠類

    • yarn.ipc.record.factory.class=null

      創建序列化記錄的工廠類

    • yarn.ipc.rpc.class=org.apache.hadoop.yarn.ipc.HadoopYarnProtoRPC

      RPC類實現類

    • yarn.resourcemanager.client.thread-count=50

      RM用來處理客戶端請求的線程數

    • yarn.am.liveness-monitor.expiry-interval-ms=600000

      AM報告間隔,毫秒。?

    • yarn.resourcemanager.principal=null

      安全選項

    • yarn.resourcemanager.scheduler.client.thread-count=50

      調度器用于處理請求的線程數

    • yarn.resourcemanager.webapp.address=0.0.0.0:8088

      RM的網頁接口地址:端口

    • yarn.resourcemanager.resource-tracker.address=0.0.0.0:8031

    • yarn.acl.enable=TRUE

      開啟訪問控制

    • yarn.resourcemanager.admin.client.thread-count=1

      RM管理端口處理事務的線程數

    • yarn.resourcemanager.amliveliness-monitor.interval-ms=1000

      RM檢查AM存活的間隔

    • yarn.resourcemanager.container.liveness-monitor.interval-ms=600000

      檢查container存活的時間間隔,毫秒。建議短一些,例如3分鐘

    • yarn.resourcemanager.keytab=/etc/krb5.keytab

      安全選項

    • yarn.nm.liveness-monitor.expiry-interval-ms=600000

      RM判斷NM死亡的時間間隔。
      非主動檢查,被動等待,不連接時間超過此值
      10分鐘無檢查到活動,判定NM死亡

    • yarn.resourcemanager.nm.liveness-monitor.interval-ms=1000

      RM檢查NM存活的時間間隔。

    • yarn.resourcemanager.resource-tracker.client.thread-count=50

      處理資源跟蹤調用的線程數。?

    • yarn.resourcemanager.delayed.delegation-token.removal-interval-ms=30000

      安全選項

    • yarn.resourcemanager.application-tokens.master-key-rolling-interval-secs=86400

      安全選項

    • yarn.resourcemanager.container-tokens.master-key-rolling-interval-secs=86400

      安全選項

    • yarn.nodemanager.admin-env=MALLOC_ARENA_MAX=$MALLOC_ARENA_MAX

      應該從NM傳送到container的環境變量

    • yarn.nodemanager.container-executor.class=org.apache.hadoop.yarn.server.nodemanager.DefaultContainerExecutor

      啟動containers的類。

    • yarn.nodemanager.container-manager.thread-count=20

      用于container管理的線程數

    • yarn.nodemanager.delete.thread-count=4

    《新程序員》:云原生和全面數字化實踐50位技術專家共同創作,文字、視頻、音頻交互閱讀

    總結

    以上是生活随笔為你收集整理的Hadoop参数汇总的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

    精品久久久久久国产偷窥 | 色婷婷久久久综合中文字幕 | 97超碰人人澡人人 | 日本中文字幕影院 | 亚洲第一色| 夜夜躁日日躁狠狠久久88av | 五月激情五月激情 | 国产精品久久久久久久久久免费 | 亚洲国产精品一区二区久久,亚洲午夜 | a级片久久久 | 国产精品婷婷午夜在线观看 | 国产中文在线字幕 | 91九色视频在线 | 久久国产精品二国产精品中国洋人 | 97在线观看免费观看 | 九九九免费视频 | 欧美日韩国产精品一区二区三区 | 免费看污污视频的网站 | 草久视频在线观看 | 人人爱人人做人人爽 | 天堂va在线高清一区 | 久草综合视频 | 天天爽天天爽天天爽 | 免费在线看v | 亚洲精品美女久久17c | 日韩二区在线观看 | 深爱激情五月婷婷 | 国产精品va在线 | 国产专区一 | 日韩成人邪恶影片 | 久久精品美女 | 国产91在线看 | 欧美一级大片在线观看 | 欧美极品裸体 | 超碰在线亚洲 | 日韩精品你懂的 | 免费视频国产 | 日本激情中文字幕 | 欧美国产日韩一区二区 | 在线观看91视频 | 国产特级毛片aaaaaaa高清 | a级国产乱理论片在线观看 特级毛片在线观看 | 亚洲精品国产精品乱码在线观看 | 天天干夜夜爱 | 亚洲精品视频中文字幕 | 久久伊人综合 | 麻豆免费视频网站 | 在线看中文字幕 | 少妇视频一区 | 亚洲精品美女免费 | 国产精品乱码一区二区视频 | 久精品一区 | 波多野结衣日韩 | 国产成人精品av在线观 | 天堂av观看 | 欧美巨大荫蒂茸毛毛人妖 | 国产不卡一区二区视频 | 一区二区精品在线 | 91av视频| 免费久久网 | 不卡电影免费在线播放一区 | 伊人天天狠天天添日日拍 | 亚洲午夜久久久久久久久 | 狠狠色丁香久久婷婷综 | 精品国产综合区久久久久久 | 精品国产一区二区三区av性色 | 欧美热久久 | 天天操比 | 天天操天天摸天天干 | 五月婷香| 成人在线免费看视频 | 国产黄色片一级三级 | av在线中文 | 国产区精品 | 国产小视频你懂的在线 | 久久99九九99精品 | 91免费观看 | 夜夜爽夜夜操 | 久草香蕉在线 | 黄色三级免费片 | av在线播放观看 | 亚洲在线国产 | 六月丁香激情综合色啪小说 | 久久久精品福利视频 | 亚洲精品xxxx | 久久成人国产精品免费软件 | 久久精品视频在线免费观看 | 久久精品久久精品久久 | 成人a在线观看高清电影 | 久草新在线| 久久毛片视频 | 天天干天天搞天天射 | 久久国产一区二区三区 | 日本在线观看一区二区三区 | 日韩一二三区不卡 | 国产免费叼嘿网站免费 | 午夜成人免费电影 | 国产精品k频道 | 国产精品嫩草影视久久久 | 国产精品久久久久影院 | 久草在线视频首页 | 国产午夜三级 | 亚洲成av人片一区二区梦乃 | 西西44人体做爰大胆视频 | 久久a免费视频 | 国产精品久久久久久久久久久久午夜片 | 色婷婷福利视频 | 日日夜夜精品网站 | 欧美日韩免费在线视频 | 91精品网站在线观看 | 中文字幕在线日 | 久久国产精品一区二区 | 激情丁香在线 | 成人资源网 | 国产一区免费在线 | 精品国产一区二区三区免费 | 日韩系列在线观看 | 国产品久精国精产拍 | 天天操比 | 色在线视频 | 激情五月视频 | 男女啪啪视屏 | 成人小视频在线观看免费 | 国产成人三级在线观看 | 久久er99热精品一区二区三区 | 一区二区男女 | 国产一级片不卡 | 久草免费在线观看视频 | 中文字幕日韩国产 | 四虎天堂 | 播五月婷婷 | 黄p网站在线观看 | 欧美久久久久久久久久久 | 五月综合色 | 手机av在线不卡 | 久久天天躁夜夜躁狠狠85麻豆 | 成人av资源站 | 久久福利国产 | 久久99国产综合精品 | 在线国产99 | 国产第一福利 | 亚洲国产福利视频 | 五月香视频在线观看 | 欧美在线观看视频一区二区 | www.天天成人国产电影 | 日韩欧美视频在线免费观看 | 免费看网站在线 | 一区二区 不卡 | 日韩欧美在线高清 | 亚洲婷婷在线 | 99免费在线| 国产小视频福利在线 | 91在线一区| 日韩欧美在线中文字幕 | 婷婷综合av| 这里只有精品视频在线观看 | 亚洲精品91天天久久人人 | 看片网站黄| 激情小说 五月 | 亚洲激情国产精品 | 亚洲欧美视频网站 | 国产高清久久久久 | 日韩国产精品毛片 | 久久视频国产 | 麻花豆传媒一二三产区 | 操操操人人人 | 亚洲国产色一区 | 亚洲成aⅴ人在线观看 | 久久国产99| 久久精品爱爱视频 | 在线国产黄色 | 日韩高清 一区 | 黄色大片日本免费大片 | 国语麻豆 | 一区二区三区在线免费观看视频 | 美女黄频 | 综合网欧美| 国产系列在线观看 | 久久国产精品久久久久 | 国产精品毛片一区二区 | 18av在线视频 | 97碰视频 | 97网站 | 99综合影院在线 | 亚洲狠狠丁香婷婷综合久久久 | 天天鲁一鲁摸一摸爽一爽 | 天天爽综合网 | 久久亚洲综合国产精品99麻豆的功能介绍 | 中文字幕高清免费日韩视频在线 | 精品99在线视频 | 婷婷激情影院 | 国产黄色视 | 天天色天天上天天操 | 日韩欧美一区二区三区免费观看 | 日日干日日 | 美女网站色免费 | av网址最新 | 日韩免费一区 | 精品在线看 | 免费黄色网止 | 欧美激情xxxx性bbbb | 国产 日韩 在线 亚洲 字幕 中文 | 国产精品第 | av在线电影网站 | 亚洲免费在线视频 | 91九色精品 | 啪啪凸凸 | 欧美国产一区二区 | 免费观看91视频大全 | 欧美国产日韩在线观看 | 久久久久这里只有精品 | 亚洲一区二区黄色 | 亚洲国产精品免费 | 最新一区二区三区 | 精品一二三四视频 | 最新av网址大全 | 在线视频欧美亚洲 | 高清av免费看 | 国产精品永久在线 | 国产亚洲精品日韩在线tv黄 | 色视频国产直接看 | 在线播放国产一区二区三区 | 国产成人精品亚洲日本在线观看 | 在线观看国产www | 五月婷婷天堂 | 9999免费视频 | 久草在线一免费新视频 | 日本黄色一级电影 | 亚洲精品国产成人av在线 | 欧美一二三视频 | 国产精品一区二区三区在线 | 国产福利精品视频 | 国产精品毛片网 | 日韩av片在线 | 国内少妇自拍视频一区 | 特级aaa毛片| 97综合视频 | 中文乱幕日产无线码1区 | 中文av资源站 | 久久久综合香蕉尹人综合网 | 亚洲一级黄色大片 | 日韩av午夜| 国产色视频网站 | 夜色资源网 | 欧美另类tv| 国产一线二线三线在线观看 | 精品国内自产拍在线观看视频 | 亚洲区精品 | 久久av影视| 久久成人免费电影 | 日本黄色免费观看 | 久久99免费观看 | 99热.com| 国产高清久久久 | 国产精品自产拍在线观看网站 | 天天碰天天操视频 | 在线黄色观看 | 久久少妇| 超碰精品在线 | 五月天久久久久 | 国产日韩精品视频 | 国产精品久久久久久婷婷天堂 | av中文字幕电影 | 亚洲精品www久久久久久 | 日韩久久网站 | 婷婷中文字幕在线观看 | 探花视频免费观看高清视频 | 99精品亚洲 | 亚洲无毛专区 | 亚洲高清av在线 | 97超级碰碰碰视频在线观看 | 精品免费国产一区二区三区四区 | 国产成人综 | 亚洲综合在线观看视频 | 免费av在线网 | 久久女同性恋中文字幕 | 99精品视频在线观看免费 | 欧美一区中文字幕 | 国产麻豆视频免费观看 | 久久色在线播放 | 亚洲网站在线 | 天天操天天添天天吹 | 欧美另类成人 | 一级黄色免费 | 精品三级av | 手机在线中文字幕 | www国产亚洲精品久久网站 | 国产区久久 | 久久久久久久免费观看 | 99在线免费视频观看 | 午夜av在线 | 成年在线观看 | 亚洲国产影院av久久久久 | 精品在线亚洲视频 | 日韩精品最新在线观看 | 91热精品| 又污又黄网站 | 日韩精品一区二区三区免费视频观看 | 狠狠亚洲 | 精品一区二区三区在线播放 | 天天干天天插伊人网 | 免费能看的黄色片 | 婷久久| 在线视频黄 | 国产一级h | a在线一区 | 免费裸体视频网 | 国产精品video爽爽爽爽 | 在线观看国产区 | 国产成人精品一区二 | 99视频免费在线观看 | 婷婷久久一区二区三区 | 国产三级精品在线 | 综合在线色 | 久久五月情影视 | 亚洲天天 | 国产99久久精品一区二区永久免费 | 久久精品久久久精品美女 | 激情 一区二区 | 亚洲精品动漫在线 | 亚洲乱码精品久久久久 | 在线激情av电影 | 色a网| 欧美激情视频一区 | 在线播放精品一区二区三区 | 精品99久久久久久 | 久久91网| 日韩视频欧美视频 | 中文字幕高清在线 | 亚洲国产精品一区二区久久hs | 天天摸夜夜添 | 亚洲激精日韩激精欧美精品 | 亚洲一二三区精品 | 一区二区视频在线看 | 国产精品毛片一区二区在线看 | 久久精品一区二区国产 | 精品国产91亚洲一区二区三区www | 视频精品一区二区三区 | 99久久激情| 国产成人区 | 在线观看免费高清视频大全追剧 | 国产精品99久久久久久武松影视 | 精品久久久一区二区 | 处女av在线 | 免费观看福利视频 | 91视频com | av日韩国产 | 91福利社区在线观看 | 人人澡人人模 | 五月婷婷免费 | 五月婷婷.com | 午夜国产福利在线 | 91精品1区 | 国产最新在线 | 精品国产诱惑 | 日韩在线免费小视频 | 欧美日韩免费一区二区 | 狠狠色丁香久久婷婷综合五月 | 国产一区二区三区在线 | 97理论电影 | 久久精品99国产 | 午夜久久久久久久久久影院 | 激情婷婷网 | 狠狠干夜夜爽 | 在线视频在线观看 | 在线观看色网 | 免费人做人爱www的视 | 国产一级在线观看 | 免费热情视频 | 国产99久久久国产精品免费二区 | 国产欧美最新羞羞视频在线观看 | 丁香视频全集免费观看 | 在线电影日韩 | 天天综合久久 | 蜜桃麻豆www久久囤产精品 | 国产精品18久久久久久久久 | 在线导航av | 伊人狠狠操 | 贫乳av女优大全 | 国产无区一区二区三麻豆 | 人人爱在线视频 | 免费av成人在线 | 99精品一区二区三区 | 久青草视频在线观看 | 日韩三级不卡 | 超碰999| 麻豆影视网 | 国产精品毛片一区二区在线看 | 黄色成年网站 | 亚洲人成在线观看 | 久久精品99 | 涩涩网站免费 | 天天曰天天爽 | 免费在线| 天天干天天干天天 | 国产在线成人 | 久久婷婷国产 | 天天综合中文 | 激情久久综合 | 久久亚洲人 | 色视频网站在线观看一=区 a视频免费在线观看 | 天天狠狠操 | 在线亚洲欧美视频 | 日韩视 | 婷婷激情欧美 | adc在线观看 | 九九热精品视频在线播放 | 天天射天天搞 | 成人黄色影片在线 | 亚洲资源在线网 | 一区二区三区免费看 | 精品国产亚洲在线 | 日韩最新在线 | 日韩免费在线一区 | 成人黄色电影免费观看 | 亚洲性少妇性猛交wwww乱大交 | 国产精品一区二区三区在线播放 | 91精品秘密在线观看 | 日韩欧美在线视频一区二区三区 | 中文字幕在线一区观看 | 五月天久久精品 | 精品福利av | 成人福利在线播放 | 久久久久久毛片精品免费不卡 | 亚洲人久久 | www国产一区| 日日摸日日碰 | 日日夜精品 | www.天天成人国产电影 | 久久国产精彩视频 | 久久99热久久99精品 | 久久久.com | 99精品免费网 | 韩日精品在线 | 二区三区视频 | 中国精品一区二区 | 97理论电影 | 成人久久影院 | 亚洲久久视频 | 亚洲成人家庭影院 | 日韩免费中文字幕 | 久久久久久久久久久综合 | 久久免费一级片 | 在线观看中文字幕视频 | 精品av网站 | 亚洲九九爱| 毛片网站在线 | 五月天视频网站 | 亚洲成人黄色 | 久艹视频在线观看 | 亚洲久在线 | 午夜色场 | 一本一道波多野毛片中文在线 | 黄色在线看网站 | 国产精品久久久久久久av电影 | 天天操天天谢 | 久久精品国产精品亚洲精品 | 999在线精品| 十八岁以下禁止观看的1000个网站 | 黄色毛片观看 | 日韩三级视频在线看 | 国产成人av一区二区三区在线观看 | 亚洲精品国偷拍自产在线观看蜜桃 | 亚洲一区视频免费观看 | 9999精品| 国产精品成久久久久三级 | 五月婷婷在线视频观看 | 久久久久伦理电影 | 国产亚洲精品久久久久久久久久 | 国产色道 | 国产美女视频免费 | 激情视频二区 | 久久久国产成人 | 91久久久久久国产精品 | 日韩高清在线看 | av专区在线 | 国产黄大片在线观看 | 四虎国产精品免费观看视频优播 | wwxxxx日本 | 亚洲精品免费观看视频 | 天天色图| 一区二区三区中文字幕在线观看 | 99视频国产精品 | 丁香婷婷综合激情五月色 | 国产精品白浆视频 | 91免费看黄色 | 国产黄色成人av | 最近中文国产在线视频 | 久久精品理论 | 午夜免费视频网站 | 在线视频久久 | 午夜精品一区二区三区可下载 | 中文字幕在线网 | 69视频国产 | 亚洲精选在线观看 | 国产精品18久久久久久vr | 人人揉人人揉人人揉人人揉97 | 欧美亚洲久久 | 精品国产一区二区三区四区在线观看 | 亚洲理论在线观看 | 香蕉视频在线视频 | 亚洲综合成人专区片 | av在线免费不卡 | 久久久久久毛片 | av大全在线免费观看 | 精品久久久久久久久久岛国gif | 永久免费精品视频 | 在线有码中文字幕 | 一区二区三区视频网站 | 国产女人18毛片水真多18精品 | 国产精品自产拍 | 日韩免 | 国产精品3区 | 狠狠干夜夜爽 | 激情视频久久 | 粉嫩av一区二区三区四区五区 | 特级黄色片免费看 | 一区二区三区四区不卡 | 在线免费av播放 | 婷婷色网视频在线播放 | 亚洲成人精品在线 | 夜夜操狠狠操 | 国产精品成久久久久 | 色a在线观看 | 亚洲国产免费网站 | 四虎影视成人精品国库在线观看 | 日本久久成人 | 91色国产在线 | 在线观看中文字幕第一页 | 三级动态视频在线观看 | 中文字幕av播放 | 999成人| 久久综合中文字幕 | 午夜美女网站 | 超碰国产在线播放 | 亚洲专区中文字幕 | 精品影院| 婷婷激情5月天 | 国产喷水在线 | 99r在线 | 免费成人短视频 | 国产精品免费久久久久 | 国产一区观看 | 绯色av一区| 在线观看免费国产小视频 | www日韩欧美| 久久麻豆精品 | av短片在线 | 色综合久久精品 | 九九免费精品视频在线观看 | 欧美怡红院视频 | 久久福利剧场 | 91精品推荐 | 国产在线精品一区二区三区 | 国产在线国偷精品产拍免费yy | 天天综合网 天天 | 91中文字幕在线播放 | 深爱激情综合 | 色香蕉视频 | www.超碰97.com | 国产一区二区在线免费观看 | 国产特黄色片 | 狠狠的日日 | 久久99精品国产91久久来源 | 911国产 | 久久国产欧美日韩精品 | av中文字幕剧情 | 久久精品国产免费 | 国产一区二区三区免费在线观看 | 91精品国产自产在线观看永久 | 久久综合狠狠综合久久狠狠色综合 | 国产69精品久久app免费版 | 天天躁日日躁狠狠躁av麻豆 | 精品国产人成亚洲区 | 99热在线精品观看 | 在线免费观看亚洲视频 | 亚洲一级电影 | 精品国模一区二区 | 黄色成人91 | 欧美色图亚洲图片 | 在线影视 一区 二区 三区 | 亚洲无吗视频在线 | 超碰成人av| 久久久久久中文字幕 | 亚洲精品www | av成人免费网站 | 国外成人在线视频网站 | 久久久久免费观看 | 97色涩| 亚洲专区视频在线观看 | 免费观看视频黄 | 超碰在线中文字幕 | 免费精品视频在线观看 | 狠狠色噜噜狠狠 | 国产在线观看免费观看 | 亚洲精品视频播放 | 中文不卡视频在线 | 日韩在线播放av | 我要看黄色一级片 | 99产精品成人啪免费网站 | 少妇性aaaaaaaaa视频 | 伊人资源站 | 亚洲精品视频大全 | 国产特级毛片aaaaaaa高清 | 成人 国产 在线 | 免费久久精品视频 | 伊人黄色网| 91九色精品女同系列 | 久久国产精品网站 | 四虎成人精品在永久免费 | www.五月天 | 中文字幕在线观看视频免费 | 免费视频在线观看网站 | 91网站观看 | 久久艹国产视频 | 欧美日韩国产二区三区 | www99精品| 国产精品a久久 | 中文字幕免费观看全部电影 | 日韩午夜小视频 | 久久免费视频一区 | 久久中文精品视频 | 91亚洲综合 | 国产成人久久精品77777综合 | 久久精品国产亚洲精品2020 | 国产69精品久久久久99尤 | 99这里都是精品 | www.黄色片.com | av电影久久| 成人午夜精品久久久久久久3d | 永久av免费在线观看 | 精品日韩视频 | 99久久精品免费看国产四区 | 免费观看一级视频 | 国产亚洲婷婷 | 欧美成人在线免费观看 | 2019中文最近的2019中文在线 | 九九热在线精品视频 | 亚洲欧美日韩国产精品一区午夜 | 日韩av黄 | 久久综合色影院 | 久久精彩免费视频 | 久热免费在线 | 久久露脸国产精品 | 午夜精品麻豆 | 国产精品一区二区三区免费看 | 在线看福利av| 九九九热精品免费视频观看网站 | 丁香婷婷在线观看 | 国产精品黑丝在线观看 | 97超碰香蕉 | 天天干,天天操 | 免费看v片 | 综合色亚洲 | 久久国产精品二国产精品中国洋人 | 免费看国产黄色 | 国产午夜在线观看 | 国产女教师精品久久av | 欧美日韩精品免费观看视频 | 国产精品乱码高清在线看 | 97超碰中文字幕 | 日b视频在线观看网址 | 日韩三级一区 | 丁香婷婷深情五月亚洲 | 婷婷色av | 在线看国产视频 | 国产在线观看a | 国产精品综合久久 | 成人在线观看你懂的 | 91视频这里只有精品 | 视频在线一区二区三区 | 亚洲欧美成aⅴ人在线观看 四虎在线观看 | 91成人精品在线 | 99在线看| 亚洲理论影院 | 国产免费av一区二区三区 | 久草视频在线免费看 | 免费日韩三级 | 在线精品视频在线观看高清 | 中文字幕亚洲综合久久五月天色无吗'' | 911久久香蕉国产线看观看 | 天天操天天舔天天爽 | 亚州av网站 | 久久精品1区 | 久久在线一区 | 国产黄色特级片 | 99热99re6国产在线播放 | 亚洲毛片在线观看. | 人人干人人干人人干 | 午夜精品一二区 | 国产精品久久网站 | 在线一区二区三区 | 久草视频在线免费 | 亚洲精品视频在线观看视频 | 久久久黄色av | 在线天堂中文在线资源网 | 伊人亚洲综合 | 99热99| 国产麻豆精品久久一二三 | 2023年中文无字幕文字 | 国产精品毛片一区二区在线 | www.av小说| 六月丁香婷婷网 | 日韩av免费一区二区 | 午夜三级影院 | 国产精品久久一区二区三区不卡 | 天天操福利视频 | 成人资源在线观看 | 亚洲国产成人在线 | 亚洲男女精品 | 麻豆影视在线播放 | 国产精品久久久网站 | 超级碰碰碰视频 | 色婷婷99 | 黄色一二级片 | 五月激情丁香图片 | 久久成年人网站 | 久久国产成人午夜av影院宅 | 国产传媒中文字幕 | 亚洲日本精品 | 日韩精品高清视频 | 国产精品亚洲精品 | 伊人成人久久 | 色婷婷综合久久久久中文字幕1 | 少妇性bbb搡bbb爽爽爽欧美 | 99久久精品视频免费 | 久久久影院一区二区三区 | 欧美91精品国产自产 | av免费观看高清 | 国产一级片观看 | 欧美动漫一区二区三区 | 视频91在线 | 九九热免费观看 | 激情五月开心 | 啪啪免费试看 | 国产九九热视频 | 狠狠插狠狠干 | 婷婷视频在线 | 五月天中文字幕mv在线 | 国产精品久久毛片 | 一级成人在线 | 久久精品99精品国产香蕉 | 91精品在线观看入口 | 国产精品女视频 | 国产一线二线三线性视频 | 日韩成人黄色av | 亚洲精品国产麻豆 | 国外成人在线视频网站 | 91在线精品一区二区 | 亚洲激情 欧美激情 | 91在线国产观看 | 中文字幕一区二区在线播放 | 亚洲视频免费在线观看 | 天天干.com | 在线a人v观看视频 | 国产成人久 | 国产精品完整版 | 成年人在线视频观看 | 亚洲伊人成综合网 | 成人网中文字幕 | 91丨精品丨蝌蚪丨白丝jk | 国产aa精品 | 一区二区三区在线免费观看视频 | 天天曰夜夜爽 | 中文字幕在线观看一区二区三区 | 91在线日本 | 黄色大全视频 | 色国产在线 | 国产99久久久国产精品成人免费 | 一区二区三区在线免费观看 | 911国产| 91人网站| 亚洲综合在线视频 | 欧美成年黄网站色视频 | 在线观看日韩精品视频 | 国产一区欧美一区 | 欧美在线观看禁18 | 精品国产一区二 | 国产手机在线视频 | 中文字幕日本在线 | 在线国产91 | 视频91| 青青河边草观看完整版高清 | 久草视频99 | 中文字幕丝袜美腿 | 手机看片中文字幕 | 日韩在线观看一区二区三区 | 久久xx视频 | 久久99亚洲精品久久久久 | 亚洲国产成人av网 | 国产经典 欧美精品 | 午夜精品久久久久久久久久久久 | 欧美怡红院 | 亚洲欧美怡红院 | 欧美日韩裸体免费视频 | 91人人澡人人爽 | 又色又爽又黄高潮的免费视频 | 韩国av在线播放 | 91成人免费在线 | 国产欧美综合在线观看 | www.99在线观看 | www.色午夜.com | 91精品导航 | 91视频免费看 | 日韩精品一区二区三区免费视频观看 | 99精品视频在线看 | 亚洲五月激情 | 免费观看高清 | 黄色特级片 | 欧洲精品久久久久毛片完整版 | 97香蕉视频 | 久久久久久久久亚洲精品 | 国产中文字幕视频在线观看 | 黄色在线观看免费网站 | 91麻豆精品久久久久久 | 久久久免费观看 | 午夜三级在线 | 在线国产黄色 | 国产原创av在线 | 国产黄色片免费看 | 日本精品小视频 | 欧美天堂视频在线 | 免费a视频 | 精品国偷自产在线 | 99福利片 | 国产免费久久久久 | 国产五月 | 日韩欧美专区 | 久久再线视频 | 欧美在线观看视频 | 日本久久成人中文字幕电影 | 97超碰人人澡人人爱学生 | 中文国产字幕 | 亚洲欧美国内爽妇网 | 中文字幕一区av | 国产精品美女久久久久久久 | 日本天天操 | 日韩大片在线观看 | 国产成人高清在线 | 91超级碰碰 | 国产精品福利午夜在线观看 | 久久国产精品久久w女人spa | 国产精品99免费看 | 久久久99久久 | 国产一卡在线 | 在线看成人 | 91av视频播放 | x99av成人免费 | 欧美一区二区在线免费观看 | 99久久毛片 | 久久久久久国产精品久久 | 日韩视频免费在线观看 | 国产高清视频免费在线观看 | 久久天天躁狠狠躁夜夜不卡公司 | 亚洲激情 在线 | 一级a毛片高清视频 | 日韩高清av| 久青草电影 | 中文字幕色综合网 | 91最新地址永久入口 | 在线播放国产一区二区三区 | 一区二区三区电影 | 夜夜躁狠狠躁日日躁 | 午夜精品一区二区三区在线播放 | a级片网站| 久久影视网 | 国产97在线播放 | a v在线视频| 成人免费视频网站 | 成人网看片 | 欧美天堂影院 | 久久免费国产视频 | 久久久久欠精品国产毛片国产毛生 | 欧美男同网站 | av一级二级 | 狠狠激情中文字幕 | 免费看片成年人 | 成人欧美一区二区三区在线观看 | 一区二区三区电影 | 久久国产精品免费 | 久草视频视频在线播放 | 亚洲国产手机在线 | 久久久久一区二区三区 | 国产日韩高清在线 | 天天做夜夜做 | 国产成人在线一区 | 欧美日韩另类在线 | 日韩欧美在线国产 | 国产精品一区二区久久久久 | 亚洲资源在线 | 成人蜜桃网 | 最新日本中文字幕 | 国产成人l区 | 久久免费国产精品1 | 久久99久久99精品免费看小说 | 热re99久久精品国产99热 | 日韩黄色影院 | 久久国语 | 久章草在线观看 | 久久99精品国产99久久6尤 | 亚洲电影成人 | 亚一亚二国产专区 | a视频免费看 | 欧美激情精品久久久 | 天天躁日日躁狠狠 | 国产99久久久国产精品免费二区 | 免费瑟瑟网站 | 综合天堂av久久久久久久 | a在线免费 | 日韩三级免费 | 久久在线免费观看 | 久久久国产网站 | 国产成人久久精品77777综合 | 日韩一区二区三区免费电影 | 精品国产欧美一区二区三区不卡 | 国产精品99久久久久 | 成人毛片在线观看视频 | 免费午夜av | 国产精品久久久久久妇 | 国产原创在线视频 | 91av视频网 | 97在线精品国自产拍中文 | 伊色综合久久之综合久久 | 久久久久久久久久伊人 | 久九视频| 日韩在线视频精品 | 97视频网站 | 国产91成人在在线播放 | www五月天婷婷| 久久久久免费精品国产小说色大师 | 五月婷婷导航 | 日韩免费观看av | 久热电影 | 亚洲成人精品久久久 | 日韩视频免费在线 | 中文字幕免费不卡视频 | 日韩在线国产 | www.97视频| 中文字幕一区av | av黄色av| 亚洲在线日韩 | av在线免费观看黄 | 久久久久久国产精品美女 | 狠狠操天天操 | 成人av免费播放 | 国产精品1区2区 | 国产精品久久久久影视 | 一区二区三区在线不卡 | 亚洲黄a | 91精品视频在线 | 天天操天天艹 | 中日韩免费视频 | 免费看三级网站 | 欧美专区国产专区 | 欧洲精品视频一区二区 | 成人在线观看免费 | 久久久国产精品视频 | 亚洲国产丝袜在线观看 | 中文字幕一区二区三区乱码不卡 | 玖玖精品在线 | 久久国产a | 激情视频91 | 日韩av一区二区三区在线观看 | 激情久久一区二区三区 | 欧美热久久 | 狠狠躁日日躁夜夜躁av | 国产色小视频 | 少妇bbbb搡bbbb桶 | 国产福利专区 | 天天操狠狠操夜夜操 | www.天天色.com| 亚洲国产中文字幕在线视频综合 | 欧美日性视频 | 五月婷婷伊人网 | 亚州av网站大全 | 国产又粗又猛又黄又爽的视频 | www.久久色 | 99在线观看 | 国产欧美精品xxxx另类 | 亚洲 综合 专区 | 91大神dom调教在线观看 | 五月婷婷狠狠 | 国产亚洲永久域名 | 亚州av网站大全 | 日韩另类在线 | 久久久私人影院 | 国产亚洲婷婷免费 | 在线v片| 久久理论视频 | 日韩午夜视频在线观看 | 亚洲成av人片 | 成人动漫精品一区二区 | 18做爰免费视频网站 | 免费成人av网站 | 日韩在线视频免费播放 | 91字幕| 日韩激情第一页 | 黄色精品在线看 |