日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Kafka动态认证SASL/SCRAM配置+整合springboot配置

發布時間:2023/12/14 编程问答 26 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Kafka动态认证SASL/SCRAM配置+整合springboot配置 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

記錄:

zookeeper啟動命令:

[root@master-yzjgxh2571705819-1651919082731-99-0727183 bin]# ./zkServer.sh start
[root@master-yzjgxh2571705819-1651919082731-99-0727183 bin]# ./zkServer.sh stop

kafka啟動命令:

/data/program/kafka2.12/bin/kafka-server-start.sh /data/program/kafka2.12/config/server.properties

創建SCRAM證書

1)創建broker建通信用戶:admin(在使用sasl之前必須先創建,否則啟動報錯)

bin/kafka-configs.sh --zookeeper 127.0.0.1:2181 --alter?
--add-config 'SCRAM-SHA-256=[password=admin-sec],
SCRAM-SHA-512=[password=admin-sec]' --entity-type users --entity-name admin

2)創建生產用戶:producer

bin/kafka-configs.sh --zookeeper 127.0.0.1:2181 --alter?
--add-config 'SCRAM-SHA-256=[iterations=8192,password=prod-sec],
SCRAM-SHA-512=[password=prod-sec]' --entity-type users --entity-name producer

?3)創建消費用戶:consumer

bin/kafka-configs.sh --zookeeper 127.0.0.1:2181 --alter?
--add-config 'SCRAM-SHA-256=[iterations=8192,password=cons-sec],
SCRAM-SHA-512=[password=cons-sec]' --entity-type users --entity-name consumer

SCRAM-SHA-256/SCRAM-SHA-512是對密碼加密的算法,二者有其一即可

查看SCRAM證書

bin/kafka-configs.sh --zookeeper localhost:2181 --describe --entity-type users --entity-name consumer
bin/kafka-configs.sh --zookeeper localhost:2181 --describe --entity-type users --entity-name producer

服務端配置

1)創建JAAS文件

vi config/kafka_server_jaas.conf

?內容:

?KafkaServer {
org.apache.kafka.common.security.scram.ScramLoginModule required
username="admin"
password="admin-sec";
};

2)將JAAS配置文件位置作為JVM參數傳遞給每個Kafka Broker【bin/kafka-server-start.sh】添加

exec $base_dir/kafka-run-class.sh?
$EXTRA_ARGS -Djava.security.auth.login.config
=/home/test/kiki/kafka/ka/config/kafka_server_jaas.conf kafka.Kafka "$@"

操作:

vi bin/kafka-server-start.sh?

?修改最后一行

#exec $base_dir/kafka-run-class.sh $EXTRA_ARGS kafka.Kafka "$@"
exec $base_dir/kafka-run-class.sh $EXTRA_ARGS -Djava.security.auth.login.config=/data/program/kafka2.12/config/kafka_server_jaas.conf kafka.Kafka "$@"

3)配置server.properties【config/server.properties】

#認證配置
listeners=SASL_PLAINTEXT://:9092
security.inter.broker.protocol=SASL_PLAINTEXT
sasl.mechanism.inter.broker.protocol=SCRAM-SHA-256
sasl.enabled.mechanisms=SCRAM-SHA-256
#ACL配置
allow.everyone.if.no.acl.found=false
super.users=User:admin
authorizer.class.name=kafka.security.auth.SimpleAclAuthorizer

當前測試kafka端口為8100

?vi config/server.properties?

#listeners=PLAINTEXT://:8100

listeners=SASL_PLAINTEXT://:8100
security.inter.broker.protocol=SASL_PLAINTEXT
sasl.mechanism.inter.broker.protocol=SCRAM-SHA-512
sasl.enabled.mechanisms=SCRAM-SHA-512

advertised.listeners=SASL_PLAINTEXT://183.56.218.28:8100

#ACL配置
allow.everyone.if.no.acl.found=false
super.users=User:admin
authorizer.class.name=kafka.security.auth.SimpleAclAuthorizer

個人備注:

log.dirs=/data/program/kafka2.12/data

zookeeper.connect=183.56.218.28:2181

SCRAM-SHA-512與SCRAM-SHA-216可互相更改,看需要什么類型。PLAINTEXT為不需要認證

4)重啟Kafka和Zookeeper

客戶端配置

?1)為我們創建的三個用戶分別創建三個JAAS文件:分別命名為
kafka_client_scram_admin_jaas.conf
kafka_client_scram_producer_jaas.conf
kafka_client_scram_consumer_jaas.conf

vi bin/kafka_client_scram_admin_jaas.conf

KafkaClient { org.apache.kafka.common.security.scram.ScramLoginModule required username="admin" password="admin-sec"; };

vi bin/kafka_client_scram_producer_jaas.conf

KafkaClient { org.apache.kafka.common.security.scram.ScramLoginModule required username="producer" password="prod-sec"; };

vi bin/kafka_client_scram_consumer_jaas.conf

KafkaClient { org.apache.kafka.common.security.scram.ScramLoginModule required username="consumer" password="cons-sec"; };

2)修改啟動腳本引入JAAS文件:
生產者配置:
配置bin/kafka-console-producer.sh

exec $(dirname $0)/kafka-run-class.sh?
-Djava.security.auth.login.config
=/data/program/kafka2.12/config/kafka_client_scram_producer_jaas.conf

消費者配置:
配置bin/kafka-console-consumer.sh

exec $(dirname $0)/kafka-run-class.sh?
-Djava.security.auth.login.config
=/data/program/kafka2.12/config/kafka_client_scram_consumer_jaas.conf

3)配置consumer.properties和producer.properties,都要加入以下配置

security.protocol=SASL_PLAINTEXT
sasl.mechanism=SCRAM-SHA-512

4)創建主題

[test@police ka]$ bin/kafka-topics.sh --zookeeper localhost:2181 --create --topic test --partitions 2 --replication-factor 1

5)啟動生產(ps:結束也未能成功測試該命令是否能用,后面在代碼方面配置就好)

bin/kafka-console-producer.sh --broker-list 127.0.0.1:9092 --topic test --producer.config config/producer.properties

發現會報權限相關的錯

6)對生產者賦予寫的權限

bin/kafka-acls.sh --authorizer kafka.security.auth.SimpleAclAuthorizer
--authorizer-properties zookeeper.connect=localhost:2181 --add
?--allow-principal User:producer --operation Write --topic test

7)對消費者賦予讀的權限

bin/kafka-acls.sh --authorizer kafka.security.auth.SimpleAclAuthorizer
--authorizer-properties zookeeper.connect=localhost:2181 --add
?--allow-principal User:consumer --operation Read --topic test

此時啟動消費者(ps:結束也未能成功測試該命令是否能用,后面在代碼方面配置就好)

bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test --from-beginning --consumer.config config/consumer.properties

此時依舊會報錯,報未對消費者組授權。給groupId配權

bin/kafka-acls.sh --authorizer kafka.security.auth.SimpleAclAuthorizer
--authorizer-properties zookeeper.connect=localhost:2181 --add?
--allow-principal User:consumer --operation Read --group test-group

此時再啟動消費者,可以發現能正常消費生產者的消息

8)查看權限

bin/kafka-acls.sh --authorizer kafka.security.auth.SimpleAclAuthorizer?
--authorizer-properties zookeeper.connect=localhost:2181 --list

springboot整合配置

權限主要配置部分格式:

? ? ? props.put("security.protocol", "SASL_PLAINTEXT");
? ? ? props.put("sasl.mechanism", "SCRAM-SHA-512");
? ? ? props.put("sasl.jaas.config",
? ? ? ? ? ? "org.apache.kafka.common.security.scram.ScramLoginModule required username='easy' password='easy1234';");

生產者:

//異步發送@Testfun customProducer() {//配置val properties = Properties()//鏈接kafkaproperties[ProducerConfig.BOOTSTRAP_SERVERS_CONFIG] = "183.56.218.28:8100"//指定對應key和value的序列化類型(二選一) // properties[ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG] = "org.apache.kafka.common.serialization.StringSerializer"properties[ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG] = StringSerializer::class.java.nameproperties[ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG] = StringSerializer::class.java.nameproperties[CommonClientConfigs.SECURITY_PROTOCOL_CONFIG] = "SASL_PLAINTEXT"properties[SaslConfigs.SASL_MECHANISM] = "SCRAM-SHA-512"properties[SaslConfigs.SASL_JAAS_CONFIG] = "org.apache.kafka.common.security.scram.ScramLoginModule required username=\"producer\" password=\"prod-sec\";"val kafkaProducer = KafkaProducer<String, String>(properties)//發送數據for (i in 0 until 1) {//黏性發送,達到設置的數據最大值/時間后,切換分區(不會是當前分區)kafkaProducer.send(ProducerRecord("test", "我是成功:::${LocalDateTime.now()}"))}//"type":"UPDATE/ADD/DELETE"//關閉資源kafkaProducer.close()}

消費者

package com.umh.medicalbookingplatform.background.configimport com.umh.medicalbookingplatform.core.properties.ApplicationProperties import org.apache.kafka.clients.CommonClientConfigs import org.apache.kafka.clients.consumer.ConsumerConfig import org.apache.kafka.common.config.SaslConfigs import org.apache.kafka.common.serialization.StringDeserializer import org.springframework.beans.factory.annotation.Autowired import org.springframework.context.annotation.Bean import org.springframework.context.annotation.Configuration import org.springframework.kafka.annotation.EnableKafka import org.springframework.kafka.config.ConcurrentKafkaListenerContainerFactory import org.springframework.kafka.core.ConsumerFactory import org.springframework.kafka.core.DefaultKafkaConsumerFactory/*** @Description :* @Author xiaomh* @date 2022/8/30 14:14*/@EnableKafka @Configuration class KafkaConsumerConfig {@Autowiredprivate lateinit var appProperties: ApplicationProperties@Beanfun consumerFactory(): ConsumerFactory<String?, String?> {val props: MutableMap<String, Any> = HashMap()props[ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG] = appProperties.kafkaBootstrapServersConfig.toString()props[ConsumerConfig.GROUP_ID_CONFIG] = appProperties.kafkaGroupId.toString()props[ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG] = StringDeserializer::class.javaprops[ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG] = StringDeserializer::class.javaprops[ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG] = StringDeserializer::class.javaprops[CommonClientConfigs.SECURITY_PROTOCOL_CONFIG] = appProperties.kafkaSecurityProtocol.toString()props[SaslConfigs.SASL_MECHANISM] = appProperties.kafkaSaslMechanism.toString()props[SaslConfigs.SASL_JAAS_CONFIG] = appProperties.kafkaSaslJaasConfig.toString()return DefaultKafkaConsumerFactory(props)}@Beanfun kafkaListenerContainerFactory(): ConcurrentKafkaListenerContainerFactory<String, String>? {val factory = ConcurrentKafkaListenerContainerFactory<String, String>()factory.setConsumerFactory(consumerFactory())return factory} }

yml

kafkaBootstrapServersConfig: xxxxxx:8100 kafkaGroupId: test-group kafkaSecurityProtocol: SASL_PLAINTEXT kafkaSaslMechanism: SCRAM-SHA-512 kafkaSaslJaasConfig: org.apache.kafka.common.security.scram.ScramLoginModule required username="consumer" password="cons-sec";

?參考

Kafka動態認證SASL/SCRAM驗證_慕木兮人可的博客-CSDN博客

總結

以上是生活随笔為你收集整理的Kafka动态认证SASL/SCRAM配置+整合springboot配置的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 不卡一区二区在线视频 | 免费高清黄色 | 噼里啪啦动漫 | 欧美污视频在线观看 | 美女赤身免费网站 | 91美女视频在线观看 | 波多野结衣电影免费观看 | 热九九精品 | 一区二区三区在线播放视频 | 国产精彩视频一区二区 | 一区免费 | 久久97精品久久久久久久不卡 | 老色批影视 | av2014天堂| 午夜动态图 | 成人亚洲一区 | 成人手机av| 91香蕉视频在线观看免费 | 成 人 免费 黄 色 | 日日嗨av一区二区三区四区 | 反差在线观看免费版全集完整版 | 欧美福利网 | 激情久久久久 | 第一福利av| 91久久精品一区二区 | 欧美高h| aaa亚洲精品 | 中文字幕五码 | 伊人色区 | 久久精品国产亚洲AV无码男同 | 国产一级片中文字幕 | 国产精品影院在线观看 | 精品国产av无码 | 亚洲福利专区 | 人妻精品久久久久中文 | 国产视频在线一区 | 人人澡人人爽 | 国产精品乱码久久久久久久久 | 中文字幕导航 | 国产婷婷在线观看 | 国产极品美女高潮无套在线观看 | 亚洲国产午夜 | 成人三级做爰av | 免费成人黄色网 | 一级片免费观看视频 | av色站| 深夜福利网| 韩国美女被c | 免费成人深夜 | 岛国视频一区 | 天天做天天操 | 亚洲乱码国产乱码精品精的特点 | 国产黄色成人 | 国产尤物视频在线 | 狠狠操狠狠摸 | 日本少妇全体裸体洗澡 | 东方av在线免费观看 | 日韩理论视频 | 在线观看视频免费 | 久免费一级suv好看的国产 | 夜夜夜夜爽 | 蜜桃视频一区二区三区 | 色视频免费 | 曰本丰满熟妇xxxx性 | 黑人玩弄人妻一区二区三区影院 | 日韩久久久久久久久久 | 少妇熟女一区二区 | 人妻精品一区二区三区 | 欧洲精品无码一区二区 | 少妇又白又嫩又色又粗 | 一区二区亚洲精品 | 日本少妇三级 | 日韩影音| 成年人三级视频 | 成人无码精品1区2区3区免费看 | 一区二区亚洲视频 | 日韩精品视频免费在线观看 | 国模精品一区二区三区 | 一起操在线观看 | 免费观看高清在线 | 久草免费资源站 | 国产精品成人免费一区二区视频 | 亚洲精品国产免费 | 99久国产 | 我我色综合 | 999毛片| 国产精品久久国产精品 | 久久久久亚洲av片无码下载蜜桃 | 蜜臀网在线 | 欧美无遮挡高潮床戏 | 大尺度一区二区 | 色人阁在线视频 | 最新黄色av | 麻豆影视网站 | 国产精品爽| 婷婷亚洲综合五月天小说 | 亚洲精品网址 | 日本精品专区 | xxxx日本黄色 |