kafka安装librdkafka kerbeross报错,求助

问题对人有帮助,内容完整,我也想知道答案
问题没有实际价值,缺少关键内容,没有改进余地
kafka_2.10-0.10.1.0zookeeper-3.4.9
zk已经启动了
在用命令启动kafka出错
kafka-server-start.bat ../../config/server.properties
错误: 找不到或无法加载主类 Files\Java\jdk1.7.0_80\C:\Program
不是jdk问题,确定jdk安装正确。因为其他依赖jdk程序的都可以运行,包括kafka0.8、0.9版本都可以正常运行
答案对人有帮助,有参考价值
答案没帮助,是错误的答案,答非所问
分享到微博?
你好!看起来你挺喜欢这个内容,但是你还没有注册帐号。 当你创建了帐号,我们能准确地追踪你关注的问题,在有新答案或内容的时候收到网页和邮件通知。还能直接向作者咨询更多细节。如果上面的内容有帮助,记得点赞 (????)? 表示感谢。
明天提醒我
关闭理由:
删除理由:
忽略理由:
推广(招聘、广告、SEO 等)方面的内容
与已有问题重复(请编辑该提问指向已有相同问题)
答非所问,不符合答题要求
宜作评论而非答案
带有人身攻击、辱骂、仇恨等违反条款的内容
无法获得确切结果的问题
非开发直接相关的问题
非技术提问的讨论型问题
其他原因(请补充说明)
我要该,理由是:最近在学习使用kerberos,搭建过程按照cloudera官网上的文档
图中这个HDFS超级用户主体是是什么意思?
图中为每个账户获取或创建kerberos是什么意思啊?kafka启用kerberos我是按照上图启用的,但是,启动生产者和消费者
消费者消费信息会不断报这个错误还望有好心人帮我解决下。
是领域的概念,你可以一步一步排查,监控kerberos的日志,看看kerberos执行到哪一步了。另外你可以参考kafka kerberos的文档,/270,还有/326,和/317的文章。看你这个错,kafka都没启动成功。
今天启动kafka-console-consumer &时报错:[ 22:09:15,350] WARN SASL configuration failed: javax.security.auth.login.LoginException: Checksum failed Will continue connection to Zookeeper server without SASL authentication, if Zookeeper server allows it. (org.apache.zookeeper.ClientCnxn)这个是因为什么?
效验失败,将继续连接Zookeeper(不需要SASL认证)。这是个警告。kerberos在某些环节出了问题,会导致各种不对称的错误,你按照我刚才给你说的,你监控kerberos的日志和kafka之间的日志,就会看到每步执行的效果,保证每一环节的正确。
半兽人之家
您还未填写推送消息的邮箱,请填写您常用的邮箱地址!本节内容:
消息中间件
消息中间件特点
消息中间件的传递模型
安装部署Kafka集群
安装Yahoo kafka manager
kafka-manager添加kafka cluster
一、消息中间件
消息中间件是在消息的传输过程中保存消息的容器。消息中间件在将消息从消息生产者到消费者时充当中间人的作用。队列的主要目的是提供路由并保证消息的传送;如果发送消息时接收者不可用,消息对列会保留消息,直到可以成功地传递它为止,当然,消息队列保存消息也是有期限的。
二、消息中间件特点
1. 采用异步处理模式消息发送者可以发送一个消息而无须等待响应。消息发送者将消息发送到一条虚拟的通道(主题或者队列)上,消息接收者则订阅或者监听该通道。一条消息可能最终转发给一个或多个消息接收者,这些接收者都无需对消息发送者做出同步回应。整个过程是异步的。
比如用户信息注册。注册完成后过段时间发送邮件或者短信。
2. 应用程序和应用程序调用关系为松耦合关系
发送者和接收者不必要了解对方、只需要确认消息
发送者和接收者不必同时在线
比如在线交易系统为了保证数据的最终一致,在支付系统处理完成后会把支付结果放到信息中间件里通知订单系统修改订单支付状态。两个系统通过消息中间件解耦。
三、消息中间件的传递模型
1. 点对点模型(PTP)点对点模型用于消息生产者和消息消费者之间点对点的通信。消息生产者将消息发送到由某个名字标识的特定消费者。这个名字实际上对应于消费服务中的一个队列(Queue),在消息传递给消费者之前它被存储在这个队列中。队列消息可以放在内存中也可以是持久的,以保证在消息服务出现故障时仍然能够传递消息。点对点模型特性:
每个消息只有一个消费者
发送者和接受者没有时间依赖
接受者确认消息接受和处理成功
2. 发布—订阅模型(Pub/Sub)
发布者/订阅者模型支持向一个特定的消息主题生产消息。0或多个订阅者可能对接收来自特定消息主题的消息感兴趣。在这种模型下,发布者和订阅者彼此不知道对方。这种模式好比是匿名公告板。这种模式被概括为:多个消费者可以获得消息。在发布者和订阅者之间存在时间依赖性。发布者需要建立一个订阅(subscription),以便能够让消费者订阅。订阅者必须保持持续的活动状态以接收消息,除非订阅者建立了持久的订阅。在这种情况下,在订阅者未连接时发布的消息将在订阅者重新连接时重新发布。其实消息中间件,像MySQL其实也可以作为消息中间件,只要你把消息中间件原理搞清楚,你会发现目前所有的存储,包括NoSQL,只要支持顺序性东西的,就可以作为一个消息中间件。就看你怎么去利用它了。就像redis里面那个队列list,就可以作为一个消息队列。发布—订阅模型特性:
每个消息可以有多个订阅者
客户端只有订阅后才能接收到消息
持久订阅和非持久订阅
(1) 发布者和订阅者有时间依赖
接收者和发布者只有建立订阅关系才能收到消息。
(2) 持久订阅
订阅关系建立后,消息就不会消失,不管订阅者是否在线。
(3) 非持久订阅
订阅者为了接收消息,必须一直在线
当只有一个订阅者时约等于点对点模式。
大部分情况下会使用持久订阅。常用的消息队列有Kafka、RabbitMQ、ActiveMQ、metaq等。
四、Kafka介绍
Kafka是一种分布式消息系统,由LinkedIn使用Scala编写,用作LinkedIn的活动流(Activity Stream)和运营数据处理管道(Pipeline)的基础,具有高水平扩展和高吞吐量。
目前越来越多的开源分布式处理系统如Apache flume、Apache Storm、Spark、Elasticsearch都支持与Kafka集成。
五、安装部署Kafka集群
1. 环境信息
操作系统版本
CentOS 7.0
114.55.29.86
JDK1.7、kafka_2.11-0.9.0.1
CentOS 7.0
114.55.29.241
JDK1.7、kafka_2.11-0.9.0.1
CentOS 7.0
114.55.253.15
JDK1.7、kafka_2.11-0.9.0.1
2. 安装JDK1.7
3台机器都需要安装JDK1.7。
[root@log1 local]# mkdir /usr/java
[root@log1 local]# tar zxf jdk-7u80-linux-x64.gz -C /usr/java/
[root@log1 local]# vim /etc/profile
export JAVA_HOME=/usr/java/jdk1.<span style="color: #.0_80
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
[root@log1 local]# source /etc/profile
3. 安装集群
需要先安装好Zookeeper集群,见之前的文章《Zookeeper介绍及安装部署》。
(1)创建消息持久化目录
[root@log1 ~]# mkdir /kafkaLogs
(2)下载解压kafka,版本是kafka_2.11-0.9.0.1
[root@log1 local]# wget http:///apache/kafka/0.9.0.1/kafka_2.11-0.9.0.1.tgz
[root@log1 local]# tar zxf kafka_2.<span style="color: #-<span style="color: #.9.<span style="color: #.1.tgz
(3)修改配置
[root@log1 local]# cd kafka_2.<span style="color: #-<span style="color: #.9.<span style="color: #.1/config/
[root@log1 config]# vim server.properties
修改broker.id
修改kafka监听地址
注意: advertised.host.name参数用来配置返回的host.name值,把这个参数配置为IP地址。这样客户端在使用java.net.InetAddress.getCanonicalHostName()获取时拿到的就是ip地址而不是主机名。
修改消息持久化目录
修改zk地址
添加启用删除topic配置
关闭自动创建topic
是否允许自动创建topic。如果设为true,那么produce,consume或者fetch metadata一个不存在的topic时,就会自动创建一个默认replication factor和partition number的topic。默认是true。
auto.create.topics.enable=false
(4)把log1的配置好的kafka拷贝到log2和log3上
[root@log1 local]# scp -rp kafka_2.<span style="color: #-<span style="color: #.9.<span style="color: #.1 root@<span style="color: #4.55.<span style="color: #.241:/usr/local/
[root@log1 local]# scp -rp kafka_2.<span style="color: #-<span style="color: #.9.<span style="color: #.1 root@<span style="color: #4.55.<span style="color: #3.15:/usr/local/
(5)log2和log3主机上创建消息持久化目录
[root@log2 ~]# mkdir /kafkaLogs
[root@log3 ~]# mkdir /kafkaLogs
(6)修改log2配置文件中的broker.id为1,log3主机的为2
[root@log2 config]# vim server.properties
4.&启动集群
log1主机启动kafka:
[root@log1 ~]# cd /usr/local/kafka_2.<span style="color: #-<span style="color: #.9.<span style="color: #.1/
[root@log1 kafka_2.<span style="color: #-<span style="color: #.9.<span style="color: #.1]# JMX_PORT=<span style="color: #97 bin/kafka-server-start.sh -daemon config/server.properties &
log1主机启动kafka
log2主机启动kafka:
[root@log2 ~]# cd /usr/local/kafka_2.<span style="color: #-<span style="color: #.9.<span style="color: #.1/
[root@log2 kafka_2.<span style="color: #-<span style="color: #.9.<span style="color: #.1]# JMX_PORT=<span style="color: #97 bin/kafka-server-start.sh -daemon config/server.properties &
log2主机启动kafka
log3主机启动kafka:
[root@log3 ~]# cd /usr/local/kafka_2.<span style="color: #-<span style="color: #.9.<span style="color: #.1/
[root@log3 kafka_2.<span style="color: #-<span style="color: #.9.<span style="color: #.1]# JMX_PORT=<span style="color: #97 bin/kafka-server-start.sh -daemon config/server.properties &
log3主机启动kafka
5. 脚本定期清理logs下的日志文件
默认kafka是按天切割日志的,而且不删除:
这里写一个简单的脚本来清理这些日志,主要是清理server.log和controller.log。
[root@log1 ~]# cd /usr/local/kafka_2.<span style="color: #-<span style="color: #.9.<span style="color: #.1/
[root@log1 kafka_2.<span style="color: #-<span style="color: #.9.<span style="color: #.1]# vim clean_kafkalog.sh
#!/bin/bash
###Description:This script is used to clear kafka logs, not message file.
###Written by: jkzhao -
###History: <span style="color: #16-<span style="color: #-<span style="color: # First release.
# log file dir.
logDir=/usr/local/kafka_2.<span style="color: #-<span style="color: #.9.<span style="color: #.1/logs
# Reserved <span style="color: # files.
COUNT=<span style="color: #
ls -t $logDir/server.log* | tail -n +$[$COUNT+<span style="color: #] | xargs rm -f
ls -t $logDir/controller.log* | tail -n +$[$COUNT+<span style="color: #] | xargs rm -f
ls -t $logDir/state-change.log* | tail -n +$[$COUNT+<span style="color: #] | xargs rm -f
ls -t $logDir/log-cleaner.log* | tail -n +$[$COUNT+<span style="color: #] | xargs rm –f
清理kafka日志的脚本
赋予脚本执行权限:
[root@log1 kafka_2.<span style="color: #-<span style="color: #.9.<span style="color: #.1]# chmod +x clean_kafkalog.sh
周期性任务策略:每周日的0点0分去执行这个脚本。
[root@log1 logs]# crontab -e
<span style="color: # <span style="color: # * * <span style="color: # /usr/local/kafka_2.<span style="color: #-<span style="color: #.9.<span style="color: #.1/clean_kafkalog.sh
把清理日志的脚本拷贝到第二台和第三台主机:
[root@log1 kafka_2.<span style="color: #-<span style="color: #.9.<span style="color: #.1]# scp -p clean_kafkalog.sh root@<span style="color: #4.55.<span style="color: #.241:/usr/local/kafka_2.<span style="color: #-<span style="color: #.9.<span style="color: #.1
[root@log1 kafka_2.<span style="color: #-<span style="color: #.9.<span style="color: #.1]# scp -p clean_kafkalog.sh root@<span style="color: #4.55.<span style="color: #3.15:/usr/local/kafka_2.<span style="color: #-<span style="color: #.9.<span style="color: #.1
6. 停止kafka命令
[root@log1 ~]# /usr/local/kafka_2.<span style="color: #-<span style="color: #.9.<span style="color: #.1/bin/kafka-server-stop.sh
7. 测试集群
(1)log1主机上创建一个名为test的topic
[root@log1 kafka_2.<span style="color: #-<span style="color: #.9.<span style="color: #.1]# bin/kafka-topics.sh --create --zookeeper localhost:<span style="color: #81 --replication-factor <span style="color: # --partitions <span style="color: # --topic test
(2)log2和log3主机上利用命令行工具创建一个consumer程序
[root@log2 kafka_2.<span style="color: #-<span style="color: #.9.<span style="color: #.1]# bin/kafka-console-consumer.sh --zookeeper localhost:<span style="color: #81 --topic test --from-beginning
[root@log2 kafka_2.<span style="color: #-<span style="color: #.9.<span style="color: #.1]# bin/kafka-console-consumer.sh --zookeeper localhost:<span style="color: #81 --topic test --from-beginning
(3)log1主机上利用命令行工具创建一个producer程序
[root@log1 kafka_2.<span style="color: #-<span style="color: #.9.<span style="color: #.1]# bin/kafka-console-producer.sh --broker-list localhost:<span style="color: #92 --topic test
log1主机上终端输入message,然后到log2和log3主机的终端查看:
8.&创建生产环境topic
如果kafka集群是3台,我们创建一个名为business的Topic,如下:
bin/kafka-topics.sh --create --zookeeper localhost:<span style="color: #81 --replication-factor <span style="color: # --partitions <span style="color: # --topic business
注意:为Topic创建分区时,--partitions(分区数)最好是broker数量的整数倍,这样才能使一个Topic的分区均匀的分布在整个Kafka集群中。
9. Kafka常用命令
(1)启动kafka
nohup bin/kafka-server-start.sh config/server.properties & /dev/null <span style="color: #&&<span style="color: # &
(2)查看topic
bin/kafka-topics.sh --list --zookeeper localhost:<span style="color: #81
(3)控制台消费
bin/kafka-console-consumer.sh --zookeeper localhost:<span style="color: #81 --topic middleware --from-beginning
(4)删除topic
删除kafka存储目录(server.properties文件log.dirs配置,默认为"/tmp/kafka-logs")相关topic目录
如果配置了delete.topic.enable=true直接通过命令删除,如果命令删除不掉,直接通过zookeeper-client 删除掉"/brokers/topics/"目录下相关topic节点。
注意: 如果你要删除一个topic并且重建,那么必须重新启动kafka,否则新建的topic在zookeeper的/brokers/topics/test-topic/目录下没有partitions这个目录,也就是没有分区信息。
六、安装Yahoo kafka manager
1.&Yahoo kafka manager介绍
项目地址:/yahoo/kafka-manager
Requirements:
Kafka 0.8.1.1 or 0.8.2.*
sbt 0.13.x
Kafka Manager是一个管控台,这款工具主要支持以下几个功能:
管理多个不同的集群;
很容易地检查集群的状态(topics, brokers, 副本的分布, 分区的分布);
选择副本;
产生分区分配(Generate partition assignments)基于集群的当前状态;
重新分配分区。
2.&环境信息
操作系统版本
CentOS 7.0
114.55.29.246
JDK1.8、kafka-manager-1.3.0.6.zip
Kafka Manager可以装在任何一台机器上,我这里部署在一台单独的机器上。
3.&安装jdk1.8
[root@console local]# tar zxf jdk-8u73-linux-x64.gz -C /usr/java/
[root@console ~]# vim /etc/profile
export JAVA_HOME=/usr/java/jdk1.<span style="color: #.0_73
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
[root@console ~]# source /etc/profile
4.&安装sbt0.13.9
[root@console ~]# curl https:///sbt/rpm/rpm | sudo tee /etc/yum.repos.d/bintray-sbt-rpm.repo
[root@console ~]# yum install -y sbt
安装sbt0.13.9
5.&构建kafka manager包
[root@console ~]# git clone https:///yahoo/kafka-manager.git
[root@console ~]# unzip -oq kafka-manager-upgrade-to-<span style="color: #.zip
[root@console ~]# mv kafka-manager-upgrade-to-<span style="color: # kafka-manager
[root@console ~]# cd kafka-manager
[root@console kafka-manager]# sbt clean dist
The command below will create a zip file which can be used to deploy the application.
使用sbt编译打包的时候时间可能会比较长。
这个需要FQ才能完成。配置代理:
[root@console ~]# vim /usr/share/sbt-launcher-packaging/conf/sbtconfig.txt
-Dhttp.proxyHost=proxy
-Dhttp.proxyPort=<span style="color: #80
再次运行这个命令,依然需要等待较长的时间,有可能还会失败。如果失败就多次尝试打包:
打包完成后会创建一个zip压缩包,而这个压缩包可以用来部署该应用。生成的包会在kafka-manager/target/universal 下面。生成的包只需要java环境就可以运行了,在以后部署到其他机器上不需要安装sbt进行打包构建了。
6. 安装kafka manager
[root@console kafka-manager]# cp target/universal/kafka-manager-<span style="color: #.3.<span style="color: #.6.zip ~/
[root@console kafka-manager]# cd
[root@console ~]# unzip -oq kafka-manager-<span style="color: #.3.<span style="color: #.6.zip
安装kafka manager
7.&配置kafka-manager
[root@console ~]# cd kafka-manager-<span style="color: #.3.<span style="color: #.6/
[root@console kafka-manager-<span style="color: #.3.<span style="color: #.6]# vim conf/application.conf
设置zkhosts:
kafka-manager.zkhosts="<span style="color: #4.55.29.246:.29.86:.29.241:2181"
8.&启动kafka-manager
[root@console kafka-manager-<span style="color: #.3.<span style="color: #.6]# bin/kafka-manager
默认监听的端口是9000。你也可以在启动时指定配置文件和监听端口:
# bin/kafka-manager -Dconfig.file=/path/to/application.conf -Dhttp.port=<span style="color: #80
启动并置于后台运行:
[kmanager@console kafka-manager-<span style="color: #.3.<span style="color: #.6]$ nohup bin/kafka-manager & /dev/null <span style="color: #&&<span style="color: # &
七、kafka-manager添加kafka cluster
浏览器输入地址访问:http://114.55.29.246:9000/
注意:安装完成后需要手动添加Cluster。添加Cluster是指添加一个已有的Kafka集群进入监控列表,而非通过Kafka Manager部署一个新的Kafka Cluster,这一点与Cloudera Manager不同。
阅读(...) 评论()博客分类:
kafka具体的介绍这里不再进行叙述,已经有很多的好的文章进行叙述了,这里只是记录下自己搭建kafka环境的相关过程。
操作系统:centos6.5 64位
三台服务器(虚拟机)192.168.100.90,192.168.100.91,192.168.100.92
三台服务器组成kafka集群,90和91服务器组成zookeeper集群
一、安装zookeeper集群
zookeeper在kafka中起到了关键的作用,记录consumer、broker的注册信息,consumer的消费偏移量等等。当然,zookeeper不一定非得集群,部署一台也可以,这里只为涉及到相关的知识进行进群部署。
zookeeper部署很简单,只需要解压并且配置zoo.cfg即可。
1、解压zookeeper-3.4.6.tar.gz,这里解压到/usr/local目录
2、进入安装目录中的conf文件夹,复制zoo_sample.cfg文件并改名为zoo.cfg
cd /usr/local/zookeeper-3.4.6/conf
cp zoo_sample.cfg zoo.cfg
3、编辑zoo.cfg
dataDir=/data/zookeeper #zookeeper数据目录
#有几个服务器集群就配置以下几个server,格式如:server.X=IP:port1:port2, X为一个数字,用于标志服务器,IP即为本服务器ip,port1用于集群中follower与leader进行通信端口,port2用于leader选举的端口
server.90=192.168.100.90:
server.91=192.168.100.90:
4、在上面配置的dataDir目录下新建myid文件,内容为上面配置的本机对应的server后面的那个数字,即server.X中X的值,这里为90。这里主要用来标志zookeeper自己是集群中的那一台。
echo 90 & myid
5、启动zookeeper
bin/zkServer.sh start
#启动zookeeper
bin/zkServer.sh status #查看zookeeper启动状态
注:每台服务器的zoo.cfg可以完全一样,增加或减少服务器增减配置文件中server.X=IP:port1:port2配置即可,请注意不同服务器中myid值不同,为本服务器对应的server.X中X值
二、安装kafka
kafka的安装也很简单,解压完毕配置下即可
1、下载 kafka_2.10-0.8.2.1.tgz,并解压,这里解压目录依然为/usr/local
2、进入kafka安装目录的config文件夹,编辑里面的server.properties文件,下面列出几个比较关键的配置
broker.id=90
#即为kafka服务器起一个id,集群中这个值应保持不同,可以用ip最后一段
host.name=192.168.100.90
#绑定该服务器对应的ip,程序访问该broker时就填写该ip
zookeeper.connect=192.168.100.90:2181 #zookeeper地址
#注:以上仅为关键的几个配置,其余配置如接收消息字节限制,指定消息的保存时间,是否自动创建topic等等,这里不再叙述
nohup bin/kafka-server-start.sh config/server.properties &kafka.log 2&&1 &
bin/kafka-server-start.sh -daemon config/server.properties
#注:启动时请使用nohup或者-daemon方式启动,不然你关闭了你的终端,kafka服务也随着停了。其余kafka服务器的配置参考上面配置,请注意broker.id的配置,每台服务器应不同
4、常用命令
1、bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 2 --topic test #创建topic,replication-factor为复制集数,partitions 为该topic的partition数目,topic为创建topic名字
2、bin/kafka-topics.sh --list --zookeeper localhost:2181 #查看topic列表
3、bin/kafka-topics.sh -topic test -delete -zookeeper 192.168.100.90:2181 #删除topic,这是最新版本的kafka删除方式,最新版本删除须在server.properties中配置 delete.topic.enable=true
4、bin/kafka-run-class.sh kafka.admin.DeleteTopicCommand --topic test --zookeeper #老版本删除topic方式,具体版本的分界线忘记了
5、bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test #在控制台启动一个生产者,启动后输入发送内容即可
6、bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning #在控制台启动一个消费者,配合上面生产者使用,上面发送消息,这里控制台即打印出发送的消息,这里的消费不会影响你程序中对数据的消费,可以大胆使用
#注:以上命令在任意一台kafka服务器执行即可,请保证命令里zookeeper与broker地址填写正确
以上就是kafka的安装过程,如有说明不到位或者需要补充的地方请指出,谢谢
参考以及文章推荐:http://blog.csdn.net/lizhitao/article/details/
浏览: 18560 次
来自: 济南
bmd360 写道多少分什么多少分
当项目经理就是不停的背黑锅,当背不动时,只能撂摊子了
windlike 写道Oracle的分页比较难搞,嗯。是啊,相 ...
(window.slotbydup=window.slotbydup || []).push({
id: '4773203',
container: s,
size: '200,200',
display: 'inlay-fix'扩展-kafka集群 报错 在线等
作者:用户
浏览:878 次
kafka集群报错在线等WARN[Controller-1-to-broker-2-send-thread],Controller1'sconnectiontobrokerNode(2,mine-28
kafka集群 报错 在线等
WARN [Controller-1-to-broker-2-send-thread], Controller 1&#039;s connection to broker Node(2, mine-28, 9092) was unsuccessful (kafka.controller.RequestSendThread)
java.io.IOException: Connection to Node(2, mine-28, 9092) failed
at kafka.utils.NetworkClientBlockingOps$$anonfun$blockingReady$extension$1.apply(NetworkClientBlockingOps.scala:62)
at kafka.utils.NetworkClientBlockingOps$$anonfun$blockingReady$extension$1.apply(NetworkClientBlockingOps.scala:58)
at kafka.utils.NetworkClientBlockingOps$$anonfun$kafka$utils$NetworkClientBlockingOps$$pollUntil$extension$2.apply(NetworkClientBlockingOps.scala:106)
at kafka.utils.NetworkClientBlockingOps$$anonfun$kafka$utils$NetworkClientBlockingOps$$pollUntil$extension$2.apply(NetworkClientBlockingOps.scala:105)
at kafka.utils.NetworkClientBlockingOps$.recurse$1(NetworkClientBlockingOps.scala:129)
at kafka.utils.NetworkClientBlockingOps$.kafka$utils$NetworkClientBlockingOps$$pollUntilFound$extension(NetworkClientBlockingOps.scala:139)
at kafka.utils.NetworkClientBlockingOps$.kafka$utils$NetworkClientBlockingOps$$pollUntil$extension(NetworkClientBlockingOps.scala:105)
at kafka.utils.NetworkClientBlockingOps$.blockingReady$extension(NetworkClientBlockingOps.scala:58)
at kafka.controller.RequestSendThread.brokerReady(ControllerChannelManager.scala:225)
at kafka.controller.RequestSendThread.liftedTree1$1(ControllerChannelManager.scala:172)
at kafka.controller.RequestSendThread.doWork(ControllerChannelManager.scala:171)
at kafka.utils.ShutdownableThread.run(ShutdownableThread.scala:63)
解决方案二:
木有人遇到吗?
每次第一台启动的都报这个错,第二台kafka正常,后面启动的正常了 ,前面启动的还一直报这样的错误,
【云栖快讯】红轴机械键盘、无线鼠标等753个大奖,先到先得,云栖社区首届博主招募大赛9月21日-11月20日限时开启,为你再添一个高端技术交流场所&&
稳定可靠、可弹性伸缩的在线数据库服务,全球最受欢迎的开源数据库之一
6款热门基础云产品6个月免费体验;2款产品1年体验;1款产品2年体验
弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率
开发者常用软件,超百款实用软件一站式提供

我要回帖

更多关于 storm kafka kerberos 的文章

 

随机推荐