博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Shuffle Error: Exceeded MAX_FAILED_UNIQUE_FETCHES; bailing-out.
阅读量:2395 次
发布时间:2019-05-10

本文共 571 字,大约阅读时间需要 1 分钟。

hadoop在使用的过程中出现了这样的错误。

解决方式,修改datanode节点里/etc/hosts文件。

操作的详细步骤如下:

首先查看主机名称

cat /proc/sys/kernel/hostname

简单介绍下hosts格式

每行分为三个部分:第一部分网络IP地址、第二部分主机名或域名、第三部分主机别名

修改hosts配置内容如下:

127.0.0.1             localhost.localdomain       localhost

::1               localhost6.localdomain6  localhost6
10.200.187.77   10.200.187.77                     hadoop-datanode
如果配置后出现IP地址就表示修改成功了,如果还是显示主机名就有问题了,继续修改这个hosts文件,
这里提醒下:原始的hosts文件,在第一行里会把主机名写入,如下内容:
127.0.0.1             hadoop-datanode   localhost.localdomain       localhost
这是是需要把hadoop-datanode内容删除掉。
如下图:
 上图提醒下,chenyi是主机名。

当在测试环境里,自己再去部署一个域名服务器(个人觉得很繁琐),所以简单地方式,就直接用IP地址比较方便。

如果有了域名服务器的话,那就直接进行映射配置即可。

转载地址:http://ivzob.baihongyu.com/

你可能感兴趣的文章
数据结构--稀疏矩阵常用的三种压缩存储(顺序、行单链表、十字链表)
查看>>
Java并发--监视器(monitor)、等待/通知机制
查看>>
Zookeeper--数据初始化过程
查看>>
Zookeeper--数据同步
查看>>
Zookeeper--配置详解
查看>>
Swagger2注解详细说明
查看>>
Feign的工作原理
查看>>
使用Turbine聚合监控
查看>>
Zuul工作原理
查看>>
Zuul案例、常见使用方式
查看>>
SpringCloudConfig--ConfigServer从本地读取配置文件
查看>>
构建高可用的Config Server、使用Spring Cloud Bus刷新配置
查看>>
Nginx——重写与重定向
查看>>
Nginx——防盗链的配置
查看>>
TCP——粘包/拆包
查看>>
ChannelHandler和ChannelPipeline
查看>>
Netty——传输API
查看>>
Netty——ByteBuf的API
查看>>
Netty——ChannelHandler和ChannelPipeline
查看>>
Netty——ChannelHandlerContext
查看>>