spark 与 hbase-server 集成版本问题

今天在使用spark存储hbase的时候遇到异常Exception in thread "main" java.lang.NoSuchMethodError: io.netty.buffer.PooledByteBufAllocator.metric()Lio/netty/buffer/PooledByteBufAllocatorMetric;

心想肯定又是版本号不对应问题。后面经过一顿百度,明白了应该到集群管理系统上去查看对应的版本号。由于本项目使用的ambari集群管理系统,所以去到ambari目录下查看,正确对应关系是spark版本:2.2.0,hbase-server版本1.1.2。

这些集群里面的版本对应关系都是经过验证的,所以在考虑版本号的选择时,应该优先去查看集群管理系统中的版本对应。

上一篇:CM记录-升级Spark版本到2.x(转载)


下一篇:一个简易内存池(C++)