微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

线程“main”中的异常java.lang.NoClassDefFoundError:org / apache / hadoop / hbase / HBaseConfiguration

我使用的是Hadoop 1.0.3和HBase 0.94.22.我正在尝试运行映射器程序来读取Hbase表中的值并将它们输出文件中.我收到以下错误

Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/hadoop/hbase/HBaseConfiguration
    at java.lang.class.forName0(Native Method)
    at java.lang.class.forName(Class.java:340)
    at org.apache.hadoop.util.RunJar.main(RunJar.java:149)
Caused by: java.lang.classNotFoundException: org.apache.hadoop.hbase.HBaseConfiguration
    at java.net.urlclassloader$1.run(urlclassloader.java:372)
    at java.net.urlclassloader$1.run(urlclassloader.java:361)
    at java.security.AccessController.doPrivileged(Native Method)
    at java.net.urlclassloader.findClass(urlclassloader.java:360)
    at java.lang.classLoader.loadClass(ClassLoader.java:424)
    at java.lang.classLoader.loadClass(ClassLoader.java:357)

代码如下

import java.io.IOException;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.client.Result;
import org.apache.hadoop.hbase.client.Scan;
import org.apache.hadoop.hbase.filter.FirstKeyOnlyFilter;
import org.apache.hadoop.hbase.io.ImmutableBytesWritable;
import org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil;
import org.apache.hadoop.hbase.mapreduce.TableMapper;
import org.apache.hadoop.hbase.util.Bytes;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;


    public class Test {

    static class TestMapper extends TableMapper<Text, IntWritable> {
        private static final IntWritable one = new IntWritable(1);

        public void map(ImmutableBytesWritable row, Result value, Context context) throws    IOException, InterruptedException
        {
            ImmutableBytesWritable userkey = new ImmutableBytesWritable(row.get(), 0 , Bytes.SIZEOF_INT);
            String key =Bytes.toString(userkey.get());
            context.write(new Text(key), one);

        }
    }


    public static void main(String[] args) throws Exception {

        HBaseConfiguration conf = new HBaseConfiguration();
        Job job = new Job(conf, "hbase_freqcounter");
        job.setJarByClass(Test.class);
        Scan scan = new Scan();

        FileOutputFormat.setoutputPath(job, new Path(args[0]));
        String columns = "data";
        scan.addFamily(Bytes.toBytes(columns));
        scan.setFilter(new FirstKeyOnlyFilter());
        TableMapReduceUtil.initTableMapperJob("test",scan, TestMapper.class, Text.class, IntWritable.class, job);
        job.setoutputKeyClass(Text.class);
        job.setoutputValueClass(IntWritable.class);
        System.exit(job.waitForCompletion(true)?0:1);

    }

}

我将上面的代码导出到jar文件中,在命令行中我使用下面的命令来运行上面的代码.

hadoop jar /home/testdb.jar测试

其中test是应该写入映射器结果的文件夹.

我已经检查了一些像Caused by: java.lang.ClassNotFoundException: org.apache.zookeeper.KeeperException这样的其他链接,其中建议在类路径中包含zookeeper文件,但是在eclipse中创建项目时我已经在hbase的lib目录中包含了zookeeper文件.我包含的文件是zookeeper-3.4.5.jar. Ans也访问了这个链接HBase – java.lang.NoClassDefFoundError in java,但是我使用mapper类来获取hbase表中的值而不是任何客户端API.我知道我在某个地方犯了一个错误,伙计们能帮帮我吗?

我注意到另一个奇怪的事情,当我删除main函数中的所有代码,除了第一行“HBaseConfiguration conf = new HBaseConfiguration();”,然后将代码导出到jar文件并尝试将jar文件编译为hadoop jar test.jar我仍然得到同样的错误.似乎要么我错误地定义了conf变量,要么我的环境存在一些问题.

解决方法:

我得到了问题的修复,我没有在hadoop-env.sh文件添加hbase类路径.下面是我为使工作而添加的那个.

$export HADOOP_CLAsspATH=$HBASE_HOME/hbase-0.94.22.jar:\
    $HBASE_HOME/hbase-0.94.22-test.jar:\
    $HBASE_HOME/conf:\
    ${HBASE_HOME}/lib/zookeeper-3.4.5.jar:\
    ${HBASE_HOME}/lib/protobuf-java-2.4.0a.jar:\
    ${HBASE_HOME}/lib/guava-11.0.2.jar

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐