重庆分公司,新征程启航
为企业提供网站建设、域名注册、服务器等服务
本篇内容主要讲解“怎么从Hadoop URL读取数据”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“怎么从Hadoop URL读取数据”吧!
创新互联建站是一家集网站建设,象山企业网站建设,象山品牌网站建设,网站定制,象山网站建设报价,网络营销,网络优化,象山网站推广为一体的创新建站企业,帮助传统企业提升企业形象加强企业竞争力。可充分满足这一群体相比中小企业更为丰富、高端、多元的互联网需求。同时我们时刻保持专业、时尚、前沿,时刻以成就客户成长自我,坚持不断学习、思考、沉淀、净化自己,让我们为更多的企业打造出实用型网站。
1,编写代码
import java.io.*;
import java.net.URL;
import org.apache.hadoop.fs.FsUrlStreamHandlerFactory;
import org.apache.hadoop.io.IOUtils;
public class URLCat {
static {
URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory());
}
public static void main(String[] args) throws Exception {
InputStream in = null;
try {
in = new URL(args[0]).openStream();
IOUtils.copyBytes(in, System.out, 4096, false);
} finally {
IOUtils.closeStream(in);
}
}
}
2,编译Java代码
$ Hadoopcom.sun.tools.javac.Mian -d classes URLCat.java
// then the class files will be generated in the directory of classes
3,打包成jar包
jar cf URLCat.jar classes/URLCat.class
// then we will get the URLCat.jar, the source is from classes/URLCat.class
4,运行jar包
hadoop jar URLCat.jar URLCat hdfs://10.10.12.171/input/WordCount/file1
Result:
hadoop ok
hadoop fail
hadoop 2.3
可见hdfs://10.10.12.171/input/WordCount/file1的内容就输出到了标准输出了。
到此,相信大家对“怎么从Hadoop URL读取数据”有了更深的了解,不妨来实际操作一番吧!这里是创新互联网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!