HDFS的Java API的访问方式实例代码

网友投稿 567 2023-02-19


HDFS的Java API的访问方式实例代码

本文研究的主要是HDFS的java API的访问方式,具体代码如下所示,有详细注释。

最近的节奏有点儿快,等有空的时候把这个封装一下

实现代码

要导入的包:

import java.io.IOException;

import java.net.URI;

import java.net.URISyntaxException;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.BlockLocation;

import org.apache.hadoop.fs.FileStatus;

import org.apache.hadoop.fs.FileSystem;

import org.apache.hadoop.fs.FileUtil;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.hdfs.DistributedFileSystem;

import org.apache.hadoop.hdfs.protocol.DatanodeInfo;

实体方法:

/**

* 获取HDFS文件系统

* @return

* @throws IOException

* @throws URISyntaxException

*/

public static FileSystem getFileSystem() throws IOException, URISyntaxException{

//read config file

Configuration conf = new Configuration();

//返回默认文件系统

//如果在Hadoop集群下运行,使用此种方法可以直接获取默认文件系统

//FileSystem fs = FileSystem.get(conf);

//指定的文件系统地址

URI uri = new URI("hdfs://hy:9000");

//返回指定的文件系统

//如果在本地测试,需要使用此种方法获取文件系统

FileSystem fs = FileSystem.get(uri, conf);

return fs;

}

/**

* 创建文件目录

* @throws Exception

*/

public static void mkdir() throws Exception{

//获取文件系统

FileSystem fs = getFileSystem();

//创建文件目录

fs.mkdirs(new Path("hdfs://hy:9000/hy/weibo"));

//释放资源

fs.close();

}

/**

* 删除文件或者文件目录

* @throws Exception

*/

public static void rmdir() throws Exception{

//获取文件系统

FileSystem fs = getFileSystem();

//删除文件或者文件目录

fs.delete(new Path("hdfs://hy:9000/hy/weibo"), true);

//释放资源

fs.close();

}

/**

* 获取目录下所有文件

* @throws Exception

*/

public static void listAllFile() throws Exception{

//获取文件系统

FileSystem fs =YWQzeFxdJi getFileSystem();

//列出目录内容

FileStatus[] status = fs.listStatus(new Path("hdfs://hy:9000/hy/"));

//获取目录下所有文件路径

Path[] listedPaths = FileUtil.stat2Paths(status);

//循环读取每个文件

for (Path path : listedPaths) {

System.out.println(path);

}

//释放资源

fs.close();

}

/**

* 将文件上传至HDFS

* @throws Exception

*/

public static void copyToHDFS() throws Exception{

//获取文件对象

FileSystem fs = getFileSystem();

//源文件路径是linux下的路径 Path srcPath = new Path("/home/hadoop/temp.jar");

//如果需要在windows下测试,需要改为Windows下的路径,比如 E://temp.jar

Path srcPath = new Path("E://temp.jar");

//目的路径

Path dstPath = new Path("hdfs://hy:9000/hy/weibo");

//实现文件上传

fs.copyFromLocalFile(srcPath, dstPath);

//释放资源

fs.close();

}

/**

* 从HDFS上下载文件

* @throws Exception

*/

public static void getFile() throws Exception{

//获得文件系统

FileSystem fs = getFileSystem();

//源文件路径

Path srcPath = new Path("hdfs://hy:9000/hy/weibo/temp.jar");

//目的路径,默认是Linux下的

//如果在Windows下测试,需要改为Windows下的路径,如C://User/andy/Desktop/

Path dstPath = new Path("D://");

//下载HDFS上的文件

fs.copyToLocalFile(srcPath, dstPath);

//释放资源

fs.close();

}

/**

* 获取HDFS集群点的信息

* @throws Exception

*/

public static void getHDFSNodes() throws Exception{

//获取文件系统

FileSystem fs = getFileSystem();

//获取分布式文件系统

DistributedFileSystem hdfs = (DistributedFileSystem)fs;

//获取所有节点

DatanodeInfo[] dataNodeStats = hdfs.getDataNodeStats();

//循环比遍历

for (int i = 0; i < dataNodeStats.length; i++) {

System.out.println("http://DataNote_" + i + "_Name:" + dataNodeStats[i].getHostName());

}

//释放资源

fs.close();

}

/**

* 查找某个文件在HDFS集群的位置

* @throws Exception

*/

public static void getFileLocal() throws Exception{

//获取文件系统

FileSystem fs = getFileSystem();

//文件路径

Path path = new Path("hdfs://hy:9000/hy/weibo/temp.jar");

//获取文件目录

FileStatus fileStatus = fs.getFileStatus(path);

//获取文件块位置列表

BlockLocation[] blockLocations = fs.getFileBlockLocations(fileStatus, 0, fileStatus.getLen());

//循环输出块信息

for (int i = 0; i < blockLocations.length; i++) {

String[] hosts = blockLocations[i].getHosts();

System.out.println("block_" + i + "_location:" + hosts[0]);

}

//释放资源

fs.close();

}

总结

以上就是本文关于HDFS的Java API的访问方式实例代码的全部内容,希望对大家有所帮助。感兴趣的朋友可以继续参阅本站其他YWQzeFxdJi相关专题,如有不足之处,欢迎留言指出。感谢朋友们对本站的支持!


版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:基于vue 动态加载图片src的解决方法
下一篇:浅谈Java中对类的主动引用和被动引用
相关文章

 发表评论

暂时没有评论,来抢沙发吧~