在Scala中,可以使用Hadoop的HDFS客户端库来读取HDFS文件。以下是一个简单的例子,演示了如何读取HDFS文件并将其打印出来:
```scala
import org.apache.hadoop.conf.Configuration
import org.apache.hadoop.fs.{FileSystem, Path}
object HdfsFileReader {
def main(args: Array[String]): Unit = {
val conf = new Configuration()
val fs = FileSystem.get(conf)
val filePath = new Path("hdfs://localhost:9000/path/to/your/file.txt")
val inputStream = fs.open(filePath)
val buffer = new Array[Byte](1024)
var bytesRead = inputStream.read(buffer)
while (bytesRead > 0) {
println(new String(buffer, 0, bytesRead))
bytesRead = inputStream.read(buffer)
}
inputStream.close()
fs.close()
}
}
```
在上面的代码中,首先创建一个`Configuration`对象,并通过`FileSystem.get(conf)`方法获取一个`FileSystem`对象来访问HDFS。然后,使用`new Path("hdfs://localhost:9000/path/to/your/file.txt")`创建一个HDFS文件路径对象。
接下来,调用`fs.open(filePath)`方法打开一个文件输入流,并创建一个字节数组缓冲区。然后通过`inputStream.read(buffer)`方法将文件内容读取到缓冲区中,并使用`new String(buffer, 0, bytesRead)`将字节数组转换为字符串并打印出来。
最后,记得在使用完输入流和文件系统对象后调用`close()`方法关闭它们。
请注意,上述代码假设HDFS连接URL为`hdfs://localhost:9000`,要读取的文件路径为`/path/to/your/file.txt`。你需要根据你的实际情况进行相应的修改。
scala怎么读取hdfs文件
阅读量:5
相关阅读
- 上一篇:golang项目部署运行的方法是什么
- 下一篇:ztree的用法是什么