java - java.io.IOException:方案:maprfs没有文件系统。将maprfs

通过spark-shell运行以下命令时,出现以下错误。我还在bash_profile中添加了maprfs jar,如下所示。我尝试了类似文章中的大多数解决方案,但无法解决此问题。

scala> val input = sc.textFile("maprfs:///user/uber/list/brand.txt")
input: org.apache.spark.rdd.RDD[String] = maprfs:///user/uber/list/brand.txt MapPartitionsRDD[1] at textFile at <console>:24

scala> input.count()
java.io.IOException: No FileSystem for scheme: maprfs
  at org.apache.hadoop.fs.FileSystem.getFileSystemClass(FileSystem.java:2660)
  at org.apache.hadoop.fs.FileSystem.createFileSystem(FileSystem.java:2667)
  at org.apache.hadoop.fs.FileSystem.access$200(FileSystem.java:94)
  at org.apache.hadoop.fs.FileSystem$Cache.getInternal(FileSystem.java:2703)
  at org.apache.hadoop.fs.FileSystem$Cache.get(FileSystem.java:2685)
  at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:373)
  at org.apache.hadoop.fs.Path.getFileSystem(Path.java:295)
  at org.apache.hadoop.mapred.FileInputFormat.singleThreadedListStatus(FileInputFormat.java:258)
  at org.apache.hadoop.mapred.FileInputFormat.listStatus(FileInputFormat.java:229)
  at org.apache.hadoop.mapred.FileInputFormat.getSplits(FileInputFormat.java:315)
  at org.apache.spark.rdd.HadoopRDD.getPartitions(HadoopRDD.scala:204)
  at org.apache.spark.rdd.RDD$$anonfun$partitions$2.apply(RDD.scala:253)
  at org.apache.spark.rdd.RDD$$anonfun$partitions$2.apply(RDD.scala:251)
  at scala.Option.getOrElse(Option.scala:121)
  at org.apache.spark.rdd.RDD.partitions(RDD.scala:251)
  at org.apache.spark.rdd.MapPartitionsRDD.getPartitions(MapPartitionsRDD.scala:49)
  at org.apache.spark.rdd.RDD$$anonfun$partitions$2.apply(RDD.scala:253)
  at org.apache.spark.rdd.RDD$$anonfun$partitions$2.apply(RDD.scala:251)
  at scala.Option.getOrElse(Option.scala:121)
  at org.apache.spark.rdd.RDD.partitions(RDD.scala:251)
  at org.apache.spark.SparkContext.runJob(SparkContext.scala:2126)
  at org.apache.spark.rdd.RDD.count(RDD.scala:1168)
  ... 49 elided

bash_profile:

导出MAPR_HOME = / opt / mapr / hadoop / hadoop-2.7.0 / share / hadoop / common / lib / maprfs-5.1.0-mapr.jar
导出PATH = $ MAPR_HOME:$ PATH

最佳答案

如果查看Spark架构,将会看到您具有驱动程序和执行程序。当像您一样设置环境时,它将影响您的驱动程序,而不是执行程序。

看at this question。这应该对您有帮助。

关于java - java.io.IOException:方案:maprfs没有文件系统。将maprfs jar添加到bash_profile无效,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55231319/

相关文章:

hadoop - NameNode 的用户名必须与 DataNode 的用户名相同吗?

docker - Docker中的开发环境

docker - 我必须创建一个隧道来访问另一台主机上的 docker 容器吗?

docker - 在Boot2Docker中使用MySQL时JDBC连接缓慢

docker - 权限被拒绝:docker-machine create

hadoop - 在我们的发现集群中提高 yarn 容器利用率的建议

java - 无法从 PHP 执行 Hadoop Jar

hadoop - 使用sqoop排除表

docker - Docker容器访问群集IP

docker - ssh进入boot2docker-您可以从boot2docker vm中看到-v文