我在Amazon Emr上运行具有以下阶段和配置的Spark应用程序 阶段:
dstream.map(record => transformRecord).map(result => result._1).flatMap(rd => rd).foreacRDD(rdd => { rdd.toDF; df.save() })
最佳答案
阅读了多个博客后,尝试了一些方法,回答:
https://stackoverflow.com/questions/56305073/
相关文章:
docker - Bluemix上的Docker run命令不允许正确设置环境变量
hadoop - Hive Joins可以在Apache Nifi中实现吗?
hadoop - 如何在Java UDF中加载H20训练有素的模型
hadoop - hadoop fs -mkdir:没有这样的目录
hadoop - 如何在长度大于VARCHAR(32k)的BIGSQL表中存储字符串数据
mongodb - 从BSON文件创建Hive表时,列值变为NULL
hadoop - 如何在本地获取此输出
docker - 在Bluemix容器上安装卷并在它们之间共享不起作用
docker - 使用RUN的结果来设置变量
docker - 外部服务在运行时设置的转发容器端口