hadoop - HDFS的默认 block 大小为128 MB,而Hive的默认 strip 大小

HDFS块大小默认为128 MB(来源:https://hadoop.apache.org/docs/r2.9.0/hadoop-project-dist/hadoop-hdfs/hdfs-default.xml)

hive strip 大小默认为250 MB(来源:https://cwiki.apache.org/confluence/display/Hive/LanguageManual+ORC#LanguageManualORC-FileStructure)

据我了解,HDFS的1个块中必须完全容纳1条。

我在这里想念什么吗?我的信息不正确吗?

您是否仅需要将HDFS配置为具有250 MB的块以适合 strip 化?

最佳答案

Orc文件格式可在 strip 级别拆分。这意味着不需要将一个 strip 大小适合到一个块中。

HDFS块大小在文件级别,而不管其格式如何。

关于hadoop - HDFS的默认 block 大小为128 MB,而Hive的默认 strip 大小为250 MB,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55128225/

相关文章:

hadoop - 为什么 hive 中的CTAS查询没有得到预期的结果?

apache-spark - Spark的示例在客户端模式下引发FileNotFoundExcept

python - Fedora 22 : ERROR: No module named '_rpmb

nginx - 多个网站在Docker容器中运行,如何实现?

docker - docker 容器可以连接到 SRIOV 虚拟功能吗?

java - 如何在 Hadoop 中对自定义可写类型进行排序

hadoop - 如何将新记录更新到临时表中的主表

sql - 配置单元确定日期重叠的记录

ubuntu - docker登录错误: no such host

amazon-web-services - 需要有关数据管道创建的设计输入