Producer 设置 max.request.size
的默认值为 1048576。它控制请求(到代理)的最大字节数。
Broker 设置 message.max.bytes
的默认值为 1000012。这控制了(Kafka 服务器/代理)允许的最大(记录批处理)大小。
1048576 > 1000012
似乎默认情况下,生产者(具有此默认值)可能会碰巧产生大于代理(具有此默认值)将接受的消息,从而导致 MESSAGE_TOO_LARGE
错误。
我是否误解了这些配置设置?还是 Kafka 的默认值真的会导致 MESSAGE_TOO_LARGE
默认值错误?
最佳答案
根据 Apache Kafka 邮件列表,这是最近修复的:
https://github.com/apache/kafka/pull/4154
https://github.com/apache/kafka/commit/bd5a1c4d368b9e91398e48400965d30d3045062e
关于apache-kafka - max.request.size 和 message.max.bytes 的默认值似乎有误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/60458132/
相关文章:
c# - 如果正在使用的 USB COM 端口已被移除,SerialPort.Close() 会卡住
javascript - nuxt layout - 为移动端和桌面端提供不同的布局
reactjs - 故事书:ReferenceError: Jest 未定义
django - 发出命令时出现静态错误 "python manage.py collectstat
android-studio - 如何禁用 Android-Studio 3.6 中引入的多预览功能
json - 将 GeoJSON 文件导入 React-Leaflet