当我在BigSQL表中加载数据时,超出32762个字符的数据将被截断。我的表定义如下:
创建hadoop TABLE schema_name.table_name
(
column1 VARCHAR(50),
column2 INTEGER,
column3 STRING,
加载日期TIMESTAMP
)
存储为PARQUET;
for column3被截断。
有没有办法存储完整数据?
最佳答案
也许CLOB是您正在寻找的答案
https://stackoverflow.com/questions/56338849/