stream load加载大文件部分数据失败原因

使用stream load加载一个500M的csv文件(有7万条记录,其中有一个字段是json格式的长字符串),以逗号作为字段分隔符,换行作为行分隔符;执行curl加载后其中有17条数据报错列数不匹配,但是这17条记录提取出来单独保存到一个新的csv文件中却可以加载成功;或者将7万条记录的文件切割成2000条记录一个文件也可以加载成功;请大佬们帮忙分析下原因以及如何解决;

curl -v --location-trusted
-u root:afsfd
-H “label:load_order_202310_34”
-H “column_separator:,”
-H “enclose:"”
-H “escape:\”
-H “trim_double_quotes:true”
-H “max_filter_ratio:1”
-T /data/xxx/bin/test.sql
-XPUT http://192.168.18.60:18030/api/test/order_202310/_stream_load