标签: azure azure-data-lake azure-stream-analytics
我正在使用Azure流分析作为将数据登陆到数据湖存储的传递。
源文件是|分隔的csv。输出也是|分隔的csv。在notepad ++中检查每行以换行结尾时,blob存储中的传入文件格式正确。没有疯狂的转换,只需选择一个简单的*。
Azure Stream Analytics处理文件并将其移至Blob存储后,结束行供稿中出现不一致的情况。一些将是LF(换行),而其他将是LFCR(换行回车)。尝试使用U-SQL处理数据时,这会导致管道问题。
有人碰到这个吗?我的样本文件有5000条记录。