我遇到了一个问题,我可以看到它们是我的Azure事件中心上的消息,当我尝试使用流分析将它们流式传输到blob存储时 - 没有任何反应。它只是持续流动而没有任何消息被写入指定的blob存储。我也使用一个非常简单的查询:SELECT * INTO [Blob] FROM [InputEventHub]
当我尝试对数据进行采样时,我收到以下错误消息:
“没有找到”********“的活动。开始时间:2017年3月27日,15:15:28结束时间:2017年3月27日星期一,16:16:28上次到达星期一,27 2017年3月,15:16:46诊断:采样数据时,没有从'4'分区收到数据“。他们在活动中心收到超过48,000条消息,所以我知道它们上面有活动。我在活动日志中也没有收到任何错误。有人遇到过这个问题吗?
提前致谢。
达明
答案 0 :(得分:1)
今天遇到同样的问题。在我的情况下,它实际上是错误的JSON输入。提示是 LastTimeArrived 字段在有效的开始/结束范围内。
答案 1 :(得分:0)
我想建议一些调查此问题的步骤。请注意,它将涉及启动作业(而不是使用示例数据)。
您是否可以确认您在Azure Stream Analytics中看到了收到的消息,而不仅仅是在Event Hub中。为此,你可以:
如果此处没有输入事件,则可能是与集线器连接存在问题。
如果您确实看到输入事件但没有输出事件,您可以查看“活动日志”中是否有任何错误。刀。如需进一步调查,您还可以使用我们上个月宣布的new improved troubleshooting experience。
让我知道它对你有用。
谢谢, JS(Azure流分析)
答案 2 :(得分:0)
我已经两次使用2个单独的应用程序见解,容器,工作等来解决这个问题。两次我都通过编辑输入的路径模式解决了这个问题。
导航到必要的刀片以进行以下更改:
1) Click on your stream analytics job
2) Click "inputs" under the "job topology" section of the blade
3) Click your input (if multiple inputs, do this to 1 at a time)
4) Use the blade that pops up on the right side of the screen
我遇到的4个可能的解决方案是(A-D 粗体):
一个。 确保您输入的路径模式是纯文本,没有隐藏的字符(有时将其从Azure上的容器中复制,使其不是纯文本)。
*Steps:*
1) Cut the path pattern you have already in the input blade
2) Paste it into Notepad and re-copy it
3) Re-paste it into the path pattern slot of your input
B中。 使用/ {日期} / {时间}
附加您的路径模式Simply type this at the end of your path pattern in the blade's textbox
℃。 删除容器名称和" /"从您的路径模式的开头紧随其后(见下图)
Removing the container name and / from path pattern
Should be self-explanatory after seeing the pic.
d。 在下拉框中将输入的日期格式更改为YYYY-MM-DD。
Should also be self-explanatory (look at the above picture if not).
希望这会有所帮助!!
答案 3 :(得分:0)
当尝试使用Blob .csv文件作为Streaming Analytics Job的输入时,我收到了相同的错误。问题出在文件太大了。
我认为最大大小为2.1MB,因为这是我尝试以azure方式编辑blob文件时收到的警告。
亲自看看: 1)打开存储账户 2)打开容器 3)打开容器 4)导航到文件,然后单击一次,属性刀片将打开。 5)点击“编辑Blob”,如果文件超过2.1mb,您应该会看到文件大小警告
一旦我减小了文件的大小,“没有发现任何事件”错误就会停止,并且预览数据会按预期在SA作业中到达