所以,我发现了我成功解析日志的Grok Debugger。但是,如果我实际上让日志通过logstash运行,它们会显示在Kibana中但没有额外的字段。
我的过滤器如下所示:
from pyspark import SparkContext
from pyspark.sql import HiveContext
sc = SparkContext(appName="PythonSQL")
sqlContext = HiveContext(sc)
sqlContext.sql("create external table ... location '/user/mike/test')
这样的典型日志:
int prevSelection =-1; //nothing selected
listview.setOnItemClickListener(new AdapterView.OnItemClickListener() {
@Override
public void onItemClick(AdapterView<?> parent, View view, int position, long id) {
if (prevSelection==-1) //nothing selected
{
musicRealmResults.get(position).setIsSelected(true);
adapter.notifyDataSetChanged();
prevSelection = position;
}else if (prevSelection == position) //deselect previously selected
{
musicRealmResults.get(position).setIsSelected(false);
adapter.notifyDataSetChanged();
prevSelection = -1;
}else // Some other selection
{
musicRealmResults.get(prevSelection).setIsSelected(false);
musicRealmResults.get(position).setIsSelected(true);
adapter.notifyDataSetChanged();
prevSelection = position;
}
但在Kibana中,我看到以下内容,但我应该看到我在grok过滤器中定义的字段:
我做错了吗? 谢谢你的建议!
答案 0 :(得分:0)
您应该在filebeat-2016.03.08
索引中看到该事件。