如何修复HPCC ECL学习树错误:对象“类型”没有名为“ t_Work-Item”的成员?

时间:2019-04-19 21:09:21

标签: machine-learning classification ecl hpcc-ecl

我正在尝试使用HPCC ML_Core和LearningTree库对某些数据进行分类。数据全为数字,因变量为无符号整数。无论我做什么,都会收到相同的错误“对象'类型'没有名为't_Work_Item'的成员”

错误的位置甚至不在我的文件中。在一个名为RF_Base.ecl的文件中。

我不知道如何解决此错误。

我使用了本教程来设置代码:https://hpccsystems.com/blog/HPCC-Sytems-Machine-Learning

这些是我收到的错误消息:

图片链接:https://i.imgur.com/4WxElRJ.jpg

我已经将正在处理的文件移动到与我安装的捆绑软件相同的文件中,以查看将文件放在与库相同的位置是否有帮助,但是没有帮助。

该错误发生在第62行:myLearnerC:= LT.ClassificationForest();

IMPORT ML_Core, std;
IMPORT ML_Core.Discretize;
IMPORT LearningTrees AS LT;

articles_layout := RECORD
    INTEGER articleID;
    UNSIGNED INTEGER sectionName; //dependent variable I'm trying to classify
    INTEGER newsDesk; //newsDesk to key9 are independent variables I'm using to classify the section name
    INTEGER key1;
    INTEGER key2;
    INTEGER key3;
    INTEGER key4;
    INTEGER key5;
    INTEGER key6;
    INTEGER key7;
    INTEGER key8;
    INTEGER key9; //not all key attributes have data, some are empty
END;

all_articles := DATASET('~online::hjj::parsed_articles_reordered', articles_layout, CSV) : PERSIST('online::hjj::all_articles');
//all_articles[1..40];

known_articles := all_articles(sectionName != 25);
//known_articles[1..40];

unknown_articles := all_articles(sectionName = 25) : PERSIST('online::hjj::unknown_articles');
//unknown_articles[1..40];


articles_layout_ext := RECORD(articles_layout)
  UNSIGNED4 RND;
END;

articles_ext := PROJECT(known_articles, TRANSFORM(articles_layout_ext, SELF.rnd := RANDOM(), SELF := LEFT));

articles_shuffled := SORT(articles_ext, rnd);

training_articles := PROJECT(articles_shuffled[1..2330], articles_layout) : PERSIST('online:hjj::training_articles');
//training_articles[1..30];

testing_articles := PROJECT(articles_shuffled[2331..2923], articles_layout) : PERSIST('online:hjj::testing_articles');
//testing_articles[1..30];

ML_Core.ToField(training_articles, training_articles_NF);
training_articles_NF[1..50];

ML_Core.ToField(testing_articles, testing_articles_NF);
testing_articles_NF[1..50];

myIndTrainDataNF := training_articles_NF(number > 1);

myDepTrainDataNF := PROJECT(training_articles_NF(number = 1), TRANSFORM(RECORDOF(LEFT), SELF.number := 1, SELF := LEFT));

myIndTestDataNF := training_articles_NF(number > 1);

myDepTestDataNF := PROJECT(testing_articles_NF(number = 1), TRANSFORM(RECORDOF(LEFT), SELF.number := 1, SELF := LEFT));

myDepTrainDataDF := Discretize.ByRounding(myDepTrainDataNF);

myDepTestDataDF := Discretize.ByRounding(myDepTestDataNF);

//PROBLEM STATEMENT HERE
myLearnerC := LT.ClassificationForest();

myModelC := myLearnerC.GetModel(myIndTrainDataNF, myDepTrainDataDF);

predictedClasses := myLearnerC.Classify(myModelC, myIndTestDataNF) : PERSIST('online::hjj::predicted_classes');

assessmentC := ML_Core.Analysis.Classification.Accuracy(predictedClasses, myDepTestDataDF) : PERSIST('online::hjj::assessment');

该错误位于RF_Base.ecl文件的第14行

IMPORT $.^ AS LT;
IMPORT LT.Internal AS int;
IMPORT LT.LT_Types as Types;
IMPORT ML_Core as ML;
IMPORT ML.Types AS CTypes;
IMPORT std.system.Thorlib;
IMPORT ML_Core.ModelOps2;

GenField := Types.GenField;
ModelStats := Types.ModelStats;

//ERROR HERE
t_Work_Item := CTypes.t_Work_Item;

t_Count := CTypes.t_Count;
t_RecordId := CTypes.t_RecordID;
t_FieldNumber := CTypes.t_FieldNumber;
t_TreeId := t_FieldNumber;
Layout_Model := CTypes.Layout_Model;
wiInfo := Types.wiInfo;
TreeNodeDat := Types.TreeNodeDat;
NumericField := CTypes.NumericField;
DiscreteField := CTypes.DiscreteField;
Layout_Model2 := CTypes.Layout_Model2;
FeatureImportanceRec := Types.FeatureImportanceRec;
nfNull := DATASET([], NumericField);

真的不确定如何解决此问题。预先感谢。

1 个答案:

答案 0 :(得分:0)

这里会发生什么?

1-您的代码失败,因为LearningTrees(LT)失败:

IMPORT LearningTrees AS LT;
[...]
myLearnerC := LT.ClassificationForest();

2- LearningTrees使用的RF_Base.ecl由于存在错误而无法构建。

3- RF_Base.ecl文件在第14、19和24行中存在3个语法错误...因此未构建。

解决方案:“修复RF_Base.ecl,一切正常。”

说起来容易,但是很难。

我克隆了:

  • ML_Core
  • ecl-ml
  • 学习树

...和 RF_Base.ecl 正常工作。

您应该尝试什么?

  • 检查是否已克隆所有3个库
  • 检查路径是否与我相同:

enter image description here