我们正在尝试使用较小的38 chars字符集(文件)来训练注意力OCR(FSNS)。我们拥有自己的图像数据集,其性质与FSNS数据集类似。
现在我们面临的问题是,经过四天的培训,损失不断增加,达到数千人。但是如果我们使用默认的字符集文件DO.
SELECT * FROM bseg UP TO 10000 ROWS
INTO TABLE @DATA(lt_bseg)
WHERE bukrs = '0001'.
IF sy-subrc <> 0.
EXIT.
ENDIF.
OPEN DATASET filename FOR OUTPUT IN TEXT MODE ENCODING DEFAULT.
LOOP AT lt_bseg INTO DATA(ls_bseg).
DO.
ASSIGN COMPONENT sy-index OF STRUCTURE ls_bseg TO FIELD-SYMBOL(<fs_field>).
IF sy-subrc <> 0.
EXIT.
ENDIF.
IF line IS INITIAL.
line = <fs_field>.
ELSE.
line = line && ';' && <fs_field>.
ENDIF.
TRANSFER line TO filename.
CLEAR: line.
ENDDO.
ENDLOOP.
ENDDO.
CLOSE DATASET filename.
,则损失不会增加,我们得到字符准确度〜= .80和字精度〜= .50。但是当我们使用demo_inference.py进行评估时,我们的模型会给出垃圾输出。
我们没有使用gpu。尝试了Tensorflow版本(1.2,1.3)。
有人可以帮助我们吗?