创建列表Lexer / Parser

时间:2012-01-15 00:07:59

标签: python algorithm parsing lexer tokenize

我需要创建一个lexer / parser来处理可变长度和结构的输入数据。

说我有一个保留关键字列表:

keyWordList = ['command1', 'command2', 'command3']

和用户输入字符串:

userInput = 'The quick brown command1 fox jumped over command2 the lazy dog command 3'
userInputList = userInput.split()

我将如何编写此功能:

INPUT:

tokenize(userInputList, keyWordList)

OUTPUT:
[['The', 'quick', 'brown'], 'command1', ['fox', 'jumped', 'over'], 'command 2', ['the', 'lazy', 'dog'], 'command3']

我编写了一个可以识别关键字的标记生成器,但是无法找到一种将非关键字组嵌入到更深层次的列表中的有效方法。

欢迎RE解决方案,但我真的希望看到基础算法,因为我可能会将应用程序扩展到其他对象的列表而不仅仅是字符串。

4 个答案:

答案 0 :(得分:5)

这样的事情:

def tokenize(lst, keywords):
    cur = []
    for x in lst:
        if x in keywords:
            yield cur
            yield x
            cur = []
        else:
            cur.append(x)

这将返回一个生成器,因此将您的调用包装到list

答案 1 :(得分:2)

使用一些正则表达式很容易做到:

>>> reg = r'(.+?)\s(%s)(?:\s|$)' % '|'.join(keyWordList)
>>> userInput = 'The quick brown command1 fox jumped over command2 the lazy dog command3'
>>> re.findall(reg, userInput)
[('The quick brown', 'command1'), ('fox jumped over', 'command2'), ('the lazy dog', 'command3')]

现在你只需要拆分每个元组的第一个元素。

对于一个以上的深度,正则表达式可能不是一个好的答案。

您可以在此页面上选择一些不错的解析器:http://wiki.python.org/moin/LanguageParsing

我认为Lepl是个好人。

答案 2 :(得分:1)

试试这个:

keyWordList = ['command1', 'command2', 'command3']
userInput = 'The quick brown command1 fox jumped over command2 the lazy dog command3'
inputList = userInput.split()

def tokenize(userInputList, keyWordList):
    keywords = set(keyWordList)
    tokens, acc = [], []
    for e in userInputList:
        if e in keywords:
            tokens.append(acc)
            tokens.append(e)
            acc = []
        else:
            acc.append(e)
    if acc:
        tokens.append(acc)
    return tokens

tokenize(inputList, keyWordList)
> [['The', 'quick', 'brown'], 'command1', ['fox', 'jumped', 'over'], 'command2', ['the', 'lazy', 'dog'], 'command3']

答案 3 :(得分:1)

或者看看PyParsing。相当不错的小lex解析器组合