1

我试图用 jison ( http://zaa.ch/jison/docs/ ) 编写简单的解析器,但停留在描述文本中。

%lex

%%
[\s\n\t]+                   return 'TK_SPACE';
[0-9]+("."[0-9]+)?\b        return 'TK_NUMBER';
[a-zA-Z]+([a-zA-Z0-9]+)?\b  return 'TK_WORD';
<<EOF>>                     return 'EOF';

/lex

%start document

%%

document
  : nodes EOF
    { console.log($1); }
  | EOF
  ;

nodes
  : nodes node
    { $1.push($2); $$ = $1; }
  | node
    { $$ = [$1]; }
  ;

node
  : text
  ;

text
  : text text_element
    { $$ = $1 + $2; }
  | text_element
  ;

text_element
  : TK_NUMBER
  | TK_WORD
  | TK_SPACE
  ;

此语法编译时带有警告。

Conflict in grammar: multiple actions possible when lookahead token is TK_SPACE in state 5
- reduce by rule: node -> text
- shift token (then go to state 9)
Conflict in grammar: multiple actions possible when lookahead token is TK_WORD in state 5
- reduce by rule: node -> text
- shift token (then go to state 8)
Conflict in grammar: multiple actions possible when lookahead token is TK_NUMBER in state 5
- reduce by rule: node -> text
- shift token (then go to state 7)

States with conflicts:
State 5
  node -> text . #lookaheads= TK_SPACE TK_WORD TK_NUMBER EOF
  text -> text .text_element #lookaheads= EOF TK_NUMBER TK_WORD TK_SPACE
  text_element -> .TK_NUMBER
  text_element -> .TK_WORD
  text_element -> .TK_SPACE

但是,如果我尝试解析文本,它就可以正常工作。这不是代码的完整版本,只是带有文本的版本。我想node在特征中附加节点。

4

1 回答 1

4

问题是您的语法不明确- anodes由一个序列或模式组成node,没有分隔符。Anodetext由一个或多个text_element再次组成且没有分隔符的 a。所以没有办法知道什么时候node结束,什么时候开始。

例如,如果您的text_elements输入中有一个 3 的序列,它可能是一个node带有所有 3 的单个,或者它可能是node每个带有一个的 3。

Bison 将通过总是更喜欢 shift 而不是 reduce 来“解决”这种冲突,后者总是更喜欢制作更大的text对象,因此规则nodes: nodes node永远不会被归约,并且可能只是从语法中删除。由于这是一个纯粹的歧义(不是前瞻问题),因此生成的语法匹配相同的语言,所以这可能不是问题。我假设 jison(或您实际使用的任何解析器生成器)是相同的。

然而,一般来说,冲突是一个问题,因为这意味着生成的解析器解析的语法不是您指定的语法。弄清楚生成的解析器实际解析了什么语法并非易事,需要仔细了解 shoft-reduce 解析的工作原理以及解析器生成器实际生成的状态。信息都在.output文件中(由 bison 生成-v- 其他生成器可能不同),但您需要阅读并理解它。

于 2016-04-23T18:03:43.497 回答