让我们考虑以下代码:
#include <boost/phoenix.hpp>
#include <boost/spirit/include/lex_lexertl.hpp>
#include <boost/spirit/include/qi.hpp>
#include <algorithm>
#include <iostream>
#include <string>
#include <utility>
#include <vector>
namespace lex = boost::spirit::lex;
namespace qi = boost::spirit::qi;
namespace phoenix = boost::phoenix;
struct operation
{
enum type
{
add,
sub,
mul,
div
};
};
template<typename Lexer>
class expression_lexer
: public lex::lexer<Lexer>
{
public:
typedef lex::token_def<operation::type> operator_token_type;
typedef lex::token_def<double> value_token_type;
typedef lex::token_def<std::string> variable_token_type;
typedef lex::token_def<lex::omit> parenthesis_token_type;
typedef std::pair<parenthesis_token_type, parenthesis_token_type> parenthesis_token_pair_type;
typedef lex::token_def<lex::omit> whitespace_token_type;
expression_lexer()
: operator_add('+'),
operator_sub('-'),
operator_mul("[x*]"),
operator_div("[:/]"),
value("\\d+(\\.\\d+)?"),
variable("%(\\w+)"),
parenthesis({
std::make_pair(parenthesis_token_type('('), parenthesis_token_type(')')),
std::make_pair(parenthesis_token_type('['), parenthesis_token_type(']'))
}),
whitespace("[ \\t]+")
{
this->self
+= operator_add [lex::_val = operation::add]
| operator_sub [lex::_val = operation::sub]
| operator_mul [lex::_val = operation::mul]
| operator_div [lex::_val = operation::div]
| value
| variable [lex::_val = phoenix::construct<std::string>(lex::_start + 1, lex::_end)]
| whitespace [lex::_pass = lex::pass_flags::pass_ignore]
;
std::for_each(parenthesis.cbegin(), parenthesis.cend(),
[&](parenthesis_token_pair_type const& token_pair)
{
this->self += token_pair.first | token_pair.second;
}
);
}
operator_token_type operator_add;
operator_token_type operator_sub;
operator_token_type operator_mul;
operator_token_type operator_div;
value_token_type value;
variable_token_type variable;
std::vector<parenthesis_token_pair_type> parenthesis;
whitespace_token_type whitespace;
};
template<typename Iterator>
class expression_grammar
: public qi::grammar<Iterator>
{
public:
template<typename Tokens>
explicit expression_grammar(Tokens const& tokens)
: expression_grammar::base_type(start)
{
start %= expression >> qi::eoi;
expression %= sum_operand >> -(sum_operator >> expression);
sum_operator %= tokens.operator_add | tokens.operator_sub;
sum_operand %= fac_operand >> -(fac_operator >> sum_operand);
fac_operator %= tokens.operator_mul | tokens.operator_div;
if(!tokens.parenthesis.empty())
fac_operand %= parenthesised | terminal;
else
fac_operand %= terminal;
terminal %= tokens.value | tokens.variable;
if(!tokens.parenthesis.empty())
{
parenthesised %= tokens.parenthesis.front().first >> expression >> tokens.parenthesis.front().second;
std::for_each(tokens.parenthesis.cbegin() + 1, tokens.parenthesis.cend(),
[&](typename Tokens::parenthesis_token_pair_type const& token_pair)
{
parenthesised %= parenthesised.copy() | (token_pair.first >> expression >> token_pair.second);
}
);
}
}
private:
qi::rule<Iterator> start;
qi::rule<Iterator> expression;
qi::rule<Iterator> sum_operand;
qi::rule<Iterator> sum_operator;
qi::rule<Iterator> fac_operand;
qi::rule<Iterator> fac_operator;
qi::rule<Iterator> terminal;
qi::rule<Iterator> parenthesised;
};
int main()
{
typedef lex::lexertl::token<std::string::const_iterator, boost::mpl::vector<operation::type, double, std::string>> token_type;
typedef expression_lexer<lex::lexertl::actor_lexer<token_type>> expression_lexer_type;
typedef expression_lexer_type::iterator_type expression_lexer_iterator_type;
typedef expression_grammar<expression_lexer_iterator_type> expression_grammar_type;
expression_lexer_type lexer;
expression_grammar_type grammar(lexer);
while(std::cin)
{
std::string line;
std::getline(std::cin, line);
std::string::const_iterator first = line.begin();
std::string::const_iterator const last = line.end();
bool const result = lex::tokenize_and_parse(first, last, lexer, grammar);
if(!result)
std::cout << "Parsing failed! Reminder: >" << std::string(first, last) << "<" << std::endl;
else
{
if(first != last)
std::cout << "Parsing succeeded! Reminder: >" << std::string(first, last) << "<" << std::endl;
else
std::cout << "Parsing succeeded!" << std::endl;
}
}
}
它是具有值和变量的算术表达式的简单解析器。它被构建expression_lexer
用于提取令牌,然后expression_grammar
用于解析令牌。
在这样一个小案例中使用词法分析器可能看起来有点过头了,可能就是这样。但这是简化示例的成本。另请注意,词法分析器的使用允许使用正则表达式轻松定义标记,同时允许通过外部代码(特别是用户提供的配置)轻松定义它们。使用提供的示例,从外部配置文件中读取令牌定义完全没有问题,例如允许用户将变量从 更改%name
为$name
.
代码似乎运行良好(在 Visual Studio 2013 和 Boost 1.61 上进行了检查)。
具有附加到令牌的expression_lexer
属性。我猜他们在编译后就可以工作了。但我真的不知道如何检查。
最终,我希望语法为我构建一个std::vector
带有反向波兰符号的表达式。(其中每个元素都是一个boost::variant
或operator::type
或double
或std::string
。)
然而,问题是我未能在我的expression_grammar
. 例如,如果您尝试更改sum_operator
以下方式:
qi::rule<Iterator, operation::type ()> sum_operator;
你会得到编译错误。我希望这会起作用,因为这operation::type
是两者的属性,operator_add
也是operator_sub
它们的替代方法。而且它仍然没有编译。从错误来看assign_to_attribute_from_iterators
,解析器似乎试图直接从输入流范围构建属性值。这意味着它忽略了[lex::_val = operation::add]
我在词法分析器中指定的内容。
将其更改为
qi::rule<Iterator, operation::type (operation::type)> sum_operator;
也没有帮助。
我也尝试将定义更改为
sum_operator %= (tokens.operator_add | tokens.operator_sub) [qi::_val = qi::_1];
也没有帮助。
如何解决这个问题?我知道我可以symbols
从 Qi 使用。但是我希望词法分析器可以轻松地为令牌配置正则表达式。我也可以assign_to_attribute_from_iterators
按照文档中的描述进行扩展,但是这种工作会加倍。我想我也可以跳过词法分析器上的属性,只在语法上使用它们。但这又不能很好地适应variable
令牌的灵活性(在我的实际情况下,那里的逻辑稍微多一些,因此它也可以配置令牌的哪一部分形成变量的实际名称 - 而在这里它被固定为只是跳过第一个字符)。还要别的吗?
还有一个附带问题-也许有人知道。有没有办法从令牌操作中捕获令牌的正则表达式组?所以,而不是有
variable [lex::_val = phoenix::construct<std::string>(lex::_start + 1, lex::_end)]
相反,我将能够从捕获组中创建一个字符串,从而轻松处理$var$
.
已编辑!在使用 Boost.Spirit Qi 和 Lex 时,我已经改进了 Whitespace skipper 的结论。这是一种简化,不影响此处提出的问题。