我正在寻求有关自定义构建的 Lexer 类的帮助,并使用它来解析输入。我们的教授为我们的项目提供了一些骨架代码,我们必须使用它。我的问题是,我们需要能够一次调用多个函数来对表进行排序并合并/排序单独表的列。例如,我们的输入将类似于:
显示 <'file_name> 按 <'column2> 排序
其中 'display' 和 'sortedby' 是关键字排序,column2 将按数字或字母顺序排序 - 取决于内容。
我们得到了用于排序的算法,而我当前的问题不在于它的实现,而是能够让我们的 Lexer/Parser 读取多个输入。目前,我只能让“显示”位工作。更多的只是吐回一条错误消息。
我查看了代码,尝试更改一些逻辑 - 将语句从 true 切换为 false,交换 && 和 ||,甚至尝试了一些 if-else 语句,但没有运气。
我真的可以使用一些建议!我们给出的一些代码是原始格式:
词法分析器.h:
#ifndef _LEXER_H
#define _LEXER_H
#include <string>
enum token_types_t {
IDENT, // a sequence of alphanumeric characters and _, starting with alpha
TAG, // sequence of characters between < >, no escape
ENDTOK, // end of string/file, no more token
ERRTOK // unrecognized token
};
struct Token {
token_types_t type;
std::string value;
// constructor for Token
Token(token_types_t tt=ENDTOK, std::string val="") : type(tt), value(val) {}
};
class Lexer {
public:
// constructor
Lexer(std::string str="") : input_str(str), cur_pos(0), in_err(false),
separators(" \t\n\r") { }
//modifiers
void set_input(std::string); // set a new input,
void restart(); // move cursor to the beginning, restart
Token next_token(); // returns the next token
bool has_more_token(); // are there more token(s)?
private:
std::string input_str; // the input string to be scanned
size_t cur_pos; // current position in the input string
bool in_err; // are we in the error state?
std::string separators; // set of separators; *not* the best option!
};
#endif
词法分析器.cpp:
#include "Lexer.h"
#include <iostream>
using namespace std;
Token Lexer::next_token() {
Token ret;
size_t last;
if (in_err) {
ret.type = ERRTOK;
ret.value = "";
return ret;
}
// if not in error state, the default token is the ENDTOK
ret.type = ENDTOK;
ret.value = "";
if (has_more_token()) {
last = cur_pos; // input_str[last] is a non-space char
if (input_str[cur_pos] == '<') {
cur_pos++;
while (cur_pos < input_str.length() && input_str[cur_pos] != '>')
cur_pos++;
if (cur_pos < input_str.length()) {
ret.type = TAG;
ret.value = input_str.substr(last+1, cur_pos-last-1);
cur_pos++; // move past the closing "
} else {
in_err = true;
ret.type = ERRTOK;
ret.value = "";
}
} else {
while (cur_pos < input_str.length() &&
separators.find(input_str[cur_pos]) == string::npos &&
input_str[cur_pos] != '<') {
cur_pos++;
}
ret.type = IDENT;
ret.value = input_str.substr(last, cur_pos-last);
}
}
return ret;
}
void Lexer::set_input(string str) {
input_str = str;
restart();
}
bool Lexer::has_more_token() {
while (cur_pos < input_str.length() &&
separators.find(input_str[cur_pos]) != string::npos) {
cur_pos++;
}
return (cur_pos < input_str.length());
}
void Lexer::restart() {
cur_pos = 0;
in_err = false;
}
我们的解析器(更大的 .cpp 文件的一部分):
bool parse_input(Lexer lexer, string& file_name) {
Token file_name_tok;
if (!lexer.has_more_token() ||
(file_name_tok = lexer.next_token()).type != TAG)
return false;
if (lexer.has_more_token())
return false;
file_name = file_name_tok.value;
return true;
}
显示功能(与解析器相同的 .cpp 文件的一部分):
void display(Lexer cmd_lexer) {
string file_name, line;
if (!parse_input(cmd_lexer, file_name)) {
error_return("Syntax error: display <filename>");
return;
}
ifstream ifs(file_name.c_str());
string error_msg;
if (ifs) {
if (!is_well_formed(ifs, error_msg)) {
error_return(error_msg);
} else {
ifs.clear();
ifs.seekg(0, ios::beg);
print_well_formed_file(ifs);
}
while (ifs.good()) {
getline (ifs, line);
cout << line << endl;
}
} else {
error_return("Can't open " + file_name + " for reading");
}
ifs.close();
}