8.2 使用 flex 对 TinyC 源文件进行词法分析
上一节的第二个例子 word-spliter 就是一个原始的分词器,在此例的框架上加以扩展就可以做为 TinyC 的词法分析器了。
word-spliter 中只有 WORD 这一种类型的 token ,所有连续的非空格字符串都是一个 WORD ,它的正则表达式非常简单: [^ \t\n\r\a]+ 。 该程序中为 WORD 类型的 token 定义了一个值为 1 的编号: T_WORD ,每当扫描出一个完整的 WORD 时,就向 main 函数返回 T_WORD ,遇到文件结束则返回 0 。 main 函数则根据 yylex 函数的返回值进行不同的处理。
从 word-spliter 程序的框架和流程中可以看出,词法分析器的扩展方法非常简单:
(1) 列出 TinyC 中所有类型的 token;
(2) 为每种类型的 token 分配一个唯一的编号,同时写出此 token 的正则表达式;
(3) 写出每种 token 的 rule (相应的 pattern 和 action )。
TinyC 中的 token 的种类非常少,按其词法特性,分为以下三大类。
第 1 类为单字符运算符,一共 15 种:
- + * - / % = , ; ! < > ( ) { }
第 2 类为双字符运算符和关键字,一共 16 种:
- <=, >=, ==, !=, &&, ||
- void, int, while, if, else, return, break, continue, print, readint
第 3 类为整数常量、字符串常量和标识符(变量名和函数名),一共 3 种。
除第 3 类 token 的正则表达式稍微麻烦一点外,第 1 、 2 类 token 的正则表达式就是这些运算符或关键字的字面值。
token 的编号原则为:单字符运算符的 token 编号就是其字符的数值,其他类型的 token 则从 256 开始编号。
各类 token 的正则表达式及相应的 action 见下面的 scaner.l 文件,该文件的框架和上一节中的 word-spliter.l 是完全一样的,只不过 token 的类别多了。
- %{
- #include "token.h"
- int cur_line_num = 1;
- void init_scanner();
- void lex_error(char* msg, int line);
- %}
- /* Definitions, note: \042 is '"' */
- INTEGER ([0-9]+)
- UNTERM_STRING (\042[^\042\n]*)
- STRING (\042[^\042\n]*\042)
- IDENTIFIER ([_a-zA-Z][_a-zA-Z0-9]*)
- OPERATOR ([+*-/%=,;!<>(){}])
- SINGLE_COMMENT1 ("//"[^\n]*)
- SINGLE_COMMENT2 ("#"[^\n]*)
- %%
- [\n] { cur_line_num++; }
- [ \t\r\a]+ { /* ignore all spaces */ }
- {SINGLE_COMMENT1} { /* skip for single line comment */ }
- {SINGLE_COMMENT2} { /* skip for single line commnet */ }
- {OPERATOR} { return yytext[0]; }
- "<=" { return T_Le; }
- ">=" { return T_Ge; }
- "==" { return T_Eq; }
- "!=" { return T_Ne; }
- "&&" { return T_And; }
- "||" { return T_Or; }
- "void" { return T_Void; }
- "int" { return T_Int; }
- "while" { return T_While; }
- "if" { return T_If; }
- "else" { return T_Else; }
- "return" { return T_Return; }
- "break" { return T_Break; }
- "continue" { return T_Continue; }
- "print" { return T_Print; }
- "readint" { return T_ReadInt; }
- {INTEGER} { return T_IntConstant; }
- {STRING} { return T_StringConstant; }
- {IDENTIFIER} { return T_Identifier; }
- <<EOF>> { return 0; }
- {UNTERM_STRING} { lex_error("Unterminated string constant", cur_line_num); }
- . { lex_error("Unrecognized character", cur_line_num); }
- %%
- int main(int argc, char* argv[]) {
- int token;
- init_scanner();
- while (token = yylex()) {
- print_token(token);
- puts(yytext);
- }
- return 0;
- }
- void init_scanner() {
- printf("%-20s%s\n", "TOKEN-TYPE", "TOKEN-VALUE");
- printf("-------------------------------------------------\n");
- }
- void lex_error(char* msg, int line) {
- printf("\nError at line %-3d: %s\n\n", line, msg);
- }
- int yywrap(void) {
- return 1;
- }
上面这个文件中,需要注意的是,正则表达式中,用双引号括起来的字符串就是原始字符串,里面的特殊字符是不需要转义的,而双引号本身必须转义(必须用 \” 或 \042 ),这是 flex 中不同于常规的正则表达式的一个特性。
除单字符运算符外的 token 的编号则在下面这个 token.h 文件,该文件中同时提供了一个 print_token 函数,可以根据 token 的编号打印其名称。
- #ifndef TOKEN_H
- #define TOKEN_H
- typedef enum {
- T_Le = 256, T_Ge, T_Eq, T_Ne, T_And, T_Or, T_IntConstant,
- T_StringConstant, T_Identifier, T_Void, T_Int, T_While,
- T_If, T_Else, T_Return, T_Break, T_Continue, T_Print,
- T_ReadInt
- } TokenType;
- static void print_token(int token) {
- static char* token_strs[] = {
- "T_Le", "T_Ge", "T_Eq", "T_Ne", "T_And", "T_Or", "T_IntConstant",
- "T_StringConstant", "T_Identifier", "T_Void", "T_Int", "T_While",
- "T_If", "T_Else", "T_Return", "T_Break", "T_Continue", "T_Print",
- "T_ReadInt"
- };
- if (token < 256) {
- printf("%-20c", token);
- } else {
- printf("%-20s", token_strs[token-256]);
- }
- }
- #endif
下面来编译一下这两个文件, makefile 文件为:
- out: scanner
- scanner: lex.yy.c token.h
- gcc -o $@ $<
- lex.yy.c: scanner.l
- flex $<
将以上 3 个文件保存在终端的当前目录,再输入 make ,编译后生成了 scanner 文件。
下面来测试一下这个词法分析器,将 samples.zip 文件下载并解压到 samples 目录,此文件包中有很多测试文件,我们先测试一下其中的一个文件,输入:
- $ ./scanner < samples/sample_6_function.c > out.txt
再打开 out.txt 文件看看,可以看出 sample_6_function.c 文件的所有 token 都被解析出来了:
TOKEN-TYPE TOKEN-VALUE
-------------------------------------------------
T_Int int
T_Identifier main
( (
) )
...
下面全部测试一下这些文件,在终端输入以下内容:
- for src in $(ls samples/*.c); do ./scanner < $src > $src.lex; done
再在终端输入: bash test.sh 。之后,查看一下 samples 目录下新生成的 ”.lex” 文件。可以看出所有源文件都被解析完成了。
TinyC 语言中只有两类词法错误,一种是未结束的字符串,即只有前面一个双引号的字符串,另外一种就是非法字符,如 ~ @ 等(双引号内部的除外),scanner.l 文件中可以识别出这两种词法错误,同时定位出错误所在的行,详见该文件的 Rules 段的最后两条 Rule 。
第 8 章完