Kailangan ng lexical analyzer ng upang i-scan at tukuyin lamang ang isang may hangganang hanay ng wastong string/token/lexeme na kabilang sa wikang nasa kamay. Hinahanap nito ang pattern na tinukoy ng mga panuntunan sa wika. Ang mga regular na expression ay may kakayahang magpahayag ng may hangganang mga wika sa pamamagitan ng pagtukoy ng pattern para sa may hangganan na mga string ng mga simbolo.
Bakit kailangan natin ng lexical analyzer?
Ang Tungkulin ng Lexical Analyzer
Ang unang yugto ng isang compiler. Lexical analysis: proseso ng pagkuha ng input string ng mga character (gaya ng source code ng isang computer program) at paggawa ng sequence ng mga simbolo na tinatawag na lexical token, o mga token lang, na maaaring mas madaling pangasiwaan ng parser.
Ano ang tungkulin ng lexical analyzer sa compiler?
Sa pagtanggap ng get-next-tohen command mula sa parser, ang lexical analyzer ay nagbabasa ng mga input character hanggang sa matukoy nito ang susunod na token. ang mga token ay nakakaimpluwensya sa mga pagpapasya sa pag-parse, … ang mga katangian ay nakakaimpluwensya sa pagsasalin ng mga token.
Ano ang nabubuo ng isang lexical analyzer?
Ang lexical analyzer (awtomatikong binuo ng isang tool tulad ng lex, o hand-crafted) ay nagbabasa sa isang stream ng mga character, tinutukoy ang mga lexeme sa stream, at ikinakategorya ang mga ito sa mga token. Ito ay tinatawag na tokenizing. Kung makakita ang lexer ng hindi wastong token, mag-uulat ito ng error.
Ano ang kailangan ng lexical Analyzer at syntax Analyzer sa magkaibang yugto?
Ang lexical analyzer ay isang pattern matcher. Kasama sa pagsusuri ng syntax ang pagbuo ng isang puno upang matukoy ang mga deformidad sa syntax ng programa. Ang hindi gaanong kumplikadong mga diskarte ay kadalasang ginagamit para sa leksikal na pagsusuri. Ang pagsusuri sa syntax ay nangangailangan ng mas kumplikadong diskarte.