Trying the scanner approach
This commit is contained in:
-151
@@ -1,151 +0,0 @@
|
|||||||
package toml
|
|
||||||
|
|
||||||
import "fmt"
|
|
||||||
|
|
||||||
type tokenKind int
|
|
||||||
|
|
||||||
const (
|
|
||||||
whitespace tokenKind = iota
|
|
||||||
arrayTableBegin
|
|
||||||
arrayTableEnd
|
|
||||||
standardTableBegin
|
|
||||||
standardTableEnd
|
|
||||||
inlineTableSeparator
|
|
||||||
inlineTableBegin
|
|
||||||
inlineTableEnd
|
|
||||||
arraySeparator
|
|
||||||
arrayBegin
|
|
||||||
arrayEnd
|
|
||||||
equal
|
|
||||||
boolean
|
|
||||||
dot
|
|
||||||
basicString
|
|
||||||
literalString
|
|
||||||
unquotedKey
|
|
||||||
comment
|
|
||||||
)
|
|
||||||
|
|
||||||
type token struct {
|
|
||||||
data []byte
|
|
||||||
kind tokenKind
|
|
||||||
}
|
|
||||||
|
|
||||||
type Document struct {
|
|
||||||
tokens []token
|
|
||||||
}
|
|
||||||
|
|
||||||
func (d *Document) appendToken(kind tokenKind, data []byte) {
|
|
||||||
d.tokens = append(d.tokens, token{data: data, kind: kind})
|
|
||||||
}
|
|
||||||
|
|
||||||
type docParser struct {
|
|
||||||
document Document
|
|
||||||
}
|
|
||||||
|
|
||||||
func (d *docParser) ArrayTableBegin() {
|
|
||||||
fmt.Println("ARRAY-TABLE[[")
|
|
||||||
d.document.appendToken(arrayTableBegin, nil)
|
|
||||||
}
|
|
||||||
|
|
||||||
func (d *docParser) ArrayTableEnd() {
|
|
||||||
fmt.Println("ARRAY-TABLE]]")
|
|
||||||
d.document.appendToken(arrayTableEnd, nil)
|
|
||||||
}
|
|
||||||
|
|
||||||
func (d *docParser) StandardTableBegin() {
|
|
||||||
fmt.Println("STD-TABLE[")
|
|
||||||
d.document.appendToken(standardTableBegin, nil)
|
|
||||||
}
|
|
||||||
|
|
||||||
func (d *docParser) StandardTableEnd() {
|
|
||||||
fmt.Println("STD-TABLE]")
|
|
||||||
d.document.appendToken(standardTableEnd, nil)
|
|
||||||
}
|
|
||||||
|
|
||||||
func (d *docParser) InlineTableSeparator() {
|
|
||||||
fmt.Println(", InlineTable SEPARATOR")
|
|
||||||
d.document.appendToken(inlineTableSeparator, nil)
|
|
||||||
}
|
|
||||||
|
|
||||||
func (d *docParser) InlineTableBegin() {
|
|
||||||
fmt.Println("{ InlineTable BEGIN")
|
|
||||||
d.document.appendToken(inlineTableBegin, nil)
|
|
||||||
}
|
|
||||||
|
|
||||||
func (d *docParser) InlineTableEnd() {
|
|
||||||
fmt.Println("} InlineTable END")
|
|
||||||
d.document.appendToken(inlineTableEnd, nil)
|
|
||||||
}
|
|
||||||
|
|
||||||
func (d *docParser) ArraySeparator() {
|
|
||||||
fmt.Println(", ARRAY SEPARATOR")
|
|
||||||
d.document.appendToken(arraySeparator, nil)
|
|
||||||
}
|
|
||||||
|
|
||||||
func (d *docParser) ArrayBegin() {
|
|
||||||
fmt.Println("[ ARRAY BEGIN")
|
|
||||||
d.document.appendToken(arrayBegin, nil)
|
|
||||||
}
|
|
||||||
|
|
||||||
func (d *docParser) ArrayEnd() {
|
|
||||||
fmt.Println("] ARRAY END")
|
|
||||||
d.document.appendToken(arrayEnd, nil)
|
|
||||||
}
|
|
||||||
|
|
||||||
func (d *docParser) Equal(b []byte) {
|
|
||||||
s := string(b)
|
|
||||||
fmt.Printf("EQUAL: '%s'\n", s)
|
|
||||||
d.document.appendToken(equal, b)
|
|
||||||
}
|
|
||||||
|
|
||||||
func (d *docParser) Boolean(b []byte) {
|
|
||||||
s := string(b)
|
|
||||||
fmt.Printf("Boolean: '%s'\n", s)
|
|
||||||
d.document.appendToken(boolean, b)
|
|
||||||
}
|
|
||||||
|
|
||||||
func (d *docParser) Dot(b []byte) {
|
|
||||||
s := string(b)
|
|
||||||
fmt.Printf("DOT: '%s'\n", s)
|
|
||||||
d.document.appendToken(dot, b)
|
|
||||||
}
|
|
||||||
|
|
||||||
func (d *docParser) BasicString(b []byte) {
|
|
||||||
s := string(b)
|
|
||||||
fmt.Printf("BasicString: '%s'\n", s)
|
|
||||||
d.document.appendToken(basicString, b)
|
|
||||||
}
|
|
||||||
|
|
||||||
func (d *docParser) LiteralString(b []byte) {
|
|
||||||
s := string(b)
|
|
||||||
fmt.Printf("LiteralString: '%s'\n", s)
|
|
||||||
d.document.appendToken(literalString, b)
|
|
||||||
}
|
|
||||||
|
|
||||||
func (d *docParser) UnquotedKey(b []byte) {
|
|
||||||
s := string(b)
|
|
||||||
fmt.Printf("UnquotedKey: '%s'\n", s)
|
|
||||||
d.document.appendToken(unquotedKey, b)
|
|
||||||
}
|
|
||||||
|
|
||||||
func (d *docParser) Comment(b []byte) {
|
|
||||||
s := string(b)
|
|
||||||
fmt.Printf("Comment: '%s'\n", s)
|
|
||||||
d.document.appendToken(comment, b)
|
|
||||||
}
|
|
||||||
|
|
||||||
func (d *docParser) Whitespace(b []byte) {
|
|
||||||
s := string(b)
|
|
||||||
fmt.Printf("Whitespace: '%s'\n", s)
|
|
||||||
d.document.appendToken(whitespace, b)
|
|
||||||
}
|
|
||||||
|
|
||||||
func Parse(b []byte) (Document, error) {
|
|
||||||
p := docParser{}
|
|
||||||
l := lexer{parser: &p, data: b}
|
|
||||||
err := l.run()
|
|
||||||
if err != nil {
|
|
||||||
return Document{}, err
|
|
||||||
}
|
|
||||||
return p.document, nil
|
|
||||||
}
|
|
||||||
-82
@@ -1,82 +0,0 @@
|
|||||||
package toml
|
|
||||||
|
|
||||||
type unmarshaler struct {
|
|
||||||
}
|
|
||||||
|
|
||||||
func (u unmarshaler) Whitespace(b []byte) {}
|
|
||||||
func (u unmarshaler) Comment(b []byte) {}
|
|
||||||
|
|
||||||
func (u unmarshaler) UnquotedKey(b []byte) {
|
|
||||||
panic("implement me")
|
|
||||||
}
|
|
||||||
|
|
||||||
func (u unmarshaler) LiteralString(b []byte) {
|
|
||||||
panic("implement me")
|
|
||||||
}
|
|
||||||
|
|
||||||
func (u unmarshaler) BasicString(b []byte) {
|
|
||||||
panic("implement me")
|
|
||||||
}
|
|
||||||
|
|
||||||
func (u unmarshaler) Dot(b []byte) {
|
|
||||||
panic("implement me")
|
|
||||||
}
|
|
||||||
|
|
||||||
func (u unmarshaler) Boolean(b []byte) {
|
|
||||||
panic("implement me")
|
|
||||||
}
|
|
||||||
|
|
||||||
func (u unmarshaler) Equal(b []byte) {
|
|
||||||
panic("implement me")
|
|
||||||
}
|
|
||||||
|
|
||||||
func (u unmarshaler) ArrayBegin() {
|
|
||||||
panic("implement me")
|
|
||||||
}
|
|
||||||
|
|
||||||
func (u unmarshaler) ArrayEnd() {
|
|
||||||
panic("implement me")
|
|
||||||
}
|
|
||||||
|
|
||||||
func (u unmarshaler) ArraySeparator() {
|
|
||||||
panic("implement me")
|
|
||||||
}
|
|
||||||
|
|
||||||
func (u unmarshaler) InlineTableBegin() {
|
|
||||||
panic("implement me")
|
|
||||||
}
|
|
||||||
|
|
||||||
func (u unmarshaler) InlineTableEnd() {
|
|
||||||
panic("implement me")
|
|
||||||
}
|
|
||||||
|
|
||||||
func (u unmarshaler) InlineTableSeparator() {
|
|
||||||
panic("implement me")
|
|
||||||
}
|
|
||||||
|
|
||||||
func (u unmarshaler) StandardTableBegin() {
|
|
||||||
panic("implement me")
|
|
||||||
}
|
|
||||||
|
|
||||||
func (u unmarshaler) StandardTableEnd() {
|
|
||||||
panic("implement me")
|
|
||||||
}
|
|
||||||
|
|
||||||
func (u unmarshaler) ArrayTableBegin() {
|
|
||||||
panic("implement me")
|
|
||||||
}
|
|
||||||
|
|
||||||
func (u unmarshaler) ArrayTableEnd() {
|
|
||||||
panic("implement me")
|
|
||||||
}
|
|
||||||
|
|
||||||
func Unmarshal(data []byte, v interface{}) error {
|
|
||||||
p := unmarshaler{}
|
|
||||||
l := lexer{parser: &p, data: data}
|
|
||||||
return l.run()
|
|
||||||
}
|
|
||||||
|
|
||||||
func Marshal(v interface{}) ([]byte, error) {
|
|
||||||
// TODO
|
|
||||||
return nil, nil
|
|
||||||
}
|
|
||||||
@@ -1 +0,0 @@
|
|||||||
package toml_test
|
|
||||||
@@ -1,12 +1,11 @@
|
|||||||
github.com/davecgh/go-spew v1.1.0 h1:ZDRjVQ15GmhC3fiQ8ni8+OwkZQO4DARzQgrnXU1Liz8=
|
github.com/davecgh/go-spew v1.1.0 h1:ZDRjVQ15GmhC3fiQ8ni8+OwkZQO4DARzQgrnXU1Liz8=
|
||||||
github.com/davecgh/go-spew v1.1.0/go.mod h1:J7Y8YcW2NihsgmVo/mv3lAwl/skON4iLHjSsI+c5H38=
|
github.com/davecgh/go-spew v1.1.0/go.mod h1:J7Y8YcW2NihsgmVo/mv3lAwl/skON4iLHjSsI+c5H38=
|
||||||
github.com/davecgh/go-spew v1.1.1 h1:vj9j/u1bqnvCEfJOwUhtlOARqs3+rkHYY13jYWTU97c=
|
|
||||||
github.com/davecgh/go-spew v1.1.1/go.mod h1:J7Y8YcW2NihsgmVo/mv3lAwl/skON4iLHjSsI+c5H38=
|
|
||||||
github.com/pmezard/go-difflib v1.0.0 h1:4DBwDE0NGyQoBHbLQYPwSUPoCMWR5BEzIk/f1lZbAQM=
|
github.com/pmezard/go-difflib v1.0.0 h1:4DBwDE0NGyQoBHbLQYPwSUPoCMWR5BEzIk/f1lZbAQM=
|
||||||
github.com/pmezard/go-difflib v1.0.0/go.mod h1:iKH77koFhYxTK1pcRnkKkqfTogsbg7gZNVY4sRDYZ/4=
|
github.com/pmezard/go-difflib v1.0.0/go.mod h1:iKH77koFhYxTK1pcRnkKkqfTogsbg7gZNVY4sRDYZ/4=
|
||||||
github.com/stretchr/objx v0.1.0/go.mod h1:HFkY916IF+rwdDfMAkV7OtwuqBVzrE8GR6GFx+wExME=
|
github.com/stretchr/objx v0.1.0/go.mod h1:HFkY916IF+rwdDfMAkV7OtwuqBVzrE8GR6GFx+wExME=
|
||||||
github.com/stretchr/testify v1.7.0 h1:nwc3DEeHmmLAfoZucVR881uASk0Mfjw8xYJ99tb5CcY=
|
github.com/stretchr/testify v1.7.0 h1:nwc3DEeHmmLAfoZucVR881uASk0Mfjw8xYJ99tb5CcY=
|
||||||
github.com/stretchr/testify v1.7.0/go.mod h1:6Fq8oRcR53rry900zMqJjRRixrwX3KX962/h/Wwjteg=
|
github.com/stretchr/testify v1.7.0/go.mod h1:6Fq8oRcR53rry900zMqJjRRixrwX3KX962/h/Wwjteg=
|
||||||
|
gopkg.in/check.v1 v0.0.0-20161208181325-20d25e280405 h1:yhCVgyC4o1eVCa2tZl7eS0r+SDo693bJlVdllGtEeKM=
|
||||||
gopkg.in/check.v1 v0.0.0-20161208181325-20d25e280405/go.mod h1:Co6ibVJAznAaIkqp8huTwlJQCZ016jof/cbN4VW5Yz0=
|
gopkg.in/check.v1 v0.0.0-20161208181325-20d25e280405/go.mod h1:Co6ibVJAznAaIkqp8huTwlJQCZ016jof/cbN4VW5Yz0=
|
||||||
gopkg.in/yaml.v3 v3.0.0-20200313102051-9f266ea9e77c h1:dUUwHk2QECo/6vqA44rthZ8ie2QXMNeKRTHCNY2nXvo=
|
gopkg.in/yaml.v3 v3.0.0-20200313102051-9f266ea9e77c h1:dUUwHk2QECo/6vqA44rthZ8ie2QXMNeKRTHCNY2nXvo=
|
||||||
gopkg.in/yaml.v3 v3.0.0-20200313102051-9f266ea9e77c/go.mod h1:K4uyk7z7BCEPqu6E+C64Yfv1cQ7kz7rIZviUmN+EgEM=
|
gopkg.in/yaml.v3 v3.0.0-20200313102051-9f266ea9e77c/go.mod h1:K4uyk7z7BCEPqu6E+C64Yfv1cQ7kz7rIZviUmN+EgEM=
|
||||||
|
|||||||
@@ -1,22 +0,0 @@
|
|||||||
package toml
|
|
||||||
|
|
||||||
type parser interface {
|
|
||||||
Whitespace(b []byte)
|
|
||||||
Comment(b []byte)
|
|
||||||
UnquotedKey(b []byte)
|
|
||||||
LiteralString(b []byte)
|
|
||||||
BasicString(b []byte)
|
|
||||||
Dot(b []byte)
|
|
||||||
Boolean(b []byte)
|
|
||||||
Equal(b []byte)
|
|
||||||
ArrayBegin()
|
|
||||||
ArrayEnd()
|
|
||||||
ArraySeparator()
|
|
||||||
InlineTableBegin()
|
|
||||||
InlineTableEnd()
|
|
||||||
InlineTableSeparator()
|
|
||||||
StandardTableBegin()
|
|
||||||
StandardTableEnd()
|
|
||||||
ArrayTableBegin()
|
|
||||||
ArrayTableEnd()
|
|
||||||
}
|
|
||||||
+236
@@ -0,0 +1,236 @@
|
|||||||
|
package toml
|
||||||
|
|
||||||
|
import "fmt"
|
||||||
|
|
||||||
|
func scanFollows(pattern []byte) func(b []byte) bool {
|
||||||
|
return func(b []byte) bool {
|
||||||
|
if len(b) < len(pattern) {
|
||||||
|
return false
|
||||||
|
}
|
||||||
|
for i, c := range pattern {
|
||||||
|
if b[i] != c {
|
||||||
|
return false
|
||||||
|
}
|
||||||
|
}
|
||||||
|
return true
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
var scanFollowsMultilineBasicStringDelimiter = scanFollows([]byte{'"', '"', '"'})
|
||||||
|
var scanFollowsMultilineLiteralStringDelimiter = scanFollows([]byte{'\'', '\'', '\''})
|
||||||
|
var scanFollowsTrue = scanFollows([]byte{'t', 'r', 'u', 'e'})
|
||||||
|
var scanFollowsFalse = scanFollows([]byte{'f', 'a', 'l', 's', 'e'})
|
||||||
|
var scanFollowsArrayTableBegin = scanFollows([]byte{arrayOrTableBegin, arrayOrTableBegin})
|
||||||
|
var scanFollowsArrayTableEnd = scanFollows([]byte{arrayOrTableEnd, arrayOrTableEnd})
|
||||||
|
|
||||||
|
const (
|
||||||
|
dot = '.'
|
||||||
|
equal = '='
|
||||||
|
comma = ','
|
||||||
|
inlineTableBegin = '{'
|
||||||
|
inlineTableEnd = '}'
|
||||||
|
comment = '#'
|
||||||
|
arrayOrTableBegin = '['
|
||||||
|
arrayOrTableEnd = ']'
|
||||||
|
)
|
||||||
|
|
||||||
|
// scan returns a []byte containing the next lexical token, bytes left, and an error.
|
||||||
|
//
|
||||||
|
// eof is signaled by an empty token and nil error.
|
||||||
|
func scan(b []byte) ([]byte, []byte, error) {
|
||||||
|
if len(b) == 0 {
|
||||||
|
return b, b, nil
|
||||||
|
}
|
||||||
|
|
||||||
|
switch b[0] {
|
||||||
|
case dot, equal, inlineTableBegin, inlineTableEnd, comma:
|
||||||
|
return b[:1], b[1:], nil
|
||||||
|
case '"':
|
||||||
|
if scanFollowsMultilineBasicStringDelimiter(b) {
|
||||||
|
return scanMultilineBasicString(b)
|
||||||
|
}
|
||||||
|
return scanBasicString(b)
|
||||||
|
case '\'':
|
||||||
|
if scanFollowsMultilineLiteralStringDelimiter(b) {
|
||||||
|
return scanMultilineLiteralString(b)
|
||||||
|
}
|
||||||
|
return scanLiteralString(b)
|
||||||
|
case comment:
|
||||||
|
return scanComment(b)
|
||||||
|
case ' ', '\t':
|
||||||
|
return scanWhitespace(b)
|
||||||
|
case '\r':
|
||||||
|
return scanWindowsNewline(b)
|
||||||
|
case '\n':
|
||||||
|
return b[:1], b[1:], nil
|
||||||
|
case 't':
|
||||||
|
if scanFollowsTrue(b) {
|
||||||
|
return b[:4], b[4:], nil
|
||||||
|
}
|
||||||
|
case 'f':
|
||||||
|
if scanFollowsFalse(b) {
|
||||||
|
return b[:5], b[5:], nil
|
||||||
|
}
|
||||||
|
case arrayOrTableBegin:
|
||||||
|
if scanFollowsArrayTableBegin(b) {
|
||||||
|
return b[:2], b[2:], nil
|
||||||
|
}
|
||||||
|
return b[:1], b[1:], nil
|
||||||
|
case arrayOrTableEnd:
|
||||||
|
if scanFollowsArrayTableEnd(b) {
|
||||||
|
return b[:2], b[2:], nil
|
||||||
|
}
|
||||||
|
return b[:1], b[1:], nil
|
||||||
|
}
|
||||||
|
|
||||||
|
if isUnquotedKeyChar(b[0]) {
|
||||||
|
return scanUnquotedKey(b)
|
||||||
|
}
|
||||||
|
|
||||||
|
// TODO: numbers, date-time
|
||||||
|
panic("unhandled scan")
|
||||||
|
}
|
||||||
|
|
||||||
|
func scanUnquotedKey(b []byte) ([]byte, []byte, error) {
|
||||||
|
//unquoted-key = 1*( ALPHA / DIGIT / %x2D / %x5F ) ; A-Z / a-z / 0-9 / - / _
|
||||||
|
for i := 1; i < len(b); i++ {
|
||||||
|
if !isUnquotedKeyChar(b[i]) {
|
||||||
|
return b[:i], b[i:], nil
|
||||||
|
}
|
||||||
|
}
|
||||||
|
return b, nil, nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func isUnquotedKeyChar(r byte) bool {
|
||||||
|
return (r >= 'A' && r <= 'Z') || (r >= 'a' && r <= 'z') || (r >= '0' && r <= '9') || r == '-' || r == '_'
|
||||||
|
}
|
||||||
|
|
||||||
|
func scanLiteralString(b []byte) ([]byte, []byte, error) {
|
||||||
|
//literal-string = apostrophe *literal-char apostrophe
|
||||||
|
//apostrophe = %x27 ; ' apostrophe
|
||||||
|
//literal-char = %x09 / %x20-26 / %x28-7E / non-ascii
|
||||||
|
for i := 1; i < len(b); i++ {
|
||||||
|
switch b[i] {
|
||||||
|
case '\'':
|
||||||
|
return b[:i+1], b[i+1:], nil
|
||||||
|
case '\n':
|
||||||
|
return nil, nil, fmt.Errorf("literal strings cannot have new lines")
|
||||||
|
}
|
||||||
|
}
|
||||||
|
return nil, nil, fmt.Errorf("unterminated literal string")
|
||||||
|
}
|
||||||
|
|
||||||
|
func scanMultilineLiteralString(b []byte) ([]byte, []byte, error) {
|
||||||
|
//ml-literal-string = ml-literal-string-delim [ newline ] ml-literal-body
|
||||||
|
//ml-literal-string-delim
|
||||||
|
//ml-literal-string-delim = 3apostrophe
|
||||||
|
//ml-literal-body = *mll-content *( mll-quotes 1*mll-content ) [ mll-quotes ]
|
||||||
|
//
|
||||||
|
//mll-content = mll-char / newline
|
||||||
|
//mll-char = %x09 / %x20-26 / %x28-7E / non-ascii
|
||||||
|
//mll-quotes = 1*2apostrophe
|
||||||
|
for i := 3; i < len(b); i++ {
|
||||||
|
switch b[i] {
|
||||||
|
case '\'':
|
||||||
|
if scanFollowsMultilineLiteralStringDelimiter(b[i:]) {
|
||||||
|
return b[:i+3], b[:i+3], nil
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
return nil, nil, fmt.Errorf(`multiline literal string not terminated by '''`)
|
||||||
|
}
|
||||||
|
|
||||||
|
func scanWindowsNewline(b []byte) ([]byte, []byte, error) {
|
||||||
|
if len(b) < 2 {
|
||||||
|
return nil, nil, fmt.Errorf(`windows new line missing \n`)
|
||||||
|
}
|
||||||
|
if b[1] != '\n' {
|
||||||
|
return nil, nil, fmt.Errorf(`windows new line should be \r\n`)
|
||||||
|
}
|
||||||
|
return b[:2], b[2:], nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func scanWhitespace(b []byte) ([]byte, []byte, error) {
|
||||||
|
for i := 1; i < len(b); i++ {
|
||||||
|
switch b[i] {
|
||||||
|
case ' ', '\t':
|
||||||
|
continue
|
||||||
|
default:
|
||||||
|
return b[:i], b[i:], nil
|
||||||
|
}
|
||||||
|
}
|
||||||
|
return b, nil, nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func scanComment(b []byte) ([]byte, []byte, error) {
|
||||||
|
//;; Comment
|
||||||
|
//
|
||||||
|
//comment-start-symbol = %x23 ; #
|
||||||
|
//non-ascii = %x80-D7FF / %xE000-10FFFF
|
||||||
|
//non-eol = %x09 / %x20-7F / non-ascii
|
||||||
|
//
|
||||||
|
//comment = comment-start-symbol *non-eol
|
||||||
|
|
||||||
|
for i := 1; i < len(b); i++ {
|
||||||
|
switch b[i] {
|
||||||
|
case '\n':
|
||||||
|
return b[:i+1], b[i+1:], nil
|
||||||
|
}
|
||||||
|
}
|
||||||
|
return b, nil, nil
|
||||||
|
}
|
||||||
|
|
||||||
|
// TODO perform validation on the string?
|
||||||
|
func scanBasicString(b []byte) ([]byte, []byte, error) {
|
||||||
|
//basic-string = quotation-mark *basic-char quotation-mark
|
||||||
|
//quotation-mark = %x22 ; "
|
||||||
|
//basic-char = basic-unescaped / escaped
|
||||||
|
//basic-unescaped = wschar / %x21 / %x23-5B / %x5D-7E / non-ascii
|
||||||
|
//escaped = escape escape-seq-char
|
||||||
|
for i := 1; i < len(b); i++ {
|
||||||
|
switch b[i] {
|
||||||
|
case '"':
|
||||||
|
return b[:i+1], b[i+1:], nil
|
||||||
|
case '\n':
|
||||||
|
return nil, nil, fmt.Errorf("basic strings cannot have new lines")
|
||||||
|
case '\\':
|
||||||
|
if len(b) < i+2 {
|
||||||
|
return nil, nil, fmt.Errorf("need a character after \\")
|
||||||
|
}
|
||||||
|
i++ // skip the next character
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
return nil, nil, fmt.Errorf(`basic string not terminated by "`)
|
||||||
|
}
|
||||||
|
|
||||||
|
// TODO perform validation on the string?
|
||||||
|
func scanMultilineBasicString(b []byte) ([]byte, []byte, error) {
|
||||||
|
//ml-basic-string = ml-basic-string-delim [ newline ] ml-basic-body
|
||||||
|
//ml-basic-string-delim
|
||||||
|
//ml-basic-string-delim = 3quotation-mark
|
||||||
|
//ml-basic-body = *mlb-content *( mlb-quotes 1*mlb-content ) [ mlb-quotes ]
|
||||||
|
//
|
||||||
|
//mlb-content = mlb-char / newline / mlb-escaped-nl
|
||||||
|
//mlb-char = mlb-unescaped / escaped
|
||||||
|
//mlb-quotes = 1*2quotation-mark
|
||||||
|
//mlb-unescaped = wschar / %x21 / %x23-5B / %x5D-7E / non-ascii
|
||||||
|
//mlb-escaped-nl = escape ws newline *( wschar / newline )
|
||||||
|
|
||||||
|
for i := 3; i < len(b); i++ {
|
||||||
|
switch b[i] {
|
||||||
|
case '"':
|
||||||
|
if scanFollowsMultilineBasicStringDelimiter(b[i:]) {
|
||||||
|
return b[:i+3], b[:i+3], nil
|
||||||
|
}
|
||||||
|
case '\\':
|
||||||
|
if len(b) < i+2 {
|
||||||
|
return nil, nil, fmt.Errorf("need a character after \\")
|
||||||
|
}
|
||||||
|
i++ // skip the next character
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
return nil, nil, fmt.Errorf(`multiline basic string not terminated by """`)
|
||||||
|
}
|
||||||
@@ -1,850 +1 @@
|
|||||||
package toml
|
package toml
|
||||||
|
|
||||||
import (
|
|
||||||
"fmt"
|
|
||||||
"unicode/utf8"
|
|
||||||
)
|
|
||||||
|
|
||||||
type position struct {
|
|
||||||
line int
|
|
||||||
column int
|
|
||||||
}
|
|
||||||
|
|
||||||
// eof is a rune value indicating end-of-file.
|
|
||||||
const eof = -1
|
|
||||||
|
|
||||||
type lookahead struct {
|
|
||||||
r rune
|
|
||||||
size int
|
|
||||||
}
|
|
||||||
|
|
||||||
func (l lookahead) empty() bool {
|
|
||||||
return l.r == 0
|
|
||||||
}
|
|
||||||
|
|
||||||
type lexer struct {
|
|
||||||
parser parser
|
|
||||||
|
|
||||||
data []byte
|
|
||||||
start int
|
|
||||||
end int
|
|
||||||
|
|
||||||
lookahead lookahead
|
|
||||||
}
|
|
||||||
|
|
||||||
func (l *lexer) at(i int) rune {
|
|
||||||
if l.end+i >= len(l.data) {
|
|
||||||
return eof
|
|
||||||
}
|
|
||||||
return rune(l.data[l.end+i])
|
|
||||||
}
|
|
||||||
|
|
||||||
func (l *lexer) follows(s string) bool {
|
|
||||||
for i := 0; i < len(s); i++ {
|
|
||||||
if rune(s[i]) != l.at(i) {
|
|
||||||
return false
|
|
||||||
}
|
|
||||||
}
|
|
||||||
return true
|
|
||||||
}
|
|
||||||
|
|
||||||
func (l *lexer) peek() rune {
|
|
||||||
return l.at(0)
|
|
||||||
}
|
|
||||||
|
|
||||||
func (l *lexer) next() rune {
|
|
||||||
x := l.peek()
|
|
||||||
if x != eof {
|
|
||||||
l.end++
|
|
||||||
}
|
|
||||||
return x
|
|
||||||
}
|
|
||||||
|
|
||||||
func (l *lexer) expect(expected rune) error {
|
|
||||||
r := l.next()
|
|
||||||
if r != expected {
|
|
||||||
return &UnexpectedCharacter{
|
|
||||||
r: r,
|
|
||||||
expected: expected,
|
|
||||||
}
|
|
||||||
}
|
|
||||||
return nil
|
|
||||||
}
|
|
||||||
|
|
||||||
func (l *lexer) peekRune() rune {
|
|
||||||
if l.lookahead.empty() {
|
|
||||||
l.lookahead.r, l.lookahead.size = utf8.DecodeRune(l.data[l.end:])
|
|
||||||
if l.lookahead.r == utf8.RuneError && l.lookahead.size == 0 {
|
|
||||||
l.lookahead.r = eof
|
|
||||||
}
|
|
||||||
}
|
|
||||||
return l.lookahead.r
|
|
||||||
}
|
|
||||||
|
|
||||||
func (l *lexer) nextRune() rune {
|
|
||||||
r := l.peekRune()
|
|
||||||
if r != eof {
|
|
||||||
l.end += l.lookahead.size
|
|
||||||
l.lookahead.r = 0
|
|
||||||
l.lookahead.size = 0
|
|
||||||
}
|
|
||||||
return r
|
|
||||||
}
|
|
||||||
|
|
||||||
func (l *lexer) ignore() {
|
|
||||||
if l.empty() {
|
|
||||||
panic("cannot ignore empty token")
|
|
||||||
}
|
|
||||||
l.start = l.end
|
|
||||||
}
|
|
||||||
|
|
||||||
func (l *lexer) accept() []byte {
|
|
||||||
if l.empty() {
|
|
||||||
panic("cannot accept empty token")
|
|
||||||
}
|
|
||||||
x := l.data[l.start:l.end]
|
|
||||||
l.start = l.end
|
|
||||||
return x
|
|
||||||
}
|
|
||||||
|
|
||||||
func (l *lexer) expectRune(expected rune) error {
|
|
||||||
r := l.nextRune()
|
|
||||||
if r != expected {
|
|
||||||
return &UnexpectedCharacter{
|
|
||||||
r: r,
|
|
||||||
expected: expected,
|
|
||||||
}
|
|
||||||
}
|
|
||||||
return nil
|
|
||||||
}
|
|
||||||
|
|
||||||
func (l *lexer) empty() bool {
|
|
||||||
return l.start == l.end
|
|
||||||
}
|
|
||||||
|
|
||||||
type InvalidCharacter struct {
|
|
||||||
r rune
|
|
||||||
}
|
|
||||||
|
|
||||||
func (e *InvalidCharacter) Error() string {
|
|
||||||
return fmt.Sprintf("unexpected character '%#U'", e.r)
|
|
||||||
}
|
|
||||||
|
|
||||||
type UnexpectedCharacter struct {
|
|
||||||
r rune
|
|
||||||
expected rune
|
|
||||||
}
|
|
||||||
|
|
||||||
func (e *UnexpectedCharacter) Error() string {
|
|
||||||
return fmt.Sprintf("expected character '%#U' but got '%#U'", e.expected, e.r)
|
|
||||||
}
|
|
||||||
|
|
||||||
func (l *lexer) run() error {
|
|
||||||
for {
|
|
||||||
err := l.lexExpression()
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
|
|
||||||
// new lines between expressions
|
|
||||||
r := l.next()
|
|
||||||
switch r {
|
|
||||||
case eof:
|
|
||||||
return nil
|
|
||||||
case '\n':
|
|
||||||
l.ignore()
|
|
||||||
continue
|
|
||||||
case '\r':
|
|
||||||
r = l.next()
|
|
||||||
if r == '\n' {
|
|
||||||
l.ignore()
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
}
|
|
||||||
return &InvalidCharacter{r: r}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
func (l *lexer) lexRequiredNewline() error {
|
|
||||||
r := l.next()
|
|
||||||
switch r {
|
|
||||||
case '\n':
|
|
||||||
l.ignore()
|
|
||||||
return nil
|
|
||||||
case '\r':
|
|
||||||
r = l.next()
|
|
||||||
if r == '\n' {
|
|
||||||
l.ignore()
|
|
||||||
return nil
|
|
||||||
}
|
|
||||||
}
|
|
||||||
return &InvalidCharacter{r: r}
|
|
||||||
}
|
|
||||||
|
|
||||||
func (l *lexer) lexExpression() error {
|
|
||||||
//expression = ws [ comment ]
|
|
||||||
//expression =/ ws keyval ws [ comment ]
|
|
||||||
//expression =/ ws table ws [ comment ]
|
|
||||||
|
|
||||||
err := l.lexWhitespace()
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
|
|
||||||
r := l.peek()
|
|
||||||
|
|
||||||
// Line with just whitespace and a comment. We can exit early.
|
|
||||||
if r == '#' {
|
|
||||||
return l.lexComment()
|
|
||||||
}
|
|
||||||
|
|
||||||
// or line with something?
|
|
||||||
if r == '[' {
|
|
||||||
// parse table. could be either a standard table or an array table
|
|
||||||
err := l.lexTable()
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
} else if isUnquotedKeyRune(r) || r == '\'' || r == '"' {
|
|
||||||
err := l.lexKeyval()
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
// parse trailing whitespace and comment
|
|
||||||
|
|
||||||
err = l.lexWhitespace()
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
|
|
||||||
r = l.peek()
|
|
||||||
if r == '#' {
|
|
||||||
return l.lexComment()
|
|
||||||
}
|
|
||||||
|
|
||||||
return nil
|
|
||||||
}
|
|
||||||
|
|
||||||
func (l *lexer) lexKeyval() error {
|
|
||||||
// key keyval-sep val
|
|
||||||
//keyval-sep = ws %x3D ws ; =
|
|
||||||
|
|
||||||
err := l.lexKey()
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
|
|
||||||
err = l.lexWhitespace()
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
|
|
||||||
err = l.expect('=')
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
l.parser.Equal(l.accept())
|
|
||||||
|
|
||||||
err = l.lexWhitespace()
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
|
|
||||||
return l.lexVal()
|
|
||||||
}
|
|
||||||
|
|
||||||
func (l *lexer) lexVal() error {
|
|
||||||
//val = string / boolean / array / inline-table / date-time / float / integer
|
|
||||||
// string = ml-basic-string / basic-string / ml-literal-string / literal-string
|
|
||||||
|
|
||||||
r := l.peek()
|
|
||||||
|
|
||||||
switch r {
|
|
||||||
case 't', 'f':
|
|
||||||
return l.lexBool()
|
|
||||||
case '\'', '"':
|
|
||||||
return l.lexString()
|
|
||||||
case '[':
|
|
||||||
return l.lexArray()
|
|
||||||
case '{':
|
|
||||||
return l.lexInlineTable()
|
|
||||||
// TODO
|
|
||||||
default:
|
|
||||||
return &InvalidCharacter{r: r}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
func (l *lexer) lexInlineTable() error {
|
|
||||||
//inline-table = inline-table-open [ inline-table-keyvals ] inline-table-close
|
|
||||||
//
|
|
||||||
//inline-table-open = %x7B ws ; {
|
|
||||||
// inline-table-close = ws %x7D ; }
|
|
||||||
//inline-table-sep = ws %x2C ws ; , Comma
|
|
||||||
//
|
|
||||||
//inline-table-keyvals = keyval [ inline-table-sep inline-table-keyvals ]
|
|
||||||
|
|
||||||
err := l.expect('{')
|
|
||||||
if err != nil {
|
|
||||||
panic("inline tables should start with {")
|
|
||||||
}
|
|
||||||
l.ignore()
|
|
||||||
l.parser.InlineTableBegin()
|
|
||||||
|
|
||||||
err = l.lexWhitespace()
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
|
|
||||||
r := l.peek()
|
|
||||||
if r == '}' {
|
|
||||||
l.next()
|
|
||||||
l.ignore()
|
|
||||||
l.parser.InlineTableEnd()
|
|
||||||
return nil
|
|
||||||
}
|
|
||||||
|
|
||||||
err = l.lexKeyval()
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
|
|
||||||
for {
|
|
||||||
err = l.lexWhitespace()
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
|
|
||||||
r := l.peek()
|
|
||||||
if r == '}' {
|
|
||||||
l.next()
|
|
||||||
l.ignore()
|
|
||||||
l.parser.InlineTableEnd()
|
|
||||||
return nil
|
|
||||||
}
|
|
||||||
|
|
||||||
err := l.expect(',')
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
l.parser.InlineTableSeparator()
|
|
||||||
l.ignore()
|
|
||||||
|
|
||||||
err = l.lexWhitespace()
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
|
|
||||||
err = l.lexKeyval()
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
func (l *lexer) lexArray() error {
|
|
||||||
//array = array-open [ array-values ] ws-comment-newline array-close
|
|
||||||
|
|
||||||
err := l.expect('[')
|
|
||||||
if err != nil {
|
|
||||||
panic("arrays should start with [")
|
|
||||||
}
|
|
||||||
l.ignore()
|
|
||||||
|
|
||||||
l.parser.ArrayBegin()
|
|
||||||
|
|
||||||
err = l.lexWhitespaceCommentNewline()
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
|
|
||||||
r := l.peek()
|
|
||||||
|
|
||||||
if r == ']' {
|
|
||||||
l.next()
|
|
||||||
l.ignore()
|
|
||||||
l.parser.ArrayEnd()
|
|
||||||
return nil
|
|
||||||
}
|
|
||||||
|
|
||||||
err = l.lexVal()
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
|
|
||||||
for {
|
|
||||||
err = l.lexWhitespaceCommentNewline()
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
|
|
||||||
r := l.peek()
|
|
||||||
|
|
||||||
if r == ']' {
|
|
||||||
l.next()
|
|
||||||
l.ignore()
|
|
||||||
l.parser.ArrayEnd()
|
|
||||||
return nil
|
|
||||||
}
|
|
||||||
|
|
||||||
err := l.expect(',')
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
l.parser.ArraySeparator()
|
|
||||||
l.ignore()
|
|
||||||
|
|
||||||
err = l.lexWhitespaceCommentNewline()
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
|
|
||||||
err = l.lexVal()
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
func (l *lexer) lexWhitespaceCommentNewline() error {
|
|
||||||
// ws-comment-newline = *( wschar / ([ comment ] newline) )
|
|
||||||
|
|
||||||
for {
|
|
||||||
if isWhitespace(l.peek()) {
|
|
||||||
err := l.lexWhitespace()
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
}
|
|
||||||
if l.peek() == '#' {
|
|
||||||
err := l.lexComment()
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
}
|
|
||||||
r := l.peek()
|
|
||||||
if r != '\n' && r != '\r' {
|
|
||||||
return nil
|
|
||||||
}
|
|
||||||
err := l.lexRequiredNewline()
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
func (l *lexer) lexString() error {
|
|
||||||
r := l.peek()
|
|
||||||
|
|
||||||
if r == '\'' {
|
|
||||||
if l.follows("'''") {
|
|
||||||
// TODO ml-literal-string
|
|
||||||
panic("TODO")
|
|
||||||
} else {
|
|
||||||
return l.lexLiteralString()
|
|
||||||
}
|
|
||||||
} else if r == '"' {
|
|
||||||
if l.follows("\"\"\"") {
|
|
||||||
// TODO ml-basic-string
|
|
||||||
panic("TODO")
|
|
||||||
} else {
|
|
||||||
return l.lexBasicString()
|
|
||||||
}
|
|
||||||
} else {
|
|
||||||
panic("string should start with ' or \"")
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
func (l *lexer) lexBool() error {
|
|
||||||
r := l.peek()
|
|
||||||
|
|
||||||
if r == 't' {
|
|
||||||
l.next()
|
|
||||||
err := l.expect('r')
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
err = l.expect('u')
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
err = l.expect('e')
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
} else if r == 'f' {
|
|
||||||
l.next()
|
|
||||||
err := l.expect('a')
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
err = l.expect('l')
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
err = l.expect('s')
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
err = l.expect('e')
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
} else {
|
|
||||||
return &InvalidCharacter{r: r}
|
|
||||||
}
|
|
||||||
|
|
||||||
l.parser.Boolean(l.accept())
|
|
||||||
return nil
|
|
||||||
}
|
|
||||||
|
|
||||||
func (l *lexer) lexKey() error {
|
|
||||||
// simple-key / dotted-key
|
|
||||||
// dotted-key = simple-key 1*( dot-sep simple-key )
|
|
||||||
// dot-sep = ws %x2E ws
|
|
||||||
|
|
||||||
for {
|
|
||||||
err := l.lexSimpleKey()
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
|
|
||||||
err = l.lexWhitespace()
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
|
|
||||||
r := l.peek()
|
|
||||||
if r != '.' {
|
|
||||||
break
|
|
||||||
}
|
|
||||||
|
|
||||||
l.next()
|
|
||||||
l.parser.Dot(l.accept())
|
|
||||||
|
|
||||||
err = l.lexWhitespace()
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
err := l.lexWhitespace()
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
|
|
||||||
return nil
|
|
||||||
}
|
|
||||||
|
|
||||||
func isUnquotedKeyRune(r rune) bool {
|
|
||||||
return (r >= 'A' && r <= 'Z') || (r >= 'a' && r <= 'z') || (r >= '0' && r <= '9') || r == '-' || r == '_'
|
|
||||||
}
|
|
||||||
|
|
||||||
func (l *lexer) lexSimpleKey() error {
|
|
||||||
// simple-key = quoted-key / unquoted-key
|
|
||||||
// quoted-key = basic-string / literal-string
|
|
||||||
// unquoted-key = 1*( ALPHA / DIGIT / %x2D / %x5F ) ; A-Z / a-z / 0-9 / - / _
|
|
||||||
// basic-string = quotation-mark *basic-char quotation-mark
|
|
||||||
// literal-string = apostrophe *literal-char apostrophe
|
|
||||||
|
|
||||||
r := l.peek()
|
|
||||||
|
|
||||||
switch r {
|
|
||||||
case '\'':
|
|
||||||
return l.lexLiteralString()
|
|
||||||
case '"':
|
|
||||||
return l.lexBasicString()
|
|
||||||
default:
|
|
||||||
return l.lexUnquotedKey()
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
func (l *lexer) lexUnquotedKey() error {
|
|
||||||
// unquoted-key = 1*( ALPHA / DIGIT / %x2D / %x5F ) ; A-Z / a-z / 0-9 / - / _
|
|
||||||
|
|
||||||
r := l.next()
|
|
||||||
|
|
||||||
if !isUnquotedKeyRune(r) {
|
|
||||||
return &InvalidCharacter{r: r}
|
|
||||||
}
|
|
||||||
|
|
||||||
for {
|
|
||||||
r := l.peek()
|
|
||||||
if !isUnquotedKeyRune(r) {
|
|
||||||
break
|
|
||||||
}
|
|
||||||
l.next()
|
|
||||||
}
|
|
||||||
l.parser.UnquotedKey(l.accept())
|
|
||||||
return nil
|
|
||||||
}
|
|
||||||
|
|
||||||
func (l *lexer) lexComment() error {
|
|
||||||
if err := l.expect('#'); err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
|
|
||||||
for {
|
|
||||||
r := l.peek()
|
|
||||||
if r == eof || r == '\n' {
|
|
||||||
l.parser.Comment(l.accept())
|
|
||||||
return nil
|
|
||||||
}
|
|
||||||
l.next()
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
func isWhitespace(r rune) bool {
|
|
||||||
return r == 0x20 || r == 0x09
|
|
||||||
}
|
|
||||||
|
|
||||||
type InvalidUnicodeError struct {
|
|
||||||
r rune
|
|
||||||
}
|
|
||||||
|
|
||||||
func (e *InvalidUnicodeError) Error() string {
|
|
||||||
return fmt.Sprintf("invalid unicode: %#U", e.r)
|
|
||||||
}
|
|
||||||
|
|
||||||
func (l *lexer) lexWhitespace() error {
|
|
||||||
for {
|
|
||||||
r := l.peek()
|
|
||||||
if isWhitespace(r) {
|
|
||||||
l.next()
|
|
||||||
} else {
|
|
||||||
if !l.empty() {
|
|
||||||
l.parser.Whitespace(l.accept())
|
|
||||||
}
|
|
||||||
return nil
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
func isNonAsciiChar(r rune) bool {
|
|
||||||
return (r >= 0x80 && r <= 0xD7FF) || (r >= 0xE000 && r <= 0x10FFFF)
|
|
||||||
}
|
|
||||||
|
|
||||||
func isLiteralChar(r rune) bool {
|
|
||||||
return r == 0x09 || (r >= 0x20 && r <= 0x26) || (r >= 0x28 && r <= 0x7E) || isNonAsciiChar(r)
|
|
||||||
}
|
|
||||||
|
|
||||||
func (l *lexer) lexLiteralString() error {
|
|
||||||
// literal-string = apostrophe *literal-char apostrophe
|
|
||||||
// literal-char = %x09 / %x20-26 / %x28-7E / non-ascii
|
|
||||||
// non-ascii = %x80-D7FF / %xE000-10FFFF
|
|
||||||
|
|
||||||
err := l.expect('\'')
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
l.ignore()
|
|
||||||
|
|
||||||
for {
|
|
||||||
r := l.peekRune()
|
|
||||||
if r == '\'' {
|
|
||||||
l.parser.LiteralString(l.accept())
|
|
||||||
l.nextRune()
|
|
||||||
l.ignore()
|
|
||||||
return nil
|
|
||||||
}
|
|
||||||
if !isLiteralChar(r) {
|
|
||||||
return &InvalidCharacter{r: r}
|
|
||||||
}
|
|
||||||
l.nextRune()
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
func isBasicStringChar(r rune) bool {
|
|
||||||
return r == ' ' || r == 0x21 || r >= 0x23 && r <= 0x5B || r >= 0x5D && r <= 0x7E || isNonAsciiChar(r)
|
|
||||||
}
|
|
||||||
|
|
||||||
func isEscapeChar(r rune) bool {
|
|
||||||
return r == '"' || r == '\\' || r == 'b' || r == 'f' || r == 'n' || r == 'r' || r == 't'
|
|
||||||
}
|
|
||||||
|
|
||||||
func isHex(r rune) bool {
|
|
||||||
return (r >= '0' && r <= '9') || (r >= 'A' && r <= 'F')
|
|
||||||
}
|
|
||||||
|
|
||||||
func (l *lexer) lexBasicString() error {
|
|
||||||
// basic-string = quotation-mark *basic-char quotation-mark
|
|
||||||
// basic-char = basic-unescaped / escaped
|
|
||||||
// basic-unescaped = wschar / %x21 / %x23-5B / %x5D-7E / non-ascii
|
|
||||||
// escaped = escape escape-seq-char
|
|
||||||
//escape = %x5C ; \
|
|
||||||
//escape-seq-char = %x22 ; " quotation mark U+0022
|
|
||||||
//escape-seq-char =/ %x5C ; \ reverse solidus U+005C
|
|
||||||
//escape-seq-char =/ %x62 ; b backspace U+0008
|
|
||||||
//escape-seq-char =/ %x66 ; f form feed U+000C
|
|
||||||
//escape-seq-char =/ %x6E ; n line feed U+000A
|
|
||||||
//escape-seq-char =/ %x72 ; r carriage return U+000D
|
|
||||||
//escape-seq-char =/ %x74 ; t tab U+0009
|
|
||||||
//escape-seq-char =/ %x75 4HEXDIG ; uXXXX U+XXXX
|
|
||||||
//escape-seq-char =/ %x55 8HEXDIG ; UXXXXXXXX U+XXXXXXXX
|
|
||||||
// HEXDIG = DIGIT / "A" / "B" / "C" / "D" / "E" / "F"
|
|
||||||
|
|
||||||
err := l.expect('"')
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
l.ignore()
|
|
||||||
|
|
||||||
for {
|
|
||||||
r := l.peekRune()
|
|
||||||
|
|
||||||
if r == '"' {
|
|
||||||
l.parser.BasicString(l.accept())
|
|
||||||
l.nextRune()
|
|
||||||
l.ignore()
|
|
||||||
return nil
|
|
||||||
}
|
|
||||||
|
|
||||||
if r == '\\' {
|
|
||||||
l.nextRune()
|
|
||||||
r := l.peekRune()
|
|
||||||
if isEscapeChar(r) {
|
|
||||||
l.nextRune()
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
|
|
||||||
if r == 'u' {
|
|
||||||
l.nextRune()
|
|
||||||
for i := 0; i < 4; i++ {
|
|
||||||
r := l.nextRune()
|
|
||||||
if !isHex(r) {
|
|
||||||
return &InvalidCharacter{r: r}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
|
|
||||||
if r == 'U' {
|
|
||||||
l.nextRune()
|
|
||||||
for i := 0; i < 8; i++ {
|
|
||||||
r := l.nextRune()
|
|
||||||
if !isHex(r) {
|
|
||||||
return &InvalidCharacter{r: r}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
|
|
||||||
return &InvalidCharacter{r: r}
|
|
||||||
}
|
|
||||||
|
|
||||||
if isBasicStringChar(r) {
|
|
||||||
l.nextRune()
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
func (l *lexer) lexTable() error {
|
|
||||||
//;; Table
|
|
||||||
//
|
|
||||||
//table = std-table / array-table
|
|
||||||
//
|
|
||||||
//;; Standard Table
|
|
||||||
//
|
|
||||||
//std-table = std-table-open key std-table-close
|
|
||||||
//
|
|
||||||
//std-table-open = %x5B ws ; [ Left square bracket
|
|
||||||
//std-table-close = ws %x5D ; ] Right square bracket
|
|
||||||
//
|
|
||||||
//;; Array Table
|
|
||||||
//
|
|
||||||
//array-table = array-table-open key array-table-close
|
|
||||||
//
|
|
||||||
//array-table-open = %x5B.5B ws ; [[ Double left square bracket
|
|
||||||
//array-table-close = ws %x5D.5D ; ]] Double right square bracket
|
|
||||||
|
|
||||||
if l.follows("[[") {
|
|
||||||
return l.lexArrayTable()
|
|
||||||
}
|
|
||||||
|
|
||||||
return l.lexStandardTable()
|
|
||||||
}
|
|
||||||
|
|
||||||
func (l *lexer) lexArrayTable() error {
|
|
||||||
//;; Array Table
|
|
||||||
//
|
|
||||||
//array-table = array-table-open key array-table-close
|
|
||||||
//
|
|
||||||
//array-table-open = %x5B.5B ws ; [[ Double left square bracket
|
|
||||||
//array-table-close = ws %x5D.5D ; ]] Double right square bracket
|
|
||||||
err := l.expect('[')
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
err = l.expect('[')
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
l.ignore()
|
|
||||||
l.parser.ArrayTableBegin()
|
|
||||||
|
|
||||||
err = l.lexWhitespace()
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
|
|
||||||
err = l.lexKey()
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
|
|
||||||
err = l.lexWhitespace()
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
err = l.expect(']')
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
err = l.expect(']')
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
l.ignore()
|
|
||||||
l.parser.ArrayTableEnd()
|
|
||||||
return nil
|
|
||||||
}
|
|
||||||
|
|
||||||
func (l *lexer) lexStandardTable() error {
|
|
||||||
//;; Standard Table
|
|
||||||
//
|
|
||||||
//std-table = std-table-open key std-table-close
|
|
||||||
//
|
|
||||||
//std-table-open = %x5B ws ; [ Left square bracket
|
|
||||||
//std-table-close = ws %x5D ; ] Right square bracket
|
|
||||||
|
|
||||||
err := l.expect('[')
|
|
||||||
if err != nil {
|
|
||||||
panic("std-table should start with [")
|
|
||||||
}
|
|
||||||
l.ignore()
|
|
||||||
l.parser.StandardTableBegin()
|
|
||||||
|
|
||||||
err = l.lexWhitespace()
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
|
|
||||||
err = l.lexKey()
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
|
|
||||||
err = l.lexWhitespace()
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
err = l.expect(']')
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
l.ignore()
|
|
||||||
l.parser.StandardTableEnd()
|
|
||||||
return nil
|
|
||||||
}
|
|
||||||
|
|||||||
+24
-18
@@ -4,7 +4,7 @@ import (
|
|||||||
"fmt"
|
"fmt"
|
||||||
"testing"
|
"testing"
|
||||||
|
|
||||||
"github.com/stretchr/testify/assert"
|
"github.com/stretchr/testify/require"
|
||||||
)
|
)
|
||||||
|
|
||||||
var inputs = []string{
|
var inputs = []string{
|
||||||
@@ -43,9 +43,14 @@ func TestParse(t *testing.T) {
|
|||||||
for i, data := range inputs {
|
for i, data := range inputs {
|
||||||
t.Run(fmt.Sprintf("example %d", i), func(t *testing.T) {
|
t.Run(fmt.Sprintf("example %d", i), func(t *testing.T) {
|
||||||
fmt.Printf("input:\n\t`%s`\n", data)
|
fmt.Printf("input:\n\t`%s`\n", data)
|
||||||
doc, err := Parse([]byte(data))
|
b := []byte(data)
|
||||||
assert.NoError(t, err)
|
var token []byte
|
||||||
fmt.Println(doc)
|
var err error
|
||||||
|
for len(b) > 0 {
|
||||||
|
token, b, err = scan(b)
|
||||||
|
require.NoError(t, err)
|
||||||
|
fmt.Printf("token => '%s'\n", string(token))
|
||||||
|
}
|
||||||
})
|
})
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
@@ -72,17 +77,18 @@ func (n noopParser) Dot(b []byte) {}
|
|||||||
func (n noopParser) Boolean(b []byte) {}
|
func (n noopParser) Boolean(b []byte) {}
|
||||||
func (n noopParser) Equal(b []byte) {}
|
func (n noopParser) Equal(b []byte) {}
|
||||||
|
|
||||||
func BenchmarkParseAll(b *testing.B) {
|
//
|
||||||
b.ReportAllocs()
|
//func BenchmarkParseAll(b *testing.B) {
|
||||||
|
// b.ReportAllocs()
|
||||||
for i := 0; i < b.N; i++ {
|
//
|
||||||
for _, data := range inputs {
|
// for i := 0; i < b.N; i++ {
|
||||||
p := noopParser{}
|
// for _, data := range inputs {
|
||||||
l := lexer{parser: &p, data: []byte(data)}
|
// p := noopParser{}
|
||||||
err := l.run()
|
// l := lexer{parser: &p, data: []byte(data)}
|
||||||
if err != nil {
|
// err := l.run()
|
||||||
b.Fatalf("error: %s", err)
|
// if err != nil {
|
||||||
}
|
// b.Fatalf("error: %s", err)
|
||||||
}
|
// }
|
||||||
}
|
// }
|
||||||
}
|
// }
|
||||||
|
//}
|
||||||
|
|||||||
Reference in New Issue
Block a user