Compare commits
	
		
			76 Commits
		
	
	
		
	
	| Author | SHA1 | Date | |
|---|---|---|---|
| 1c2d3f541f | |||
| ec62ad436f | |||
| 8d0ef0f002 | |||
| d78550672e | |||
| 1d629f6db8 | |||
| f7d291056d | |||
| 710c257c64 | |||
| c320bb3d90 | |||
| 2f01a1d50f | |||
| ffc57b7e89 | |||
| d88cd3c22b | |||
| ac5ad640bd | |||
| 21d241f9b1 | |||
| 2569c165f8 | |||
| ee262a94fb | |||
| 7977c0e59c | |||
| ceff0161c6 | |||
| a30da61419 | |||
| b613b122e3 | |||
| d017530444 | |||
| 8de83cc290 | |||
| 603ec82b83 | |||
| 93c4cf31a8 | |||
| dc2d8a9103 | |||
| 6589e8d5cd | |||
| 0006c6859d | |||
| 827b3fc1b7 | |||
| f7dce4a102 | |||
| 45d4fd7101 | |||
| c7df9d2264 | |||
| d0954bf133 | |||
| 8affa81bb9 | |||
| fe9ebf0bab | |||
| a4b5f33d15 | |||
| e89e2c18f2 | |||
| b16d5152c7 | |||
| 5fb2f8a312 | |||
| 2ad820be8d | |||
| 555096102a | |||
| d76d7b5cb9 | |||
| 6622c9003d | |||
| b02e1d2e85 | |||
| c338d23070 | |||
| 1fbae343a4 | |||
| 31418bf0e6 | |||
| 6d45f6f667 | |||
| f610a2202c | |||
| 2807299d46 | |||
| e872dbccec | |||
| 9daf71e2ed | |||
| fe278f7772 | |||
| 8ebda6fb3a | |||
| b0d3ce8c1c | |||
| 021465e524 | |||
| cf9c73aa4a | |||
| 0652bf22dc | |||
| b196adffc7 | |||
| 717065e62d | |||
| e7b2b040b2 | |||
| 05d0f9e469 | |||
| ccd03e50c8 | |||
| 1c77c2b8e8 | |||
| 9f6f967299 | |||
| 18c83f0f76 | |||
| a64f336e24 | |||
| 14bbd205f8 | |||
| cecfb0d788 | |||
| a445e6f623 | |||
| 0aa6310971 | |||
| 2f66ab1cf0 | |||
| 304e779470 | |||
| 5e295d65c5 | |||
| ef3705937c | |||
| d780c7965f | |||
| c13db6802e | |||
| c5e23ab451 | 
							
								
								
									
										6
									
								
								.idea/goext.iml
									
									
									
										generated
									
									
									
								
							
							
						
						
									
										6
									
								
								.idea/goext.iml
									
									
									
										generated
									
									
									
								
							| @@ -1,6 +1,10 @@ | |||||||
| <?xml version="1.0" encoding="UTF-8"?> | <?xml version="1.0" encoding="UTF-8"?> | ||||||
| <module type="WEB_MODULE" version="4"> | <module type="WEB_MODULE" version="4"> | ||||||
|   <component name="Go" enabled="true" /> |   <component name="Go" enabled="true"> | ||||||
|  |     <buildTags> | ||||||
|  |       <option name="goVersion" value="1.19" /> | ||||||
|  |     </buildTags> | ||||||
|  |   </component> | ||||||
|   <component name="NewModuleRootManager"> |   <component name="NewModuleRootManager"> | ||||||
|     <content url="file://$MODULE_DIR$" /> |     <content url="file://$MODULE_DIR$" /> | ||||||
|     <orderEntry type="inheritedJdk" /> |     <orderEntry type="inheritedJdk" /> | ||||||
|   | |||||||
							
								
								
									
										4
									
								
								Makefile
									
									
									
									
									
								
							
							
						
						
									
										4
									
								
								Makefile
									
									
									
									
									
								
							| @@ -3,7 +3,9 @@ run: | |||||||
| 	echo "This is a library - can't be run" && false | 	echo "This is a library - can't be run" && false | ||||||
|  |  | ||||||
| test: | test: | ||||||
| 	go test ./... | 	# go test ./... | ||||||
|  | 	which gotestsum || go install gotest.tools/gotestsum@latest | ||||||
|  | 	gotestsum --format "testname" -- -tags="timetzdata sqlite_fts5 sqlite_foreign_keys" "./test" | ||||||
|  |  | ||||||
| version: | version: | ||||||
| 	_data/version.sh | 	_data/version.sh | ||||||
							
								
								
									
										33
									
								
								README.md
									
									
									
									
									
								
							
							
						
						
									
										33
									
								
								README.md
									
									
									
									
									
								
							| @@ -6,3 +6,36 @@ A collection of general & useful library methods | |||||||
| This should not have any heavy dependencies (gin, mongo, etc) and add missing basic language features... | This should not have any heavy dependencies (gin, mongo, etc) and add missing basic language features... | ||||||
|  |  | ||||||
| Potentially needs `export GOPRIVATE="gogs.mikescher.com"` | Potentially needs `export GOPRIVATE="gogs.mikescher.com"` | ||||||
|  |  | ||||||
|  |  | ||||||
|  | ### Packages: | ||||||
|  |  | ||||||
|  | | Name         | Maintainer | Description                                                                                                   | | ||||||
|  | |--------------|------------|---------------------------------------------------------------------------------------------------------------| | ||||||
|  | | langext      | Mike       | General uttility/helper functions, (everything thats missing from go standard library)                        | | ||||||
|  | | mathext      | Mike       | Utility/Helper functions for math                                                                             | | ||||||
|  | | cryptext     | Mike       | Utility/Helper functions for encryption                                                                       | | ||||||
|  | | syncext      | Mike       | Utility/Helper funtions for multi-threading / mutex / channels                                                | | ||||||
|  | | dataext      | Mike       | Various useful data structures                                                                                | | ||||||
|  | | zipext       | Mike       | Utility for zip/gzip/tar etc                                                                                  | | ||||||
|  | | reflectext   | Mike       | Utility for golagn reflection                                                                                 | | ||||||
|  | |              |            |                                                                                                               | | ||||||
|  | | mongoext     | Mike       | Utility/Helper functions for mongodb                                                                          | | ||||||
|  | | cursortoken  | Mike       | MongoDB cursortoken implementation                                                                            | | ||||||
|  | |              |            |                                                                                                               | | ||||||
|  | | totpext      | Mike       | Implementation of TOTP (2-Factor-Auth)                                                                        | | ||||||
|  | | termext      | Mike       | Utilities for terminals (mostly color output)                                                                 | | ||||||
|  | | confext      | Mike       | Parses environment configuration into structs                                                                 | | ||||||
|  | | cmdext       | Mike       | Runner for external commands/processes                                                                        | | ||||||
|  | |              |            |                                                                                                               | | ||||||
|  | | sq           | Mike       | Utility functions for sql based databases                                                                     | | ||||||
|  | | tst          | Mike       | Utility functions for unit tests                                                                              | | ||||||
|  | |              |            |                                                                                                               | | ||||||
|  | | rfctime      | Mike       | Classes for time seriallization, with different marshallign method for mongo and json                         | | ||||||
|  | | gojson       | Mike       | Same interface for marshalling/unmarshalling as go/json, except with proper serialization of null arrays/maps | | ||||||
|  | |              |            |                                                                                                               | | ||||||
|  | | bfcodegen    | Mike       | Various codegen tools (run via go generate)                                                                   | | ||||||
|  | |              |            |                                                                                                               | | ||||||
|  | | rext         | Mike       | Regex Wrapper, wraps regexp with a better interface                                                           | | ||||||
|  | | wmo          | Mike       | Mongo Wrapper, wraps mongodb with a better interface                                                          | | ||||||
|  | |              |            |                                                                                                               | | ||||||
							
								
								
									
										13
									
								
								TODO.md
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										13
									
								
								TODO.md
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,13 @@ | |||||||
|  |  | ||||||
|  |  | ||||||
|  |  - cronext | ||||||
|  |  | ||||||
|  |  - cursortoken | ||||||
|  |  | ||||||
|  |  - typed/geenric mongo wrapper | ||||||
|  |  | ||||||
|  |  - error package | ||||||
|  |  | ||||||
|  | - rfctime.DateOnly | ||||||
|  | - rfctime.HMSTimeOnly | ||||||
|  | - rfctime.NanoTimeOnly | ||||||
| @@ -23,6 +23,8 @@ fi | |||||||
|  |  | ||||||
| git pull --ff | git pull --ff | ||||||
|  |  | ||||||
|  | go get -u ./... | ||||||
|  |  | ||||||
| curr_vers=$(git describe --tags --abbrev=0 | sed 's/v//g') | curr_vers=$(git describe --tags --abbrev=0 | sed 's/v//g') | ||||||
|  |  | ||||||
| next_ver=$(echo "$curr_vers" | awk -F. -v OFS=. 'NF==1{print ++$NF}; NF>1{if(length($NF+1)>length($NF))$(NF-1)++; $NF=sprintf("%0*d", length($NF), ($NF+1)%(10^length($NF))); print}') | next_ver=$(echo "$curr_vers" | awk -F. -v OFS=. 'NF==1{print ++$NF}; NF>1{if(length($NF+1)>length($NF))$(NF-1)++; $NF=sprintf("%0*d", length($NF), ($NF+1)%(10^length($NF))); print}') | ||||||
| @@ -32,6 +34,8 @@ echo "> Current Version: ${curr_vers}" | |||||||
| echo "> Next    Version: ${next_ver}" | echo "> Next    Version: ${next_ver}" | ||||||
| echo "" | echo "" | ||||||
|  |  | ||||||
|  | printf "package goext\n\nconst GoextVersion = \"%s\"\n\nconst GoextVersionTimestamp = \"%s\"\n" "${next_ver}" "$( date +"%Y-%m-%dT%H:%M:%S%z" )" > "goextVersion.go" | ||||||
|  |  | ||||||
| git add --verbose . | git add --verbose . | ||||||
|  |  | ||||||
| msg="v${next_ver}" | msg="v${next_ver}" | ||||||
|   | |||||||
							
								
								
									
										364
									
								
								bfcodegen/enum-generate.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										364
									
								
								bfcodegen/enum-generate.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,364 @@ | |||||||
|  | package bfcodegen | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"errors" | ||||||
|  | 	"fmt" | ||||||
|  | 	"gogs.mikescher.com/BlackForestBytes/goext" | ||||||
|  | 	"gogs.mikescher.com/BlackForestBytes/goext/cmdext" | ||||||
|  | 	"gogs.mikescher.com/BlackForestBytes/goext/cryptext" | ||||||
|  | 	"gogs.mikescher.com/BlackForestBytes/goext/langext" | ||||||
|  | 	"gogs.mikescher.com/BlackForestBytes/goext/rext" | ||||||
|  | 	"io" | ||||||
|  | 	"os" | ||||||
|  | 	"path" | ||||||
|  | 	"path/filepath" | ||||||
|  | 	"regexp" | ||||||
|  | 	"strings" | ||||||
|  | 	"time" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | type EnumDefVal struct { | ||||||
|  | 	VarName     string | ||||||
|  | 	Value       string | ||||||
|  | 	Description *string | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type EnumDef struct { | ||||||
|  | 	File         string | ||||||
|  | 	FileRelative string | ||||||
|  | 	EnumTypeName string | ||||||
|  | 	Type         string | ||||||
|  | 	Values       []EnumDefVal | ||||||
|  | } | ||||||
|  |  | ||||||
|  | var rexPackage = rext.W(regexp.MustCompile("^package\\s+(?P<name>[A-Za-z0-9_]+)\\s*$")) | ||||||
|  |  | ||||||
|  | var rexEnumDef = rext.W(regexp.MustCompile("^\\s*type\\s+(?P<name>[A-Za-z0-9_]+)\\s+(?P<type>[A-Za-z0-9_]+)\\s*//\\s*(@enum:type).*$")) | ||||||
|  |  | ||||||
|  | var rexValueDef = rext.W(regexp.MustCompile("^\\s*(?P<name>[A-Za-z0-9_]+)\\s+(?P<type>[A-Za-z0-9_]+)\\s*=\\s*(?P<value>(\"[A-Za-z0-9_:]+\"|[0-9]+))\\s*(//(?P<descr>.*))?.*$")) | ||||||
|  |  | ||||||
|  | var rexChecksumConst = rext.W(regexp.MustCompile("const ChecksumGenerator = \"(?P<cs>[A-Za-z0-9_]*)\"")) | ||||||
|  |  | ||||||
|  | func GenerateEnumSpecs(sourceDir string, destFile string) error { | ||||||
|  |  | ||||||
|  | 	files, err := os.ReadDir(sourceDir) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	oldChecksum := "N/A" | ||||||
|  | 	if _, err := os.Stat(destFile); !os.IsNotExist(err) { | ||||||
|  | 		content, err := os.ReadFile(destFile) | ||||||
|  | 		if err != nil { | ||||||
|  | 			return err | ||||||
|  | 		} | ||||||
|  | 		if m, ok := rexChecksumConst.MatchFirst(string(content)); ok { | ||||||
|  | 			oldChecksum = m.GroupByName("cs").Value() | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	files = langext.ArrFilter(files, func(v os.DirEntry) bool { return v.Name() != path.Base(destFile) }) | ||||||
|  | 	files = langext.ArrFilter(files, func(v os.DirEntry) bool { return strings.HasSuffix(v.Name(), ".go") }) | ||||||
|  | 	langext.SortBy(files, func(v os.DirEntry) string { return v.Name() }) | ||||||
|  |  | ||||||
|  | 	newChecksumStr := goext.GoextVersion | ||||||
|  | 	for _, f := range files { | ||||||
|  | 		content, err := os.ReadFile(path.Join(sourceDir, f.Name())) | ||||||
|  | 		if err != nil { | ||||||
|  | 			return err | ||||||
|  | 		} | ||||||
|  | 		newChecksumStr += "\n" + f.Name() + "\t" + cryptext.BytesSha256(content) | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	newChecksum := cryptext.BytesSha256([]byte(newChecksumStr)) | ||||||
|  |  | ||||||
|  | 	if newChecksum != oldChecksum { | ||||||
|  | 		fmt.Printf("[EnumGenerate] Checksum has changed ( %s -> %s ), will generate new file\n\n", oldChecksum, newChecksum) | ||||||
|  | 	} else { | ||||||
|  | 		fmt.Printf("[EnumGenerate] Checksum unchanged ( %s ), nothing to do\n", oldChecksum) | ||||||
|  | 		return nil | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	allEnums := make([]EnumDef, 0) | ||||||
|  |  | ||||||
|  | 	pkgname := "" | ||||||
|  |  | ||||||
|  | 	for _, f := range files { | ||||||
|  | 		fmt.Printf("========= %s =========\n\n", f.Name()) | ||||||
|  | 		fileEnums, pn, err := processFile(sourceDir, path.Join(sourceDir, f.Name())) | ||||||
|  | 		if err != nil { | ||||||
|  | 			return err | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		fmt.Printf("\n") | ||||||
|  |  | ||||||
|  | 		allEnums = append(allEnums, fileEnums...) | ||||||
|  |  | ||||||
|  | 		if pn != "" { | ||||||
|  | 			pkgname = pn | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	if pkgname == "" { | ||||||
|  | 		return errors.New("no package name found in any file") | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	err = os.WriteFile(destFile, []byte(fmtOutput(newChecksum, allEnums, pkgname)), 0o755) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	res, err := cmdext.RunCommand("go", []string{"fmt", destFile}, langext.Ptr(2*time.Second)) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	if res.CommandTimedOut { | ||||||
|  | 		fmt.Println(res.StdCombined) | ||||||
|  | 		return errors.New("go fmt timed out") | ||||||
|  | 	} | ||||||
|  | 	if res.ExitCode != 0 { | ||||||
|  | 		fmt.Println(res.StdCombined) | ||||||
|  | 		return errors.New("go fmt did not succeed") | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func processFile(basedir string, fn string) ([]EnumDef, string, error) { | ||||||
|  | 	file, err := os.Open(fn) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return nil, "", err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	defer func() { _ = file.Close() }() | ||||||
|  |  | ||||||
|  | 	bin, err := io.ReadAll(file) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return nil, "", err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	lines := strings.Split(string(bin), "\n") | ||||||
|  |  | ||||||
|  | 	enums := make([]EnumDef, 0) | ||||||
|  |  | ||||||
|  | 	pkgname := "" | ||||||
|  |  | ||||||
|  | 	for i, line := range lines { | ||||||
|  | 		if i == 0 && strings.HasPrefix(line, "// Code generated by") { | ||||||
|  | 			break | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		if match, ok := rexPackage.MatchFirst(line); i == 0 && ok { | ||||||
|  | 			pkgname = match.GroupByName("name").Value() | ||||||
|  | 			continue | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		if match, ok := rexEnumDef.MatchFirst(line); ok { | ||||||
|  |  | ||||||
|  | 			rfp, err := filepath.Rel(basedir, fn) | ||||||
|  | 			if err != nil { | ||||||
|  | 				return nil, "", err | ||||||
|  | 			} | ||||||
|  |  | ||||||
|  | 			def := EnumDef{ | ||||||
|  | 				File:         fn, | ||||||
|  | 				FileRelative: rfp, | ||||||
|  | 				EnumTypeName: match.GroupByName("name").Value(), | ||||||
|  | 				Type:         match.GroupByName("type").Value(), | ||||||
|  | 				Values:       make([]EnumDefVal, 0), | ||||||
|  | 			} | ||||||
|  | 			enums = append(enums, def) | ||||||
|  | 			fmt.Printf("Found enum definition { '%s' -> '%s' }\n", def.EnumTypeName, def.Type) | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		if match, ok := rexValueDef.MatchFirst(line); ok { | ||||||
|  | 			typename := match.GroupByName("type").Value() | ||||||
|  | 			def := EnumDefVal{ | ||||||
|  | 				VarName:     match.GroupByName("name").Value(), | ||||||
|  | 				Value:       match.GroupByName("value").Value(), | ||||||
|  | 				Description: match.GroupByNameOrEmpty("descr").ValueOrNil(), | ||||||
|  | 			} | ||||||
|  |  | ||||||
|  | 			found := false | ||||||
|  | 			for i, v := range enums { | ||||||
|  | 				if v.EnumTypeName == typename { | ||||||
|  | 					enums[i].Values = append(enums[i].Values, def) | ||||||
|  | 					found = true | ||||||
|  | 					if def.Description != nil { | ||||||
|  | 						fmt.Printf("Found enum value [%s] for '%s'  ('%s')\n", def.Value, def.VarName, *def.Description) | ||||||
|  | 					} else { | ||||||
|  | 						fmt.Printf("Found enum value [%s] for '%s'\n", def.Value, def.VarName) | ||||||
|  | 					} | ||||||
|  | 					break | ||||||
|  | 				} | ||||||
|  | 			} | ||||||
|  | 			if !found { | ||||||
|  | 				fmt.Printf("Found non-enum value [%s] for '%s' ( looks like enum value, but no matching @enum:type )\n", def.Value, def.VarName) | ||||||
|  | 			} | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return enums, pkgname, nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func fmtOutput(cs string, enums []EnumDef, pkgname string) string { | ||||||
|  | 	str := "// Code generated by enum-generate.go DO NOT EDIT.\n" | ||||||
|  | 	str += "\n" | ||||||
|  | 	str += "package " + pkgname + "\n" | ||||||
|  | 	str += "\n" | ||||||
|  |  | ||||||
|  | 	str += "import \"gogs.mikescher.com/BlackForestBytes/goext/langext\"" + "\n" | ||||||
|  | 	str += "\n" | ||||||
|  |  | ||||||
|  | 	str += "const ChecksumGenerator = \"" + cs + "\"" + "\n" | ||||||
|  | 	str += "\n" | ||||||
|  |  | ||||||
|  | 	str += "type Enum interface {" + "\n" | ||||||
|  | 	str += "    Valid() bool" + "\n" | ||||||
|  | 	str += "    ValuesAny() []any" + "\n" | ||||||
|  | 	str += "    ValuesMeta() []EnumMetaValue" + "\n" | ||||||
|  | 	str += "    VarName() string" + "\n" | ||||||
|  | 	str += "}" + "\n" | ||||||
|  | 	str += "" + "\n" | ||||||
|  |  | ||||||
|  | 	str += "type StringEnum interface {" + "\n" | ||||||
|  | 	str += "    Enum" + "\n" | ||||||
|  | 	str += "    String() string" + "\n" | ||||||
|  | 	str += "}" + "\n" | ||||||
|  | 	str += "" + "\n" | ||||||
|  |  | ||||||
|  | 	str += "type DescriptionEnum interface {" + "\n" | ||||||
|  | 	str += "    Enum" + "\n" | ||||||
|  | 	str += "    Description() string" + "\n" | ||||||
|  | 	str += "}" + "\n" | ||||||
|  | 	str += "\n" | ||||||
|  |  | ||||||
|  | 	str += "type EnumMetaValue struct {" + "\n" | ||||||
|  | 	str += "    VarName     string  `json:\"varName\"`" + "\n" | ||||||
|  | 	str += "    Value       any     `json:\"value\"`" + "\n" | ||||||
|  | 	str += "    Description *string `json:\"description\"`" + "\n" | ||||||
|  | 	str += "}" + "\n" | ||||||
|  | 	str += "\n" | ||||||
|  |  | ||||||
|  | 	for _, enumdef := range enums { | ||||||
|  |  | ||||||
|  | 		hasDescr := langext.ArrAll(enumdef.Values, func(val EnumDefVal) bool { return val.Description != nil }) | ||||||
|  | 		hasStr := enumdef.Type == "string" | ||||||
|  |  | ||||||
|  | 		str += "// ================================ " + enumdef.EnumTypeName + " ================================" + "\n" | ||||||
|  | 		str += "//" + "\n" | ||||||
|  | 		str += "// File:       " + enumdef.FileRelative + "\n" | ||||||
|  | 		str += "// StringEnum: " + langext.Conditional(hasStr, "true", "false") + "\n" | ||||||
|  | 		str += "// DescrEnum:  " + langext.Conditional(hasDescr, "true", "false") + "\n" | ||||||
|  | 		str += "//" + "\n" | ||||||
|  | 		str += "" + "\n" | ||||||
|  |  | ||||||
|  | 		str += "var __" + enumdef.EnumTypeName + "Values = []" + enumdef.EnumTypeName + "{" + "\n" | ||||||
|  | 		for _, v := range enumdef.Values { | ||||||
|  | 			str += "    " + v.VarName + "," + "\n" | ||||||
|  | 		} | ||||||
|  | 		str += "}" + "\n" | ||||||
|  | 		str += "" + "\n" | ||||||
|  |  | ||||||
|  | 		if hasDescr { | ||||||
|  | 			str += "var __" + enumdef.EnumTypeName + "Descriptions = map[" + enumdef.EnumTypeName + "]string{" + "\n" | ||||||
|  | 			for _, v := range enumdef.Values { | ||||||
|  | 				str += "    " + v.VarName + ": \"" + strings.TrimSpace(*v.Description) + "\"," + "\n" | ||||||
|  | 			} | ||||||
|  | 			str += "}" + "\n" | ||||||
|  | 			str += "" + "\n" | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		str += "var __" + enumdef.EnumTypeName + "Varnames = map[" + enumdef.EnumTypeName + "]string{" + "\n" | ||||||
|  | 		for _, v := range enumdef.Values { | ||||||
|  | 			str += "    " + v.VarName + ": \"" + v.VarName + "\"," + "\n" | ||||||
|  | 		} | ||||||
|  | 		str += "}" + "\n" | ||||||
|  | 		str += "" + "\n" | ||||||
|  |  | ||||||
|  | 		str += "func (e " + enumdef.EnumTypeName + ") Valid() bool {" + "\n" | ||||||
|  | 		str += "    return langext.InArray(e, __" + enumdef.EnumTypeName + "Values)" + "\n" | ||||||
|  | 		str += "}" + "\n" | ||||||
|  | 		str += "" + "\n" | ||||||
|  |  | ||||||
|  | 		str += "func (e " + enumdef.EnumTypeName + ") Values() []" + enumdef.EnumTypeName + " {" + "\n" | ||||||
|  | 		str += "    return __" + enumdef.EnumTypeName + "Values" + "\n" | ||||||
|  | 		str += "}" + "\n" | ||||||
|  | 		str += "" + "\n" | ||||||
|  |  | ||||||
|  | 		str += "func (e " + enumdef.EnumTypeName + ") ValuesAny() []any {" + "\n" | ||||||
|  | 		str += "    return langext.ArrCastToAny(__" + enumdef.EnumTypeName + "Values)" + "\n" | ||||||
|  | 		str += "}" + "\n" | ||||||
|  | 		str += "" + "\n" | ||||||
|  |  | ||||||
|  | 		str += "func (e " + enumdef.EnumTypeName + ") ValuesMeta() []EnumMetaValue {" + "\n" | ||||||
|  | 		str += "    return []EnumMetaValue{" + "\n" | ||||||
|  | 		for _, v := range enumdef.Values { | ||||||
|  | 			if hasDescr { | ||||||
|  | 				str += "        " + fmt.Sprintf("EnumMetaValue{VarName: \"%s\", Value: %s, Description: langext.Ptr(\"%s\")},", v.VarName, v.VarName, strings.TrimSpace(*v.Description)) + "\n" | ||||||
|  | 			} else { | ||||||
|  | 				str += "        " + fmt.Sprintf("EnumMetaValue{VarName: \"%s\", Value: %s, Description: nil},", v.VarName, v.VarName) + "\n" | ||||||
|  | 			} | ||||||
|  | 		} | ||||||
|  | 		str += "    }" + "\n" | ||||||
|  | 		str += "}" + "\n" | ||||||
|  | 		str += "" + "\n" | ||||||
|  |  | ||||||
|  | 		if hasStr { | ||||||
|  | 			str += "func (e " + enumdef.EnumTypeName + ") String() string {" + "\n" | ||||||
|  | 			str += "    return string(e)" + "\n" | ||||||
|  | 			str += "}" + "\n" | ||||||
|  | 			str += "" + "\n" | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		if hasDescr { | ||||||
|  | 			str += "func (e " + enumdef.EnumTypeName + ") Description() string {" + "\n" | ||||||
|  | 			str += "    if d, ok := __" + enumdef.EnumTypeName + "Descriptions[e]; ok {" + "\n" | ||||||
|  | 			str += "        return d" + "\n" | ||||||
|  | 			str += "    }" + "\n" | ||||||
|  | 			str += "    return \"\"" + "\n" | ||||||
|  | 			str += "}" + "\n" | ||||||
|  | 			str += "" + "\n" | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		str += "func (e " + enumdef.EnumTypeName + ") VarName() string {" + "\n" | ||||||
|  | 		str += "    if d, ok := __" + enumdef.EnumTypeName + "Varnames[e]; ok {" + "\n" | ||||||
|  | 		str += "        return d" + "\n" | ||||||
|  | 		str += "    }" + "\n" | ||||||
|  | 		str += "    return \"\"" + "\n" | ||||||
|  | 		str += "}" + "\n" | ||||||
|  | 		str += "" + "\n" | ||||||
|  |  | ||||||
|  | 		str += "func Parse" + enumdef.EnumTypeName + "(vv string) (" + enumdef.EnumTypeName + ", bool) {" + "\n" | ||||||
|  | 		str += "    for _, ev := range __" + enumdef.EnumTypeName + "Values {" + "\n" | ||||||
|  | 		str += "        if string(ev) == vv {" + "\n" | ||||||
|  | 		str += "            return ev, true" + "\n" | ||||||
|  | 		str += "        }" + "\n" | ||||||
|  | 		str += "    }" + "\n" | ||||||
|  | 		str += "    return \"\", false" + "\n" | ||||||
|  | 		str += "}" + "\n" | ||||||
|  | 		str += "" + "\n" | ||||||
|  |  | ||||||
|  | 		str += "func " + enumdef.EnumTypeName + "Values() []" + enumdef.EnumTypeName + " {" + "\n" | ||||||
|  | 		str += "    return __" + enumdef.EnumTypeName + "Values" + "\n" | ||||||
|  | 		str += "}" + "\n" | ||||||
|  | 		str += "" + "\n" | ||||||
|  |  | ||||||
|  | 		str += "func " + enumdef.EnumTypeName + "ValuesMeta() []EnumMetaValue {" + "\n" | ||||||
|  | 		str += "    return []EnumMetaValue{" + "\n" | ||||||
|  | 		for _, v := range enumdef.Values { | ||||||
|  | 			if hasDescr { | ||||||
|  | 				str += "        " + fmt.Sprintf("EnumMetaValue{VarName: \"%s\", Value: %s, Description: langext.Ptr(\"%s\")},", v.VarName, v.VarName, strings.TrimSpace(*v.Description)) + "\n" | ||||||
|  | 			} else { | ||||||
|  | 				str += "        " + fmt.Sprintf("EnumMetaValue{VarName: \"%s\", Value: %s, Description: nil},", v.VarName, v.VarName) + "\n" | ||||||
|  | 			} | ||||||
|  | 		} | ||||||
|  | 		str += "    }" + "\n" | ||||||
|  | 		str += "}" + "\n" | ||||||
|  | 		str += "" + "\n" | ||||||
|  |  | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return str | ||||||
|  | } | ||||||
							
								
								
									
										15
									
								
								bfcodegen/enum-generate_test.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										15
									
								
								bfcodegen/enum-generate_test.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,15 @@ | |||||||
|  | package bfcodegen | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"testing" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | func TestApplyEnvOverridesSimple(t *testing.T) { | ||||||
|  |  | ||||||
|  | 	err := GenerateEnumSpecs("/home/mike/Code/reiff/badennet/bnet-backend/models", "/home/mike/Code/reiff/badennet/bnet-backend/models/enums_gen.go") | ||||||
|  | 	if err != nil { | ||||||
|  | 		t.Error(err) | ||||||
|  | 		t.Fail() | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | } | ||||||
| @@ -8,6 +8,7 @@ import ( | |||||||
| 	"os" | 	"os" | ||||||
| 	"reflect" | 	"reflect" | ||||||
| 	"strconv" | 	"strconv" | ||||||
|  | 	"strings" | ||||||
| 	"time" | 	"time" | ||||||
| ) | ) | ||||||
|  |  | ||||||
| @@ -172,6 +173,20 @@ func parseEnvToValue(envval string, fullEnvKey string, rvtype reflect.Type) (ref | |||||||
|  |  | ||||||
| 		return envcvl, nil | 		return envcvl, nil | ||||||
|  |  | ||||||
|  | 	} else if rvtype.ConvertibleTo(reflect.TypeOf(false)) { | ||||||
|  |  | ||||||
|  | 		if strings.TrimSpace(strings.ToLower(envval)) == "true" { | ||||||
|  | 			return reflect.ValueOf(true).Convert(rvtype), nil | ||||||
|  | 		} else if strings.TrimSpace(strings.ToLower(envval)) == "false" { | ||||||
|  | 			return reflect.ValueOf(false).Convert(rvtype), nil | ||||||
|  | 		} else if strings.TrimSpace(strings.ToLower(envval)) == "1" { | ||||||
|  | 			return reflect.ValueOf(true).Convert(rvtype), nil | ||||||
|  | 		} else if strings.TrimSpace(strings.ToLower(envval)) == "0" { | ||||||
|  | 			return reflect.ValueOf(false).Convert(rvtype), nil | ||||||
|  | 		} else { | ||||||
|  | 			return reflect.Value{}, errors.New(fmt.Sprintf("Failed to parse env-config variable '%s' to <%s, ,bool> (value := '%s')", rvtype.Name(), fullEnvKey, envval)) | ||||||
|  | 		} | ||||||
|  |  | ||||||
| 	} else if rvtype.ConvertibleTo(reflect.TypeOf("")) { | 	} else if rvtype.ConvertibleTo(reflect.TypeOf("")) { | ||||||
|  |  | ||||||
| 		envcvl := reflect.ValueOf(envval).Convert(rvtype) | 		envcvl := reflect.ValueOf(envval).Convert(rvtype) | ||||||
|   | |||||||
| @@ -68,6 +68,7 @@ func TestApplyEnvOverridesSimple(t *testing.T) { | |||||||
| 		V7 aliasstring   `env:"TEST_V7"` | 		V7 aliasstring   `env:"TEST_V7"` | ||||||
| 		V8 time.Duration `env:"TEST_V8"` | 		V8 time.Duration `env:"TEST_V8"` | ||||||
| 		V9 time.Time     `env:"TEST_V9"` | 		V9 time.Time     `env:"TEST_V9"` | ||||||
|  | 		VA bool          `env:"TEST_VA"` | ||||||
| 	} | 	} | ||||||
|  |  | ||||||
| 	data := testdata{ | 	data := testdata{ | ||||||
| @@ -82,6 +83,7 @@ func TestApplyEnvOverridesSimple(t *testing.T) { | |||||||
| 		V7: "7", | 		V7: "7", | ||||||
| 		V8: 9, | 		V8: 9, | ||||||
| 		V9: time.Unix(1671102873, 0), | 		V9: time.Unix(1671102873, 0), | ||||||
|  | 		VA: false, | ||||||
| 	} | 	} | ||||||
|  |  | ||||||
| 	t.Setenv("TEST_V1", "846") | 	t.Setenv("TEST_V1", "846") | ||||||
| @@ -93,6 +95,7 @@ func TestApplyEnvOverridesSimple(t *testing.T) { | |||||||
| 	t.Setenv("TEST_V7", "AAAAAA") | 	t.Setenv("TEST_V7", "AAAAAA") | ||||||
| 	t.Setenv("TEST_V8", "1min4s") | 	t.Setenv("TEST_V8", "1min4s") | ||||||
| 	t.Setenv("TEST_V9", "2009-11-10T23:00:00Z") | 	t.Setenv("TEST_V9", "2009-11-10T23:00:00Z") | ||||||
|  | 	t.Setenv("TEST_VA", "true") | ||||||
|  |  | ||||||
| 	err := ApplyEnvOverrides("", &data, ".") | 	err := ApplyEnvOverrides("", &data, ".") | ||||||
| 	if err != nil { | 	if err != nil { | ||||||
| @@ -109,6 +112,7 @@ func TestApplyEnvOverridesSimple(t *testing.T) { | |||||||
| 	tst.AssertEqual(t, data.V7, "AAAAAA") | 	tst.AssertEqual(t, data.V7, "AAAAAA") | ||||||
| 	tst.AssertEqual(t, data.V8, time.Second*64) | 	tst.AssertEqual(t, data.V8, time.Second*64) | ||||||
| 	tst.AssertEqual(t, data.V9, time.Unix(1257894000, 0).UTC()) | 	tst.AssertEqual(t, data.V9, time.Unix(1257894000, 0).UTC()) | ||||||
|  | 	tst.AssertEqual(t, data.VA, true) | ||||||
| } | } | ||||||
|  |  | ||||||
| func TestApplyEnvOverridesRecursive(t *testing.T) { | func TestApplyEnvOverridesRecursive(t *testing.T) { | ||||||
|   | |||||||
| @@ -3,6 +3,7 @@ package cryptext | |||||||
| import ( | import ( | ||||||
| 	"crypto/rand" | 	"crypto/rand" | ||||||
| 	"crypto/sha256" | 	"crypto/sha256" | ||||||
|  | 	"crypto/sha512" | ||||||
| 	"encoding/base64" | 	"encoding/base64" | ||||||
| 	"encoding/hex" | 	"encoding/hex" | ||||||
| 	"errors" | 	"errors" | ||||||
| @@ -14,14 +15,15 @@ import ( | |||||||
| 	"strings" | 	"strings" | ||||||
| ) | ) | ||||||
|  |  | ||||||
| const LatestPassHashVersion = 4 | const LatestPassHashVersion = 5 | ||||||
|  |  | ||||||
| // PassHash | // PassHash | ||||||
| // - [v0]: plaintext password ( `0|...` ) | // - [v0]: plaintext password ( `0|...` )                  // simple, used to write PW's directly in DB | ||||||
| // - [v1]: sha256(plaintext) | // - [v1]: sha256(plaintext)                               // simple hashing | ||||||
| // - [v2]: seed | sha256<seed>(plaintext) | // - [v2]: seed | sha256<seed>(plaintext)                  // add seed | ||||||
| // - [v3]: seed | sha256<seed>(plaintext) | [hex(totp)] | // - [v3]: seed | sha256<seed>(plaintext) | [hex(totp)]    // add TOTP support | ||||||
| // - [v4]: bcrypt(plaintext) | [hex(totp)] | // - [v4]: bcrypt(plaintext) | [hex(totp)]                 // use proper bcrypt | ||||||
|  | // - [v5]: bcrypt(sha512(plaintext)) | [hex(totp)]         // hash pw before bcrypt (otherwise max pw-len = 72) | ||||||
| type PassHash string | type PassHash string | ||||||
|  |  | ||||||
| func (ph PassHash) Valid() bool { | func (ph PassHash) Valid() bool { | ||||||
| @@ -109,7 +111,21 @@ func (ph PassHash) Data() (_version int, _seed []byte, _payload []byte, _totp bo | |||||||
| 		totp := false | 		totp := false | ||||||
| 		totpsecret := make([]byte, 0) | 		totpsecret := make([]byte, 0) | ||||||
| 		if split[2] != "0" { | 		if split[2] != "0" { | ||||||
| 			totpsecret, err = hex.DecodeString(split[3]) | 			totpsecret, err = hex.DecodeString(split[2]) | ||||||
|  | 			totp = true | ||||||
|  | 		} | ||||||
|  | 		return int(version), nil, payload, totp, totpsecret, true | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	if version == 5 { | ||||||
|  | 		if len(split) != 3 { | ||||||
|  | 			return -1, nil, nil, false, nil, false | ||||||
|  | 		} | ||||||
|  | 		payload := []byte(split[1]) | ||||||
|  | 		totp := false | ||||||
|  | 		totpsecret := make([]byte, 0) | ||||||
|  | 		if split[2] != "0" { | ||||||
|  | 			totpsecret, err = hex.DecodeString(split[2]) | ||||||
| 			totp = true | 			totp = true | ||||||
| 		} | 		} | ||||||
| 		return int(version), nil, payload, totp, totpsecret, true | 		return int(version), nil, payload, totp, totpsecret, true | ||||||
| @@ -156,6 +172,14 @@ func (ph PassHash) Verify(plainpass string, totp *string) bool { | |||||||
| 		} | 		} | ||||||
| 	} | 	} | ||||||
|  |  | ||||||
|  | 	if version == 5 { | ||||||
|  | 		if !hastotp { | ||||||
|  | 			return bcrypt.CompareHashAndPassword(payload, hash512(plainpass)) == nil | ||||||
|  | 		} else { | ||||||
|  | 			return bcrypt.CompareHashAndPassword(payload, hash512(plainpass)) == nil && totpext.Validate(totpsecret, *totp) | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  |  | ||||||
| 	return false | 	return false | ||||||
| } | } | ||||||
|  |  | ||||||
| @@ -209,6 +233,12 @@ func (ph PassHash) ClearTOTP() (PassHash, error) { | |||||||
| 		return PassHash(strings.Join(split, "|")), nil | 		return PassHash(strings.Join(split, "|")), nil | ||||||
| 	} | 	} | ||||||
|  |  | ||||||
|  | 	if version == 5 { | ||||||
|  | 		split := strings.Split(string(ph), "|") | ||||||
|  | 		split[2] = "0" | ||||||
|  | 		return PassHash(strings.Join(split, "|")), nil | ||||||
|  | 	} | ||||||
|  |  | ||||||
| 	return "", errors.New("unknown version") | 	return "", errors.New("unknown version") | ||||||
| } | } | ||||||
|  |  | ||||||
| @@ -242,6 +272,12 @@ func (ph PassHash) WithTOTP(totpSecret []byte) (PassHash, error) { | |||||||
| 		return PassHash(strings.Join(split, "|")), nil | 		return PassHash(strings.Join(split, "|")), nil | ||||||
| 	} | 	} | ||||||
|  |  | ||||||
|  | 	if version == 5 { | ||||||
|  | 		split := strings.Split(string(ph), "|") | ||||||
|  | 		split[2] = hex.EncodeToString(totpSecret) | ||||||
|  | 		return PassHash(strings.Join(split, "|")), nil | ||||||
|  | 	} | ||||||
|  |  | ||||||
| 	return "", errors.New("unknown version") | 	return "", errors.New("unknown version") | ||||||
| } | } | ||||||
|  |  | ||||||
| @@ -271,6 +307,10 @@ func (ph PassHash) Change(newPlainPass string) (PassHash, error) { | |||||||
| 		return HashPasswordV4(newPlainPass, langext.Conditional(hastotp, totpsecret, nil)) | 		return HashPasswordV4(newPlainPass, langext.Conditional(hastotp, totpsecret, nil)) | ||||||
| 	} | 	} | ||||||
|  |  | ||||||
|  | 	if version == 5 { | ||||||
|  | 		return HashPasswordV5(newPlainPass, langext.Conditional(hastotp, totpsecret, nil)) | ||||||
|  | 	} | ||||||
|  |  | ||||||
| 	return "", errors.New("unknown version") | 	return "", errors.New("unknown version") | ||||||
| } | } | ||||||
|  |  | ||||||
| @@ -279,7 +319,24 @@ func (ph PassHash) String() string { | |||||||
| } | } | ||||||
|  |  | ||||||
| func HashPassword(plainpass string, totpSecret []byte) (PassHash, error) { | func HashPassword(plainpass string, totpSecret []byte) (PassHash, error) { | ||||||
| 	return HashPasswordV4(plainpass, totpSecret) | 	return HashPasswordV5(plainpass, totpSecret) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func HashPasswordV5(plainpass string, totpSecret []byte) (PassHash, error) { | ||||||
|  | 	var strtotp string | ||||||
|  |  | ||||||
|  | 	if totpSecret == nil { | ||||||
|  | 		strtotp = "0" | ||||||
|  | 	} else { | ||||||
|  | 		strtotp = hex.EncodeToString(totpSecret) | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	payload, err := bcrypt.GenerateFromPassword(hash512(plainpass), bcrypt.MinCost) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return "", err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return PassHash(fmt.Sprintf("5|%s|%s", string(payload), strtotp)), nil | ||||||
| } | } | ||||||
|  |  | ||||||
| func HashPasswordV4(plainpass string, totpSecret []byte) (PassHash, error) { | func HashPasswordV4(plainpass string, totpSecret []byte) (PassHash, error) { | ||||||
| @@ -340,6 +397,13 @@ func HashPasswordV0(plainpass string) (PassHash, error) { | |||||||
| 	return PassHash(fmt.Sprintf("0|%s", plainpass)), nil | 	return PassHash(fmt.Sprintf("0|%s", plainpass)), nil | ||||||
| } | } | ||||||
|  |  | ||||||
|  | func hash512(s string) []byte { | ||||||
|  | 	h := sha512.New() | ||||||
|  | 	h.Write([]byte(s)) | ||||||
|  | 	bs := h.Sum(nil) | ||||||
|  | 	return bs | ||||||
|  | } | ||||||
|  |  | ||||||
| func hash256(s string) []byte { | func hash256(s string) []byte { | ||||||
| 	h := sha256.New() | 	h := sha256.New() | ||||||
| 	h.Write([]byte(s)) | 	h.Write([]byte(s)) | ||||||
|   | |||||||
							
								
								
									
										210
									
								
								cryptext/passHash_test.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										210
									
								
								cryptext/passHash_test.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,210 @@ | |||||||
|  | package cryptext | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"gogs.mikescher.com/BlackForestBytes/goext/langext" | ||||||
|  | 	"gogs.mikescher.com/BlackForestBytes/goext/totpext" | ||||||
|  | 	"gogs.mikescher.com/BlackForestBytes/goext/tst" | ||||||
|  | 	"testing" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | func TestPassHash1(t *testing.T) { | ||||||
|  | 	ph, err := HashPassword("test123", nil) | ||||||
|  | 	tst.AssertNoErr(t, err) | ||||||
|  |  | ||||||
|  | 	tst.AssertTrue(t, ph.Valid()) | ||||||
|  | 	tst.AssertFalse(t, ph.HasTOTP()) | ||||||
|  | 	tst.AssertFalse(t, ph.NeedsPasswordUpgrade()) | ||||||
|  |  | ||||||
|  | 	tst.AssertTrue(t, ph.Verify("test123", nil)) | ||||||
|  | 	tst.AssertFalse(t, ph.Verify("test124", nil)) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func TestPassHashTOTP(t *testing.T) { | ||||||
|  | 	sec, err := totpext.GenerateSecret() | ||||||
|  | 	tst.AssertNoErr(t, err) | ||||||
|  |  | ||||||
|  | 	ph, err := HashPassword("test123", sec) | ||||||
|  | 	tst.AssertNoErr(t, err) | ||||||
|  |  | ||||||
|  | 	tst.AssertTrue(t, ph.Valid()) | ||||||
|  | 	tst.AssertTrue(t, ph.HasTOTP()) | ||||||
|  | 	tst.AssertFalse(t, ph.NeedsPasswordUpgrade()) | ||||||
|  |  | ||||||
|  | 	tst.AssertFalse(t, ph.Verify("test123", nil)) | ||||||
|  | 	tst.AssertFalse(t, ph.Verify("test124", nil)) | ||||||
|  | 	tst.AssertTrue(t, ph.Verify("test123", langext.Ptr(totpext.TOTP(sec)))) | ||||||
|  | 	tst.AssertFalse(t, ph.Verify("test124", nil)) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func TestPassHashUpgrade_V0(t *testing.T) { | ||||||
|  | 	ph, err := HashPasswordV0("test123") | ||||||
|  | 	tst.AssertNoErr(t, err) | ||||||
|  |  | ||||||
|  | 	tst.AssertTrue(t, ph.Valid()) | ||||||
|  | 	tst.AssertFalse(t, ph.HasTOTP()) | ||||||
|  | 	tst.AssertTrue(t, ph.NeedsPasswordUpgrade()) | ||||||
|  |  | ||||||
|  | 	tst.AssertTrue(t, ph.Verify("test123", nil)) | ||||||
|  | 	tst.AssertFalse(t, ph.Verify("test124", nil)) | ||||||
|  |  | ||||||
|  | 	ph, err = ph.Upgrade("test123") | ||||||
|  | 	tst.AssertNoErr(t, err) | ||||||
|  |  | ||||||
|  | 	tst.AssertTrue(t, ph.Valid()) | ||||||
|  | 	tst.AssertFalse(t, ph.HasTOTP()) | ||||||
|  | 	tst.AssertFalse(t, ph.NeedsPasswordUpgrade()) | ||||||
|  |  | ||||||
|  | 	tst.AssertTrue(t, ph.Verify("test123", nil)) | ||||||
|  | 	tst.AssertFalse(t, ph.Verify("test124", nil)) | ||||||
|  |  | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func TestPassHashUpgrade_V1(t *testing.T) { | ||||||
|  | 	ph, err := HashPasswordV1("test123") | ||||||
|  | 	tst.AssertNoErr(t, err) | ||||||
|  |  | ||||||
|  | 	tst.AssertTrue(t, ph.Valid()) | ||||||
|  | 	tst.AssertFalse(t, ph.HasTOTP()) | ||||||
|  | 	tst.AssertTrue(t, ph.NeedsPasswordUpgrade()) | ||||||
|  |  | ||||||
|  | 	tst.AssertTrue(t, ph.Verify("test123", nil)) | ||||||
|  | 	tst.AssertFalse(t, ph.Verify("test124", nil)) | ||||||
|  |  | ||||||
|  | 	ph, err = ph.Upgrade("test123") | ||||||
|  | 	tst.AssertNoErr(t, err) | ||||||
|  |  | ||||||
|  | 	tst.AssertTrue(t, ph.Valid()) | ||||||
|  | 	tst.AssertFalse(t, ph.HasTOTP()) | ||||||
|  | 	tst.AssertFalse(t, ph.NeedsPasswordUpgrade()) | ||||||
|  |  | ||||||
|  | 	tst.AssertTrue(t, ph.Verify("test123", nil)) | ||||||
|  | 	tst.AssertFalse(t, ph.Verify("test124", nil)) | ||||||
|  |  | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func TestPassHashUpgrade_V2(t *testing.T) { | ||||||
|  | 	ph, err := HashPasswordV2("test123") | ||||||
|  | 	tst.AssertNoErr(t, err) | ||||||
|  |  | ||||||
|  | 	tst.AssertTrue(t, ph.Valid()) | ||||||
|  | 	tst.AssertFalse(t, ph.HasTOTP()) | ||||||
|  | 	tst.AssertTrue(t, ph.NeedsPasswordUpgrade()) | ||||||
|  |  | ||||||
|  | 	tst.AssertTrue(t, ph.Verify("test123", nil)) | ||||||
|  | 	tst.AssertFalse(t, ph.Verify("test124", nil)) | ||||||
|  |  | ||||||
|  | 	ph, err = ph.Upgrade("test123") | ||||||
|  | 	tst.AssertNoErr(t, err) | ||||||
|  |  | ||||||
|  | 	tst.AssertTrue(t, ph.Valid()) | ||||||
|  | 	tst.AssertFalse(t, ph.HasTOTP()) | ||||||
|  | 	tst.AssertFalse(t, ph.NeedsPasswordUpgrade()) | ||||||
|  |  | ||||||
|  | 	tst.AssertTrue(t, ph.Verify("test123", nil)) | ||||||
|  | 	tst.AssertFalse(t, ph.Verify("test124", nil)) | ||||||
|  |  | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func TestPassHashUpgrade_V3(t *testing.T) { | ||||||
|  | 	ph, err := HashPasswordV3("test123", nil) | ||||||
|  | 	tst.AssertNoErr(t, err) | ||||||
|  |  | ||||||
|  | 	tst.AssertTrue(t, ph.Valid()) | ||||||
|  | 	tst.AssertFalse(t, ph.HasTOTP()) | ||||||
|  | 	tst.AssertTrue(t, ph.NeedsPasswordUpgrade()) | ||||||
|  |  | ||||||
|  | 	tst.AssertTrue(t, ph.Verify("test123", nil)) | ||||||
|  | 	tst.AssertFalse(t, ph.Verify("test124", nil)) | ||||||
|  |  | ||||||
|  | 	ph, err = ph.Upgrade("test123") | ||||||
|  | 	tst.AssertNoErr(t, err) | ||||||
|  |  | ||||||
|  | 	tst.AssertTrue(t, ph.Valid()) | ||||||
|  | 	tst.AssertFalse(t, ph.HasTOTP()) | ||||||
|  | 	tst.AssertFalse(t, ph.NeedsPasswordUpgrade()) | ||||||
|  |  | ||||||
|  | 	tst.AssertTrue(t, ph.Verify("test123", nil)) | ||||||
|  | 	tst.AssertFalse(t, ph.Verify("test124", nil)) | ||||||
|  |  | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func TestPassHashUpgrade_V3_TOTP(t *testing.T) { | ||||||
|  | 	sec, err := totpext.GenerateSecret() | ||||||
|  | 	tst.AssertNoErr(t, err) | ||||||
|  |  | ||||||
|  | 	ph, err := HashPasswordV3("test123", sec) | ||||||
|  | 	tst.AssertNoErr(t, err) | ||||||
|  |  | ||||||
|  | 	tst.AssertTrue(t, ph.Valid()) | ||||||
|  | 	tst.AssertTrue(t, ph.HasTOTP()) | ||||||
|  | 	tst.AssertTrue(t, ph.NeedsPasswordUpgrade()) | ||||||
|  |  | ||||||
|  | 	tst.AssertFalse(t, ph.Verify("test123", nil)) | ||||||
|  | 	tst.AssertFalse(t, ph.Verify("test124", nil)) | ||||||
|  | 	tst.AssertTrue(t, ph.Verify("test123", langext.Ptr(totpext.TOTP(sec)))) | ||||||
|  | 	tst.AssertFalse(t, ph.Verify("test124", nil)) | ||||||
|  |  | ||||||
|  | 	ph, err = ph.Upgrade("test123") | ||||||
|  | 	tst.AssertNoErr(t, err) | ||||||
|  |  | ||||||
|  | 	tst.AssertTrue(t, ph.Valid()) | ||||||
|  | 	tst.AssertTrue(t, ph.HasTOTP()) | ||||||
|  | 	tst.AssertFalse(t, ph.NeedsPasswordUpgrade()) | ||||||
|  |  | ||||||
|  | 	tst.AssertFalse(t, ph.Verify("test123", nil)) | ||||||
|  | 	tst.AssertFalse(t, ph.Verify("test124", nil)) | ||||||
|  | 	tst.AssertTrue(t, ph.Verify("test123", langext.Ptr(totpext.TOTP(sec)))) | ||||||
|  | 	tst.AssertFalse(t, ph.Verify("test124", nil)) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func TestPassHashUpgrade_V4(t *testing.T) { | ||||||
|  | 	ph, err := HashPasswordV4("test123", nil) | ||||||
|  | 	tst.AssertNoErr(t, err) | ||||||
|  |  | ||||||
|  | 	tst.AssertTrue(t, ph.Valid()) | ||||||
|  | 	tst.AssertFalse(t, ph.HasTOTP()) | ||||||
|  | 	tst.AssertTrue(t, ph.NeedsPasswordUpgrade()) | ||||||
|  |  | ||||||
|  | 	tst.AssertTrue(t, ph.Verify("test123", nil)) | ||||||
|  | 	tst.AssertFalse(t, ph.Verify("test124", nil)) | ||||||
|  |  | ||||||
|  | 	ph, err = ph.Upgrade("test123") | ||||||
|  | 	tst.AssertNoErr(t, err) | ||||||
|  |  | ||||||
|  | 	tst.AssertTrue(t, ph.Valid()) | ||||||
|  | 	tst.AssertFalse(t, ph.HasTOTP()) | ||||||
|  | 	tst.AssertFalse(t, ph.NeedsPasswordUpgrade()) | ||||||
|  |  | ||||||
|  | 	tst.AssertTrue(t, ph.Verify("test123", nil)) | ||||||
|  | 	tst.AssertFalse(t, ph.Verify("test124", nil)) | ||||||
|  |  | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func TestPassHashUpgrade_V4_TOTP(t *testing.T) { | ||||||
|  | 	sec, err := totpext.GenerateSecret() | ||||||
|  | 	tst.AssertNoErr(t, err) | ||||||
|  |  | ||||||
|  | 	ph, err := HashPasswordV4("test123", sec) | ||||||
|  | 	tst.AssertNoErr(t, err) | ||||||
|  |  | ||||||
|  | 	tst.AssertTrue(t, ph.Valid()) | ||||||
|  | 	tst.AssertTrue(t, ph.HasTOTP()) | ||||||
|  | 	tst.AssertTrue(t, ph.NeedsPasswordUpgrade()) | ||||||
|  |  | ||||||
|  | 	tst.AssertFalse(t, ph.Verify("test123", nil)) | ||||||
|  | 	tst.AssertFalse(t, ph.Verify("test124", nil)) | ||||||
|  | 	tst.AssertTrue(t, ph.Verify("test123", langext.Ptr(totpext.TOTP(sec)))) | ||||||
|  | 	tst.AssertFalse(t, ph.Verify("test124", nil)) | ||||||
|  |  | ||||||
|  | 	ph, err = ph.Upgrade("test123") | ||||||
|  | 	tst.AssertNoErr(t, err) | ||||||
|  |  | ||||||
|  | 	tst.AssertTrue(t, ph.Valid()) | ||||||
|  | 	tst.AssertTrue(t, ph.HasTOTP()) | ||||||
|  | 	tst.AssertFalse(t, ph.NeedsPasswordUpgrade()) | ||||||
|  |  | ||||||
|  | 	tst.AssertFalse(t, ph.Verify("test123", nil)) | ||||||
|  | 	tst.AssertFalse(t, ph.Verify("test124", nil)) | ||||||
|  | 	tst.AssertTrue(t, ph.Verify("test123", langext.Ptr(totpext.TOTP(sec)))) | ||||||
|  | 	tst.AssertFalse(t, ph.Verify("test124", nil)) | ||||||
|  | } | ||||||
							
								
								
									
										8
									
								
								cursortoken/direction.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										8
									
								
								cursortoken/direction.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,8 @@ | |||||||
|  | package cursortoken | ||||||
|  |  | ||||||
|  | type SortDirection string //@enum:type | ||||||
|  |  | ||||||
|  | const ( | ||||||
|  | 	SortASC  SortDirection = "ASC" | ||||||
|  | 	SortDESC SortDirection = "DESC" | ||||||
|  | ) | ||||||
							
								
								
									
										10
									
								
								cursortoken/filter.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										10
									
								
								cursortoken/filter.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,10 @@ | |||||||
|  | package cursortoken | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"go.mongodb.org/mongo-driver/mongo" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | type Filter interface { | ||||||
|  | 	FilterQuery() mongo.Pipeline | ||||||
|  | 	Pagination() (string, SortDirection, string, SortDirection) | ||||||
|  | } | ||||||
							
								
								
									
										184
									
								
								cursortoken/token.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										184
									
								
								cursortoken/token.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,184 @@ | |||||||
|  | package cursortoken | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"encoding/base32" | ||||||
|  | 	"encoding/json" | ||||||
|  | 	"errors" | ||||||
|  | 	"go.mongodb.org/mongo-driver/bson/primitive" | ||||||
|  | 	"strings" | ||||||
|  | 	"time" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | type Mode string | ||||||
|  |  | ||||||
|  | const ( | ||||||
|  | 	CTMStart  Mode = "START" | ||||||
|  | 	CTMNormal Mode = "NORMAL" | ||||||
|  | 	CTMEnd    Mode = "END" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | type Extra struct { | ||||||
|  | 	Timestamp *time.Time | ||||||
|  | 	Id        *string | ||||||
|  | 	Page      *int | ||||||
|  | 	PageSize  *int | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type CursorToken struct { | ||||||
|  | 	Mode               Mode | ||||||
|  | 	ValuePrimary       string | ||||||
|  | 	ValueSecondary     string | ||||||
|  | 	Direction          SortDirection | ||||||
|  | 	DirectionSecondary SortDirection | ||||||
|  | 	PageSize           int | ||||||
|  | 	Extra              Extra | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type cursorTokenSerialize struct { | ||||||
|  | 	ValuePrimary       *string        `json:"v1,omitempty"` | ||||||
|  | 	ValueSecondary     *string        `json:"v2,omitempty"` | ||||||
|  | 	Direction          *SortDirection `json:"dir,omitempty"` | ||||||
|  | 	DirectionSecondary *SortDirection `json:"dir2,omitempty"` | ||||||
|  | 	PageSize           *int           `json:"size,omitempty"` | ||||||
|  |  | ||||||
|  | 	ExtraTimestamp *time.Time `json:"ts,omitempty"` | ||||||
|  | 	ExtraId        *string    `json:"id,omitempty"` | ||||||
|  | 	ExtraPage      *int       `json:"pg,omitempty"` | ||||||
|  | 	ExtraPageSize  *int       `json:"sz,omitempty"` | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func Start() CursorToken { | ||||||
|  | 	return CursorToken{ | ||||||
|  | 		Mode:               CTMStart, | ||||||
|  | 		ValuePrimary:       "", | ||||||
|  | 		ValueSecondary:     "", | ||||||
|  | 		Direction:          "", | ||||||
|  | 		DirectionSecondary: "", | ||||||
|  | 		PageSize:           0, | ||||||
|  | 		Extra:              Extra{}, | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func End() CursorToken { | ||||||
|  | 	return CursorToken{ | ||||||
|  | 		Mode:               CTMEnd, | ||||||
|  | 		ValuePrimary:       "", | ||||||
|  | 		ValueSecondary:     "", | ||||||
|  | 		Direction:          "", | ||||||
|  | 		DirectionSecondary: "", | ||||||
|  | 		PageSize:           0, | ||||||
|  | 		Extra:              Extra{}, | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (c *CursorToken) Token() string { | ||||||
|  | 	if c.Mode == CTMStart { | ||||||
|  | 		return "@start" | ||||||
|  | 	} | ||||||
|  | 	if c.Mode == CTMEnd { | ||||||
|  | 		return "@end" | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	// We kinda manually implement omitempty for the CursorToken here | ||||||
|  | 	// because omitempty does not work for time.Time and otherwise we would always | ||||||
|  | 	// get weird time values when decoding a token that initially didn't have an Timestamp set | ||||||
|  | 	// For this usecase we treat Unix=0 as an empty timestamp | ||||||
|  |  | ||||||
|  | 	sertok := cursorTokenSerialize{} | ||||||
|  |  | ||||||
|  | 	if c.ValuePrimary != "" { | ||||||
|  | 		sertok.ValuePrimary = &c.ValuePrimary | ||||||
|  | 	} | ||||||
|  | 	if c.ValueSecondary != "" { | ||||||
|  | 		sertok.ValueSecondary = &c.ValueSecondary | ||||||
|  | 	} | ||||||
|  | 	if c.Direction != "" { | ||||||
|  | 		sertok.Direction = &c.Direction | ||||||
|  | 	} | ||||||
|  | 	if c.DirectionSecondary != "" { | ||||||
|  | 		sertok.DirectionSecondary = &c.DirectionSecondary | ||||||
|  | 	} | ||||||
|  | 	if c.PageSize != 0 { | ||||||
|  | 		sertok.PageSize = &c.PageSize | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	sertok.ExtraTimestamp = c.Extra.Timestamp | ||||||
|  | 	sertok.ExtraId = c.Extra.Id | ||||||
|  | 	sertok.ExtraPage = c.Extra.Page | ||||||
|  | 	sertok.ExtraPageSize = c.Extra.PageSize | ||||||
|  |  | ||||||
|  | 	body, err := json.Marshal(sertok) | ||||||
|  | 	if err != nil { | ||||||
|  | 		panic(err) | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return "tok_" + base32.StdEncoding.EncodeToString(body) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func Decode(tok string) (CursorToken, error) { | ||||||
|  | 	if tok == "" { | ||||||
|  | 		return Start(), nil | ||||||
|  | 	} | ||||||
|  | 	if strings.ToLower(tok) == "@start" { | ||||||
|  | 		return Start(), nil | ||||||
|  | 	} | ||||||
|  | 	if strings.ToLower(tok) == "@end" { | ||||||
|  | 		return End(), nil | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	if !strings.HasPrefix(tok, "tok_") { | ||||||
|  | 		return CursorToken{}, errors.New("could not decode token, missing prefix") | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	body, err := base32.StdEncoding.DecodeString(tok[len("tok_"):]) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return CursorToken{}, err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	var tokenDeserialize cursorTokenSerialize | ||||||
|  | 	err = json.Unmarshal(body, &tokenDeserialize) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return CursorToken{}, err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	token := CursorToken{Mode: CTMNormal} | ||||||
|  |  | ||||||
|  | 	if tokenDeserialize.ValuePrimary != nil { | ||||||
|  | 		token.ValuePrimary = *tokenDeserialize.ValuePrimary | ||||||
|  | 	} | ||||||
|  | 	if tokenDeserialize.ValueSecondary != nil { | ||||||
|  | 		token.ValueSecondary = *tokenDeserialize.ValueSecondary | ||||||
|  | 	} | ||||||
|  | 	if tokenDeserialize.Direction != nil { | ||||||
|  | 		token.Direction = *tokenDeserialize.Direction | ||||||
|  | 	} | ||||||
|  | 	if tokenDeserialize.DirectionSecondary != nil { | ||||||
|  | 		token.DirectionSecondary = *tokenDeserialize.DirectionSecondary | ||||||
|  | 	} | ||||||
|  | 	if tokenDeserialize.PageSize != nil { | ||||||
|  | 		token.PageSize = *tokenDeserialize.PageSize | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	token.Extra.Timestamp = tokenDeserialize.ExtraTimestamp | ||||||
|  | 	token.Extra.Id = tokenDeserialize.ExtraId | ||||||
|  | 	token.Extra.Page = tokenDeserialize.ExtraPage | ||||||
|  | 	token.Extra.PageSize = tokenDeserialize.ExtraPageSize | ||||||
|  |  | ||||||
|  | 	return token, nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (c *CursorToken) ValuePrimaryObjectId() (primitive.ObjectID, bool) { | ||||||
|  | 	if oid, err := primitive.ObjectIDFromHex(c.ValuePrimary); err == nil { | ||||||
|  | 		return oid, true | ||||||
|  | 	} else { | ||||||
|  | 		return primitive.ObjectID{}, false | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (c *CursorToken) ValueSecondaryObjectId() (primitive.ObjectID, bool) { | ||||||
|  | 	if oid, err := primitive.ObjectIDFromHex(c.ValueSecondary); err == nil { | ||||||
|  | 		return oid, true | ||||||
|  | 	} else { | ||||||
|  | 		return primitive.ObjectID{}, false | ||||||
|  | 	} | ||||||
|  | } | ||||||
							
								
								
									
										16
									
								
								ginext/apiError.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										16
									
								
								ginext/apiError.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,16 @@ | |||||||
|  | package ginext | ||||||
|  |  | ||||||
|  | type apiError struct { | ||||||
|  | 	ErrorCode        string  `json:"errorcode"` | ||||||
|  | 	Message          string  `json:"message"` | ||||||
|  | 	FAPIErrorMessage *string `json:"fapiMessage,omitempty"` | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type extAPIError struct { | ||||||
|  | 	ErrorCode        string  `json:"errorcode"` | ||||||
|  | 	Message          string  `json:"message"` | ||||||
|  | 	FAPIErrorMessage *string `json:"fapiMessage,omitempty"` | ||||||
|  |  | ||||||
|  | 	RawError *string  `json:"__error"` | ||||||
|  | 	Trace    []string `json:"__trace"` | ||||||
|  | } | ||||||
							
								
								
									
										59
									
								
								ginext/appContext.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										59
									
								
								ginext/appContext.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,59 @@ | |||||||
|  | package ginext | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"context" | ||||||
|  | 	"github.com/gin-gonic/gin" | ||||||
|  | 	"time" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | type AppContext struct { | ||||||
|  | 	inner      context.Context | ||||||
|  | 	cancelFunc context.CancelFunc | ||||||
|  | 	cancelled  bool | ||||||
|  | 	GinContext *gin.Context | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func CreateAppContext(g *gin.Context, innerCtx context.Context, cancelFn context.CancelFunc) *AppContext { | ||||||
|  | 	return &AppContext{ | ||||||
|  | 		inner:      innerCtx, | ||||||
|  | 		cancelFunc: cancelFn, | ||||||
|  | 		cancelled:  false, | ||||||
|  | 		GinContext: g, | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (ac *AppContext) Deadline() (deadline time.Time, ok bool) { | ||||||
|  | 	return ac.inner.Deadline() | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (ac *AppContext) Done() <-chan struct{} { | ||||||
|  | 	return ac.inner.Done() | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (ac *AppContext) Err() error { | ||||||
|  | 	return ac.inner.Err() | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (ac *AppContext) Value(key any) any { | ||||||
|  | 	return ac.inner.Value(key) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (ac *AppContext) Cancel() { | ||||||
|  | 	ac.cancelled = true | ||||||
|  | 	ac.cancelFunc() | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (ac *AppContext) RequestURI() string { | ||||||
|  | 	if ac.GinContext != nil && ac.GinContext.Request != nil { | ||||||
|  | 		return ac.GinContext.Request.Method + " :: " + ac.GinContext.Request.RequestURI | ||||||
|  | 	} else { | ||||||
|  | 		return "" | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (ac *AppContext) FinishSuccess(res HTTPResponse) HTTPResponse { | ||||||
|  | 	if ac.cancelled { | ||||||
|  | 		panic("Cannot finish a cancelled request") | ||||||
|  | 	} | ||||||
|  | 	return res | ||||||
|  | } | ||||||
							
								
								
									
										21
									
								
								ginext/commonApiErr/enums.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										21
									
								
								ginext/commonApiErr/enums.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,21 @@ | |||||||
|  | package commonApiErr | ||||||
|  |  | ||||||
|  | type APIErrorCode struct { | ||||||
|  | 	HTTPStatusCode int | ||||||
|  | 	Key            string | ||||||
|  | } | ||||||
|  |  | ||||||
|  | //goland:noinspection GoSnakeCaseUsage | ||||||
|  | var ( | ||||||
|  | 	NotImplemented = APIErrorCode{500, "NOT_IMPLEMENTED"} | ||||||
|  | 	InternalError  = APIErrorCode{500, "INTERNAL_ERROR"} | ||||||
|  | 	Panic          = APIErrorCode{500, "PANIC"} | ||||||
|  |  | ||||||
|  | 	BindFailURI      = APIErrorCode{400, "BINDFAIL_URI"} | ||||||
|  | 	BindFailQuery    = APIErrorCode{400, "BINDFAIL_QUERY"} | ||||||
|  | 	BindFailJSON     = APIErrorCode{400, "BINDFAIL_JSON"} | ||||||
|  | 	BindFailFormData = APIErrorCode{400, "BINDFAIL_FORMDATA"} | ||||||
|  |  | ||||||
|  | 	Unauthorized = APIErrorCode{401, "UNAUTHORIZED"} | ||||||
|  | 	AuthFailed   = APIErrorCode{401, "AUTH_FAILED"} | ||||||
|  | ) | ||||||
							
								
								
									
										23
									
								
								ginext/commonHandler.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										23
									
								
								ginext/commonHandler.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,23 @@ | |||||||
|  | package ginext | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"net/http" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | func RedirectFound(newuri string) WHandlerFunc { | ||||||
|  | 	return func(pctx PreContext) HTTPResponse { | ||||||
|  | 		return Redirect(http.StatusFound, newuri) | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func RedirectTemporary(newuri string) WHandlerFunc { | ||||||
|  | 	return func(pctx PreContext) HTTPResponse { | ||||||
|  | 		return Redirect(http.StatusTemporaryRedirect, newuri) | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func RedirectPermanent(newuri string) WHandlerFunc { | ||||||
|  | 	return func(pctx PreContext) HTTPResponse { | ||||||
|  | 		return Redirect(http.StatusPermanentRedirect, newuri) | ||||||
|  | 	} | ||||||
|  | } | ||||||
							
								
								
									
										21
									
								
								ginext/cors.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										21
									
								
								ginext/cors.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,21 @@ | |||||||
|  | package ginext | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"github.com/gin-gonic/gin" | ||||||
|  | 	"net/http" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | func CorsMiddleware() gin.HandlerFunc { | ||||||
|  | 	return func(c *gin.Context) { | ||||||
|  | 		c.Writer.Header().Set("Access-Control-Allow-Origin", "*") | ||||||
|  | 		c.Writer.Header().Set("Access-Control-Allow-Credentials", "true") | ||||||
|  | 		c.Writer.Header().Set("Access-Control-Allow-Headers", "Content-Type, Content-Length, Accept-Encoding, X-CSRF-Token, Authorization, accept, origin, Cache-Control, X-Requested-With") | ||||||
|  | 		c.Writer.Header().Set("Access-Control-Allow-Methods", "OPTIONS, GET, POST, PUT, PATCH, DELETE, COUNT") | ||||||
|  |  | ||||||
|  | 		if c.Request.Method == "OPTIONS" { | ||||||
|  | 			c.AbortWithStatus(http.StatusOK) | ||||||
|  | 		} else { | ||||||
|  | 			c.Next() | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | } | ||||||
							
								
								
									
										52
									
								
								ginext/engine.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										52
									
								
								ginext/engine.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,52 @@ | |||||||
|  | package ginext | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"github.com/gin-gonic/gin" | ||||||
|  | 	"net/http" | ||||||
|  | 	"time" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | type GinWrapper struct { | ||||||
|  | 	engine          *gin.Engine | ||||||
|  | 	SuppressGinLogs bool | ||||||
|  |  | ||||||
|  | 	allowCors       bool | ||||||
|  | 	ginDebug        bool | ||||||
|  | 	returnRawErrors bool | ||||||
|  | 	requestTimeout  time.Duration | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func NewEngine(allowCors bool, ginDebug bool, returnRawErrors bool, timeout time.Duration) *GinWrapper { | ||||||
|  | 	engine := gin.New() | ||||||
|  |  | ||||||
|  | 	wrapper := &GinWrapper{ | ||||||
|  | 		engine:          engine, | ||||||
|  | 		SuppressGinLogs: false, | ||||||
|  | 		allowCors:       allowCors, | ||||||
|  | 		ginDebug:        ginDebug, | ||||||
|  | 		returnRawErrors: returnRawErrors, | ||||||
|  | 		requestTimeout:  timeout, | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	engine.RedirectFixedPath = false | ||||||
|  | 	engine.RedirectTrailingSlash = false | ||||||
|  |  | ||||||
|  | 	if allowCors { | ||||||
|  | 		engine.Use(CorsMiddleware()) | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	if ginDebug { | ||||||
|  | 		ginlogger := gin.Logger() | ||||||
|  | 		engine.Use(func(context *gin.Context) { | ||||||
|  | 			if !wrapper.SuppressGinLogs { | ||||||
|  | 				ginlogger(context) | ||||||
|  | 			} | ||||||
|  | 		}) | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return wrapper | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (w *GinWrapper) ServeHTTP(writer http.ResponseWriter, request *http.Request) { | ||||||
|  | 	w.engine.ServeHTTP(writer, request) | ||||||
|  | } | ||||||
							
								
								
									
										38
									
								
								ginext/funcWrapper.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										38
									
								
								ginext/funcWrapper.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,38 @@ | |||||||
|  | package ginext | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"errors" | ||||||
|  | 	"fmt" | ||||||
|  | 	"github.com/gin-gonic/gin" | ||||||
|  | 	"github.com/rs/zerolog/log" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | type WHandlerFunc func(PreContext) HTTPResponse | ||||||
|  |  | ||||||
|  | func Wrap(w *GinWrapper, fn WHandlerFunc) gin.HandlerFunc { | ||||||
|  |  | ||||||
|  | 	return func(g *gin.Context) { | ||||||
|  |  | ||||||
|  | 		g.Set("__returnRawErrors", w.returnRawErrors) | ||||||
|  |  | ||||||
|  | 		reqctx := g.Request.Context() | ||||||
|  |  | ||||||
|  | 		wrap, stackTrace, panicObj := callPanicSafe(fn, PreContext{wrapper: w, ginCtx: g}) | ||||||
|  | 		if panicObj != nil { | ||||||
|  | 			fmt.Printf("\n======== ======== STACKTRACE ======== ========\n%s\n======== ======== ======== ========\n\n", stackTrace) | ||||||
|  | 			log.Error(). | ||||||
|  | 				Interface("panicObj", panicObj). | ||||||
|  | 				Str("trace", stackTrace). | ||||||
|  | 				Msg("Panic occured (in gin handler)") | ||||||
|  | 			wrap = APIError(g, commonApiErr.Panic, "A panic occured in the HTTP handler", errors.New(fmt.Sprintf("%+v", panicObj))) | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		if g.Writer.Written() { | ||||||
|  | 			panic("Writing in WrapperFunc is not supported") | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		if reqctx.Err() == nil { | ||||||
|  | 			wrap.Write(g) | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | } | ||||||
							
								
								
									
										90
									
								
								ginext/preContext.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										90
									
								
								ginext/preContext.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,90 @@ | |||||||
|  | package ginext | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"context" | ||||||
|  | 	"github.com/gin-gonic/gin" | ||||||
|  | 	"github.com/gin-gonic/gin/binding" | ||||||
|  | 	"gogs.mikescher.com/BlackForestBytes/goext/langext" | ||||||
|  | 	"runtime/debug" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | type PreContext struct { | ||||||
|  | 	ginCtx  *gin.Context | ||||||
|  | 	wrapper *GinWrapper | ||||||
|  | 	uri     any | ||||||
|  | 	query   any | ||||||
|  | 	body    any | ||||||
|  | 	form    any | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (pctx *PreContext) URI(uri any) *PreContext { | ||||||
|  | 	pctx.uri = uri | ||||||
|  | 	return pctx | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (pctx *PreContext) Query(query any) *PreContext { | ||||||
|  | 	pctx.query = query | ||||||
|  | 	return pctx | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (pctx *PreContext) Body(body any) *PreContext { | ||||||
|  | 	pctx.body = body | ||||||
|  | 	return pctx | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (pctx *PreContext) Form(form any) *PreContext { | ||||||
|  | 	pctx.form = form | ||||||
|  | 	return pctx | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (pctx PreContext) Start() (*AppContext, *gin.Context, *HTTPResponse) { | ||||||
|  | 	if pctx.uri != nil { | ||||||
|  | 		if err := pctx.ginCtx.ShouldBindUri(pctx.uri); err != nil { | ||||||
|  | 			return nil, nil, langext.Ptr(APIError(pctx.ginCtx, commonApiErr.BindFailURI, "Failed to read uri", err)) | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	if pctx.query != nil { | ||||||
|  | 		if err := pctx.ginCtx.ShouldBindQuery(pctx.query); err != nil { | ||||||
|  | 			return nil, nil, langext.Ptr(APIError(pctx.ginCtx, commonApiErr.BindFailQuery, "Failed to read query", err)) | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	if pctx.body != nil { | ||||||
|  | 		if pctx.ginCtx.ContentType() == "application/json" { | ||||||
|  | 			if err := pctx.ginCtx.ShouldBindJSON(pctx.body); err != nil { | ||||||
|  | 				return nil, nil, langext.Ptr(APIError(pctx.ginCtx, commonApiErr.BindFailJSON, "Failed to read body", err)) | ||||||
|  | 			} | ||||||
|  | 		} else { | ||||||
|  | 			return nil, nil, langext.Ptr(APIError(pctx.ginCtx, commonApiErr.BindFailJSON, "missing JSON body", nil)) | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	if pctx.form != nil { | ||||||
|  | 		if pctx.ginCtx.ContentType() == "multipart/form-data" { | ||||||
|  | 			if err := pctx.ginCtx.ShouldBindWith(pctx.form, binding.Form); err != nil { | ||||||
|  | 				return nil, nil, langext.Ptr(APIError(pctx.ginCtx, commonApiErr.BindFailFormData, "Failed to read multipart-form", err)) | ||||||
|  | 			} | ||||||
|  | 		} else { | ||||||
|  | 			return nil, nil, langext.Ptr(APIError(pctx.ginCtx, commonApiErr.BindFailJSON, "missing form body", nil)) | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	ictx, cancel := context.WithTimeout(context.Background(), pctx.wrapper.requestTimeout) | ||||||
|  | 	actx := CreateAppContext(pctx.ginCtx, ictx, cancel) | ||||||
|  |  | ||||||
|  | 	return actx, pctx.ginCtx, nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func callPanicSafe(fn WHandlerFunc, pctx PreContext) (res HTTPResponse, stackTrace string, panicObj any) { | ||||||
|  | 	defer func() { | ||||||
|  | 		if rec := recover(); rec != nil { | ||||||
|  | 			res = nil | ||||||
|  | 			stackTrace = string(debug.Stack()) | ||||||
|  | 			panicObj = rec | ||||||
|  | 		} | ||||||
|  | 	}() | ||||||
|  |  | ||||||
|  | 	res = fn(pctx) | ||||||
|  | 	return res, "", nil | ||||||
|  | } | ||||||
							
								
								
									
										153
									
								
								ginext/response.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										153
									
								
								ginext/response.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,153 @@ | |||||||
|  | package ginext | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"fmt" | ||||||
|  | 	"github.com/gin-gonic/gin" | ||||||
|  | 	"github.com/rs/zerolog/log" | ||||||
|  | 	json "gogs.mikescher.com/BlackForestBytes/goext/gojson" | ||||||
|  | 	"gogs.mikescher.com/BlackForestBytes/goext/langext" | ||||||
|  | 	"runtime/debug" | ||||||
|  | 	"strings" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | type HTTPResponse interface { | ||||||
|  | 	Write(g *gin.Context) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type jsonHTTPResponse struct { | ||||||
|  | 	statusCode int | ||||||
|  | 	data       any | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (j jsonHTTPResponse) Write(g *gin.Context) { | ||||||
|  | 	g.Render(j.statusCode, json.GoJsonRender{Data: j.data, NilSafeSlices: true, NilSafeMaps: true}) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type emptyHTTPResponse struct { | ||||||
|  | 	statusCode int | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (j emptyHTTPResponse) Write(g *gin.Context) { | ||||||
|  | 	g.Status(j.statusCode) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type textHTTPResponse struct { | ||||||
|  | 	statusCode int | ||||||
|  | 	data       string | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (j textHTTPResponse) Write(g *gin.Context) { | ||||||
|  | 	g.String(j.statusCode, "%s", j.data) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type dataHTTPResponse struct { | ||||||
|  | 	statusCode  int | ||||||
|  | 	data        []byte | ||||||
|  | 	contentType string | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (j dataHTTPResponse) Write(g *gin.Context) { | ||||||
|  | 	g.Data(j.statusCode, j.contentType, j.data) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type fileHTTPResponse struct { | ||||||
|  | 	mimetype string | ||||||
|  | 	filepath string | ||||||
|  | 	filename *string | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (j fileHTTPResponse) Write(g *gin.Context) { | ||||||
|  | 	g.Header("Content-Type", j.mimetype) // if we don't set it here gin does weird file-sniffing later... | ||||||
|  | 	if j.filename != nil { | ||||||
|  | 		g.Header("Content-Disposition", fmt.Sprintf("attachment; filename=\"%s\"", *j.filename)) | ||||||
|  |  | ||||||
|  | 	} | ||||||
|  | 	g.File(j.filepath) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type redirectHTTPResponse struct { | ||||||
|  | 	statusCode int | ||||||
|  | 	url        string | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (j redirectHTTPResponse) Write(g *gin.Context) { | ||||||
|  | 	g.Redirect(j.statusCode, j.url) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func Status(sc int) HTTPResponse { | ||||||
|  | 	return &emptyHTTPResponse{statusCode: sc} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func JSON(sc int, data any) HTTPResponse { | ||||||
|  | 	return &jsonHTTPResponse{statusCode: sc, data: data} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func Data(sc int, contentType string, data []byte) HTTPResponse { | ||||||
|  | 	return &dataHTTPResponse{statusCode: sc, contentType: contentType, data: data} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func Text(sc int, data string) HTTPResponse { | ||||||
|  | 	return &textHTTPResponse{statusCode: sc, data: data} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func File(mimetype string, filepath string) HTTPResponse { | ||||||
|  | 	return &fileHTTPResponse{mimetype: mimetype, filepath: filepath} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func Download(mimetype string, filepath string, filename string) HTTPResponse { | ||||||
|  | 	return &fileHTTPResponse{mimetype: mimetype, filepath: filepath, filename: &filename} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func Redirect(sc int, newURL string) HTTPResponse { | ||||||
|  | 	return &redirectHTTPResponse{statusCode: sc, url: newURL} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func APIError(g *gin.Context, errcode commonApiErr.APIErrorCode, msg string, e error) HTTPResponse { | ||||||
|  | 	return createApiError(g, errcode, msg, e) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func NotImplemented(g *gin.Context) HTTPResponse { | ||||||
|  | 	return createApiError(g, commonApiErr.NotImplemented, "", nil) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func createApiError(g *gin.Context, errcode commonApiErr.APIErrorCode, msg string, e error) HTTPResponse { | ||||||
|  | 	reqUri := "" | ||||||
|  | 	if g != nil && g.Request != nil { | ||||||
|  | 		reqUri = g.Request.Method + " :: " + g.Request.RequestURI | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	log.Error(). | ||||||
|  | 		Str("errorcode.key", errcode.Key). | ||||||
|  | 		Int("errcode.status", errcode.HTTPStatusCode). | ||||||
|  | 		Str("uri", reqUri). | ||||||
|  | 		AnErr("err", e). | ||||||
|  | 		Stack(). | ||||||
|  | 		Msg(msg) | ||||||
|  |  | ||||||
|  | 	var fapiMessage *string = nil | ||||||
|  | 	if v, ok := e.(interface{ FAPIMessage() string }); ok { | ||||||
|  | 		fapiMessage = langext.Ptr(v.FAPIMessage()) | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	if g.GetBool("__returnRawErrors") { | ||||||
|  | 		return &jsonHTTPResponse{ | ||||||
|  | 			statusCode: errcode.HTTPStatusCode, | ||||||
|  | 			data: extAPIError{ | ||||||
|  | 				ErrorCode:        errcode.Key, | ||||||
|  | 				Message:          msg, | ||||||
|  | 				RawError:         langext.Ptr(langext.Conditional(e == nil, "", fmt.Sprintf("%+v", e))), | ||||||
|  | 				FAPIErrorMessage: fapiMessage, | ||||||
|  | 				Trace:            strings.Split(string(debug.Stack()), "\n"), | ||||||
|  | 			}, | ||||||
|  | 		} | ||||||
|  | 	} else { | ||||||
|  | 		return &jsonHTTPResponse{ | ||||||
|  | 			statusCode: errcode.HTTPStatusCode, | ||||||
|  | 			data: apiError{ | ||||||
|  | 				ErrorCode:        errcode.Key, | ||||||
|  | 				Message:          msg, | ||||||
|  | 				FAPIErrorMessage: fapiMessage, | ||||||
|  | 			}, | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | } | ||||||
							
								
								
									
										85
									
								
								ginext/routes.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										85
									
								
								ginext/routes.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,85 @@ | |||||||
|  | package ginext | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"github.com/gin-gonic/gin" | ||||||
|  | 	"net/http" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | var anyMethods = []string{ | ||||||
|  | 	http.MethodGet, http.MethodPost, http.MethodPut, http.MethodPatch, | ||||||
|  | 	http.MethodHead, http.MethodOptions, http.MethodDelete, http.MethodConnect, | ||||||
|  | 	http.MethodTrace, | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type GinRoutesWrapper struct { | ||||||
|  | 	wrapper *GinWrapper | ||||||
|  | 	routes  gin.IRouter | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type GinRouteBuilder struct { | ||||||
|  | 	routes *GinRoutesWrapper | ||||||
|  |  | ||||||
|  | 	methods  []string | ||||||
|  | 	relPath  string | ||||||
|  | 	handlers []gin.HandlerFunc | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (w *GinWrapper) Routes() *GinRoutesWrapper { | ||||||
|  | 	return &GinRoutesWrapper{wrapper: w, routes: w.engine} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (w *GinRoutesWrapper) Group(relativePath string) *GinRoutesWrapper { | ||||||
|  | 	return &GinRoutesWrapper{wrapper: w.wrapper, routes: w.routes.Group(relativePath)} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (w *GinRoutesWrapper) GET(relativePath string) *GinRouteBuilder { | ||||||
|  | 	return &GinRouteBuilder{routes: w, methods: []string{http.MethodGet}, relPath: relativePath, handlers: make([]gin.HandlerFunc, 0)} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (w *GinRoutesWrapper) POST(relativePath string) *GinRouteBuilder { | ||||||
|  | 	return &GinRouteBuilder{routes: w, methods: []string{http.MethodPost}, relPath: relativePath, handlers: make([]gin.HandlerFunc, 0)} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (w *GinRoutesWrapper) DELETE(relativePath string) *GinRouteBuilder { | ||||||
|  | 	return &GinRouteBuilder{routes: w, methods: []string{http.MethodDelete}, relPath: relativePath, handlers: make([]gin.HandlerFunc, 0)} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (w *GinRoutesWrapper) PATCH(relativePath string) *GinRouteBuilder { | ||||||
|  | 	return &GinRouteBuilder{routes: w, methods: []string{http.MethodPatch}, relPath: relativePath, handlers: make([]gin.HandlerFunc, 0)} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (w *GinRoutesWrapper) PUT(relativePath string) *GinRouteBuilder { | ||||||
|  | 	return &GinRouteBuilder{routes: w, methods: []string{http.MethodPut}, relPath: relativePath, handlers: make([]gin.HandlerFunc, 0)} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (w *GinRoutesWrapper) OPTIONS(relativePath string) *GinRouteBuilder { | ||||||
|  | 	return &GinRouteBuilder{routes: w, methods: []string{http.MethodOptions}, relPath: relativePath, handlers: make([]gin.HandlerFunc, 0)} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (w *GinRoutesWrapper) HEAD(relativePath string) *GinRouteBuilder { | ||||||
|  | 	return &GinRouteBuilder{routes: w, methods: []string{http.MethodHead}, relPath: relativePath, handlers: make([]gin.HandlerFunc, 0)} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (w *GinRoutesWrapper) COUNT(relativePath string) *GinRouteBuilder { | ||||||
|  | 	return &GinRouteBuilder{routes: w, methods: []string{"COUNT"}, relPath: relativePath, handlers: make([]gin.HandlerFunc, 0)} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (w *GinRoutesWrapper) Any(relativePath string) *GinRouteBuilder { | ||||||
|  | 	return &GinRouteBuilder{routes: w, methods: anyMethods, relPath: relativePath, handlers: make([]gin.HandlerFunc, 0)} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (w *GinRouteBuilder) Use(middleware gin.HandlerFunc) *GinRouteBuilder { | ||||||
|  | 	w.handlers = append(w.handlers, middleware) | ||||||
|  | 	return w | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (w *GinRouteBuilder) Handle(handler WHandlerFunc) { | ||||||
|  | 	w.handlers = append(w.handlers, Wrap(w.routes.wrapper, handler)) | ||||||
|  | 	for _, m := range w.methods { | ||||||
|  | 		w.routes.routes.Handle(m, w.relPath, w.handlers...) | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (w *GinWrapper) NoRoute(handler WHandlerFunc) { | ||||||
|  | 	w.engine.NoRoute(Wrap(w, handler)) | ||||||
|  | } | ||||||
							
								
								
									
										45
									
								
								go.mod
									
									
									
									
									
								
							
							
						
						
									
										45
									
								
								go.mod
									
									
									
									
									
								
							| @@ -3,12 +3,47 @@ module gogs.mikescher.com/BlackForestBytes/goext | |||||||
| go 1.19 | go 1.19 | ||||||
|  |  | ||||||
| require ( | require ( | ||||||
| 	golang.org/x/sys v0.3.0 | 	github.com/gin-gonic/gin v1.9.1 | ||||||
| 	golang.org/x/term v0.3.0 | 	github.com/jmoiron/sqlx v1.3.5 | ||||||
|  | 	github.com/rs/zerolog v1.29.1 | ||||||
|  | 	go.mongodb.org/mongo-driver v1.12.0 | ||||||
|  | 	golang.org/x/crypto v0.11.0 | ||||||
|  | 	golang.org/x/sys v0.10.0 | ||||||
|  | 	golang.org/x/term v0.10.0 | ||||||
| ) | ) | ||||||
|  |  | ||||||
| require ( | require ( | ||||||
| 	github.com/jmoiron/sqlx v1.3.5 // indirect | 	github.com/bytedance/sonic v1.10.0-rc2 // indirect | ||||||
| 	go.mongodb.org/mongo-driver v1.11.1 // indirect | 	github.com/chenzhuoyu/base64x v0.0.0-20230717121745-296ad89f973d // indirect | ||||||
| 	golang.org/x/crypto v0.4.0 // indirect | 	github.com/chenzhuoyu/iasm v0.9.0 // indirect | ||||||
|  | 	github.com/gabriel-vasile/mimetype v1.4.2 // indirect | ||||||
|  | 	github.com/gin-contrib/sse v0.1.0 // indirect | ||||||
|  | 	github.com/go-playground/locales v0.14.1 // indirect | ||||||
|  | 	github.com/go-playground/universal-translator v0.18.1 // indirect | ||||||
|  | 	github.com/go-playground/validator/v10 v10.14.1 // indirect | ||||||
|  | 	github.com/goccy/go-json v0.10.2 // indirect | ||||||
|  | 	github.com/golang/snappy v0.0.4 // indirect | ||||||
|  | 	github.com/json-iterator/go v1.1.12 // indirect | ||||||
|  | 	github.com/klauspost/compress v1.16.7 // indirect | ||||||
|  | 	github.com/klauspost/cpuid/v2 v2.2.5 // indirect | ||||||
|  | 	github.com/leodido/go-urn v1.2.4 // indirect | ||||||
|  | 	github.com/mattn/go-colorable v0.1.13 // indirect | ||||||
|  | 	github.com/mattn/go-isatty v0.0.19 // indirect | ||||||
|  | 	github.com/modern-go/concurrent v0.0.0-20180306012644-bacd9c7ef1dd // indirect | ||||||
|  | 	github.com/modern-go/reflect2 v1.0.2 // indirect | ||||||
|  | 	github.com/montanaflynn/stats v0.7.1 // indirect | ||||||
|  | 	github.com/pelletier/go-toml/v2 v2.0.9 // indirect | ||||||
|  | 	github.com/pkg/errors v0.9.1 // indirect | ||||||
|  | 	github.com/twitchyliquid64/golang-asm v0.15.1 // indirect | ||||||
|  | 	github.com/ugorji/go/codec v1.2.11 // indirect | ||||||
|  | 	github.com/xdg-go/pbkdf2 v1.0.0 // indirect | ||||||
|  | 	github.com/xdg-go/scram v1.1.2 // indirect | ||||||
|  | 	github.com/xdg-go/stringprep v1.0.4 // indirect | ||||||
|  | 	github.com/youmark/pkcs8 v0.0.0-20201027041543-1326539a0a0a // indirect | ||||||
|  | 	golang.org/x/arch v0.4.0 // indirect | ||||||
|  | 	golang.org/x/net v0.12.0 // indirect | ||||||
|  | 	golang.org/x/sync v0.3.0 // indirect | ||||||
|  | 	golang.org/x/text v0.11.0 // indirect | ||||||
|  | 	google.golang.org/protobuf v1.31.0 // indirect | ||||||
|  | 	gopkg.in/yaml.v3 v3.0.1 // indirect | ||||||
| ) | ) | ||||||
|   | |||||||
							
								
								
									
										198
									
								
								go.sum
									
									
									
									
									
								
							
							
						
						
									
										198
									
								
								go.sum
									
									
									
									
									
								
							| @@ -1,50 +1,240 @@ | |||||||
|  | github.com/bytedance/sonic v1.5.0/go.mod h1:ED5hyg4y6t3/9Ku1R6dU/4KyJ48DZ4jPhfY1O2AihPM= | ||||||
|  | github.com/bytedance/sonic v1.9.1 h1:6iJ6NqdoxCDr6mbY8h18oSO+cShGSMRGCEo7F2h0x8s= | ||||||
|  | github.com/bytedance/sonic v1.9.1/go.mod h1:i736AoUSYt75HyZLoJW9ERYxcy6eaN6h4BZXU064P/U= | ||||||
|  | github.com/bytedance/sonic v1.10.0-rc/go.mod h1:ElCzW+ufi8qKqNW0FY314xriJhyJhuoJ3gFZdAHF7NM= | ||||||
|  | github.com/bytedance/sonic v1.10.0-rc2 h1:oDfRZ+4m6AYCOC0GFeOCeYqvBmucy1isvouS2K0cPzo= | ||||||
|  | github.com/bytedance/sonic v1.10.0-rc2/go.mod h1:iZcSUejdk5aukTND/Eu/ivjQuEL0Cu9/rf50Hi0u/g4= | ||||||
|  | github.com/chenzhuoyu/base64x v0.0.0-20211019084208-fb5309c8db06/go.mod h1:DH46F32mSOjUmXrMHnKwZdA8wcEefY7UVqBKYGjpdQY= | ||||||
|  | github.com/chenzhuoyu/base64x v0.0.0-20221115062448-fe3a3abad311 h1:qSGYFH7+jGhDF8vLC+iwCD4WpbV1EBDSzWkJODFLams= | ||||||
|  | github.com/chenzhuoyu/base64x v0.0.0-20221115062448-fe3a3abad311/go.mod h1:b583jCggY9gE99b6G5LEC39OIiVsWj+R97kbl5odCEk= | ||||||
|  | github.com/chenzhuoyu/base64x v0.0.0-20230717121745-296ad89f973d h1:77cEq6EriyTZ0g/qfRdp61a3Uu/AWrgIq2s0ClJV1g0= | ||||||
|  | github.com/chenzhuoyu/base64x v0.0.0-20230717121745-296ad89f973d/go.mod h1:8EPpVsBuRksnlj1mLy4AWzRNQYxauNi62uWcE3to6eA= | ||||||
|  | github.com/chenzhuoyu/iasm v0.9.0 h1:9fhXjVzq5hUy2gkhhgHl95zG2cEAhw9OSGs8toWWAwo= | ||||||
|  | github.com/chenzhuoyu/iasm v0.9.0/go.mod h1:Xjy2NpN3h7aUqeqM+woSuuvxmIe6+DDsiNLIrkAmYog= | ||||||
|  | github.com/coreos/go-systemd/v22 v22.5.0/go.mod h1:Y58oyj3AT4RCenI/lSvhwexgC+NSVTIJ3seZv2GcEnc= | ||||||
| github.com/davecgh/go-spew v1.1.0/go.mod h1:J7Y8YcW2NihsgmVo/mv3lAwl/skON4iLHjSsI+c5H38= | github.com/davecgh/go-spew v1.1.0/go.mod h1:J7Y8YcW2NihsgmVo/mv3lAwl/skON4iLHjSsI+c5H38= | ||||||
|  | github.com/davecgh/go-spew v1.1.1 h1:vj9j/u1bqnvCEfJOwUhtlOARqs3+rkHYY13jYWTU97c= | ||||||
| github.com/davecgh/go-spew v1.1.1/go.mod h1:J7Y8YcW2NihsgmVo/mv3lAwl/skON4iLHjSsI+c5H38= | github.com/davecgh/go-spew v1.1.1/go.mod h1:J7Y8YcW2NihsgmVo/mv3lAwl/skON4iLHjSsI+c5H38= | ||||||
|  | github.com/gabriel-vasile/mimetype v1.4.2 h1:w5qFW6JKBz9Y393Y4q372O9A7cUSequkh1Q7OhCmWKU= | ||||||
|  | github.com/gabriel-vasile/mimetype v1.4.2/go.mod h1:zApsH/mKG4w07erKIaJPFiX0Tsq9BFQgN3qGY5GnNgA= | ||||||
|  | github.com/gin-contrib/sse v0.1.0 h1:Y/yl/+YNO8GZSjAhjMsSuLt29uWRFHdHYUb5lYOV9qE= | ||||||
|  | github.com/gin-contrib/sse v0.1.0/go.mod h1:RHrZQHXnP2xjPF+u1gW/2HnVO7nvIa9PG3Gm+fLHvGI= | ||||||
|  | github.com/gin-gonic/gin v1.9.1 h1:4idEAncQnU5cB7BeOkPtxjfCSye0AAm1R0RVIqJ+Jmg= | ||||||
|  | github.com/gin-gonic/gin v1.9.1/go.mod h1:hPrL7YrpYKXt5YId3A/Tnip5kqbEAP+KLuI3SUcPTeU= | ||||||
|  | github.com/go-playground/locales v0.14.1 h1:EWaQ/wswjilfKLTECiXz7Rh+3BjFhfDFKv/oXslEjJA= | ||||||
|  | github.com/go-playground/locales v0.14.1/go.mod h1:hxrqLVvrK65+Rwrd5Fc6F2O76J/NuW9t0sjnWqG1slY= | ||||||
|  | github.com/go-playground/universal-translator v0.18.1 h1:Bcnm0ZwsGyWbCzImXv+pAJnYK9S473LQFuzCbDbfSFY= | ||||||
|  | github.com/go-playground/universal-translator v0.18.1/go.mod h1:xekY+UJKNuX9WP91TpwSH2VMlDf28Uj24BCp08ZFTUY= | ||||||
|  | github.com/go-playground/validator/v10 v10.14.0 h1:vgvQWe3XCz3gIeFDm/HnTIbj6UGmg/+t63MyGU2n5js= | ||||||
|  | github.com/go-playground/validator/v10 v10.14.0/go.mod h1:9iXMNT7sEkjXb0I+enO7QXmzG6QCsPWY4zveKFVRSyU= | ||||||
|  | github.com/go-playground/validator/v10 v10.14.1 h1:9c50NUPC30zyuKprjL3vNZ0m5oG+jU0zvx4AqHGnv4k= | ||||||
|  | github.com/go-playground/validator/v10 v10.14.1/go.mod h1:9iXMNT7sEkjXb0I+enO7QXmzG6QCsPWY4zveKFVRSyU= | ||||||
|  | github.com/go-sql-driver/mysql v1.6.0 h1:BCTh4TKNUYmOmMUcQ3IipzF5prigylS7XXjEkfCHuOE= | ||||||
| github.com/go-sql-driver/mysql v1.6.0/go.mod h1:DCzpHaOWr8IXmIStZouvnhqoel9Qv2LBy8hT2VhHyBg= | github.com/go-sql-driver/mysql v1.6.0/go.mod h1:DCzpHaOWr8IXmIStZouvnhqoel9Qv2LBy8hT2VhHyBg= | ||||||
|  | github.com/goccy/go-json v0.10.2 h1:CrxCmQqYDkv1z7lO7Wbh2HN93uovUHgrECaO5ZrCXAU= | ||||||
|  | github.com/goccy/go-json v0.10.2/go.mod h1:6MelG93GURQebXPDq3khkgXZkazVtN9CRI+MGFi0w8I= | ||||||
|  | github.com/godbus/dbus/v5 v5.0.4/go.mod h1:xhWf0FNVPg57R7Z0UbKHbJfkEywrmjJnf7w5xrFpKfA= | ||||||
|  | github.com/golang/protobuf v1.5.0/go.mod h1:FsONVRAS9T7sI+LIUmWTfcYkHO4aIWwzhcaSAoJOfIk= | ||||||
|  | github.com/golang/snappy v0.0.1 h1:Qgr9rKW7uDUkrbSmQeiDsGa8SjGyCOGtuasMWwvp2P4= | ||||||
| github.com/golang/snappy v0.0.1/go.mod h1:/XxbfmMg8lxefKM7IXC3fBNl/7bRcc72aCRzEWrmP2Q= | github.com/golang/snappy v0.0.1/go.mod h1:/XxbfmMg8lxefKM7IXC3fBNl/7bRcc72aCRzEWrmP2Q= | ||||||
|  | github.com/golang/snappy v0.0.4 h1:yAGX7huGHXlcLOEtBnF4w7FQwA26wojNCwOYAEhLjQM= | ||||||
|  | github.com/golang/snappy v0.0.4/go.mod h1:/XxbfmMg8lxefKM7IXC3fBNl/7bRcc72aCRzEWrmP2Q= | ||||||
|  | github.com/google/go-cmp v0.5.2 h1:X2ev0eStA3AbceY54o37/0PQ/UWqKEiiO2dKL5OPaFM= | ||||||
| github.com/google/go-cmp v0.5.2/go.mod h1:v8dTdLbMG2kIc/vJvl+f65V22dbkXbowE6jgT/gNBxE= | github.com/google/go-cmp v0.5.2/go.mod h1:v8dTdLbMG2kIc/vJvl+f65V22dbkXbowE6jgT/gNBxE= | ||||||
|  | github.com/google/go-cmp v0.5.5/go.mod h1:v8dTdLbMG2kIc/vJvl+f65V22dbkXbowE6jgT/gNBxE= | ||||||
|  | github.com/google/gofuzz v1.0.0/go.mod h1:dBl0BpW6vV/+mYPU4Po3pmUjxk6FQPldtuIdl/M65Eg= | ||||||
| github.com/jmoiron/sqlx v1.3.5 h1:vFFPA71p1o5gAeqtEAwLU4dnX2napprKtHr7PYIcN3g= | github.com/jmoiron/sqlx v1.3.5 h1:vFFPA71p1o5gAeqtEAwLU4dnX2napprKtHr7PYIcN3g= | ||||||
| github.com/jmoiron/sqlx v1.3.5/go.mod h1:nRVWtLre0KfCLJvgxzCsLVMogSvQ1zNJtpYr2Ccp0mQ= | github.com/jmoiron/sqlx v1.3.5/go.mod h1:nRVWtLre0KfCLJvgxzCsLVMogSvQ1zNJtpYr2Ccp0mQ= | ||||||
|  | github.com/json-iterator/go v1.1.12 h1:PV8peI4a0ysnczrg+LtxykD8LfKY9ML6u2jnxaEnrnM= | ||||||
|  | github.com/json-iterator/go v1.1.12/go.mod h1:e30LSqwooZae/UwlEbR2852Gd8hjQvJoHmT4TnhNGBo= | ||||||
|  | github.com/klauspost/compress v1.13.6 h1:P76CopJELS0TiO2mebmnzgWaajssP/EszplttgQxcgc= | ||||||
| github.com/klauspost/compress v1.13.6/go.mod h1:/3/Vjq9QcHkK5uEr5lBEmyoZ1iFhe47etQ6QUkpK6sk= | github.com/klauspost/compress v1.13.6/go.mod h1:/3/Vjq9QcHkK5uEr5lBEmyoZ1iFhe47etQ6QUkpK6sk= | ||||||
|  | github.com/klauspost/compress v1.16.5 h1:IFV2oUNUzZaz+XyusxpLzpzS8Pt5rh0Z16For/djlyI= | ||||||
|  | github.com/klauspost/compress v1.16.5/go.mod h1:ntbaceVETuRiXiv4DpjP66DpAtAGkEQskQzEyD//IeE= | ||||||
|  | github.com/klauspost/compress v1.16.6 h1:91SKEy4K37vkp255cJ8QesJhjyRO0hn9i9G0GoUwLsk= | ||||||
|  | github.com/klauspost/compress v1.16.6/go.mod h1:ntbaceVETuRiXiv4DpjP66DpAtAGkEQskQzEyD//IeE= | ||||||
|  | github.com/klauspost/compress v1.16.7 h1:2mk3MPGNzKyxErAw8YaohYh69+pa4sIQSC0fPGCFR9I= | ||||||
|  | github.com/klauspost/compress v1.16.7/go.mod h1:ntbaceVETuRiXiv4DpjP66DpAtAGkEQskQzEyD//IeE= | ||||||
|  | github.com/klauspost/cpuid/v2 v2.0.9/go.mod h1:FInQzS24/EEf25PyTYn52gqo7WaD8xa0213Md/qVLRg= | ||||||
|  | github.com/klauspost/cpuid/v2 v2.2.4 h1:acbojRNwl3o09bUq+yDCtZFc1aiwaAAxtcn8YkZXnvk= | ||||||
|  | github.com/klauspost/cpuid/v2 v2.2.4/go.mod h1:RVVoqg1df56z8g3pUjL/3lE5UfnlrJX8tyFgg4nqhuY= | ||||||
|  | github.com/klauspost/cpuid/v2 v2.2.5 h1:0E5MSMDEoAulmXNFquVs//DdoomxaoTY1kUhbc/qbZg= | ||||||
|  | github.com/klauspost/cpuid/v2 v2.2.5/go.mod h1:Lcz8mBdAVJIBVzewtcLocK12l3Y+JytZYpaMropDUws= | ||||||
|  | github.com/knz/go-libedit v1.10.1/go.mod h1:MZTVkCWyz0oBc7JOWP3wNAzd002ZbM/5hgShxwh4x8M= | ||||||
|  | github.com/kr/pretty v0.1.0 h1:L/CwN0zerZDmRFUapSPitk6f+Q3+0za1rQkzVuMiMFI= | ||||||
| github.com/kr/pretty v0.1.0/go.mod h1:dAy3ld7l9f0ibDNOQOHHMYYIIbhfbHSm3C4ZsoJORNo= | github.com/kr/pretty v0.1.0/go.mod h1:dAy3ld7l9f0ibDNOQOHHMYYIIbhfbHSm3C4ZsoJORNo= | ||||||
| github.com/kr/pty v1.1.1/go.mod h1:pFQYn66WHrOpPYNljwOMqo10TkYh1fy3cYio2l3bCsQ= | github.com/kr/pty v1.1.1/go.mod h1:pFQYn66WHrOpPYNljwOMqo10TkYh1fy3cYio2l3bCsQ= | ||||||
|  | github.com/kr/text v0.1.0 h1:45sCR5RtlFHMR4UwH9sdQ5TC8v0qDQCHnXt+kaKSTVE= | ||||||
| github.com/kr/text v0.1.0/go.mod h1:4Jbv+DJW3UT/LiOwJeYQe1efqtUx/iVham/4vfdArNI= | github.com/kr/text v0.1.0/go.mod h1:4Jbv+DJW3UT/LiOwJeYQe1efqtUx/iVham/4vfdArNI= | ||||||
|  | github.com/leodido/go-urn v1.2.4 h1:XlAE/cm/ms7TE/VMVoduSpNBoyc2dOxHs5MZSwAN63Q= | ||||||
|  | github.com/leodido/go-urn v1.2.4/go.mod h1:7ZrI8mTSeBSHl/UaRyKQW1qZeMgak41ANeCNaVckg+4= | ||||||
|  | github.com/lib/pq v1.2.0 h1:LXpIM/LZ5xGFhOpXAQUIMM1HdyqzVYM13zNdjCEEcA0= | ||||||
| github.com/lib/pq v1.2.0/go.mod h1:5WUZQaWbwv1U+lTReE5YruASi9Al49XbQIvNi/34Woo= | github.com/lib/pq v1.2.0/go.mod h1:5WUZQaWbwv1U+lTReE5YruASi9Al49XbQIvNi/34Woo= | ||||||
|  | github.com/mattn/go-colorable v0.1.12 h1:jF+Du6AlPIjs2BiUiQlKOX0rt3SujHxPnksPKZbaA40= | ||||||
|  | github.com/mattn/go-colorable v0.1.12/go.mod h1:u5H1YNBxpqRaxsYJYSkiCWKzEfiAb1Gb520KVy5xxl4= | ||||||
|  | github.com/mattn/go-colorable v0.1.13 h1:fFA4WZxdEF4tXPZVKMLwD8oUnCTTo08duU7wxecdEvA= | ||||||
|  | github.com/mattn/go-colorable v0.1.13/go.mod h1:7S9/ev0klgBDR4GtXTXX8a3vIGJpMovkB8vQcUbaXHg= | ||||||
|  | github.com/mattn/go-isatty v0.0.14/go.mod h1:7GGIvUiUoEMVVmxf/4nioHXj79iQHKdU27kJ6hsGG94= | ||||||
|  | github.com/mattn/go-isatty v0.0.16/go.mod h1:kYGgaQfpe5nmfYZH+SKPsOc2e4SrIfOl2e/yFXSvRLM= | ||||||
|  | github.com/mattn/go-isatty v0.0.19 h1:JITubQf0MOLdlGRuRq+jtsDlekdYPia9ZFsB8h/APPA= | ||||||
|  | github.com/mattn/go-isatty v0.0.19/go.mod h1:W+V8PltTTMOvKvAeJH7IuucS94S2C6jfK/D7dTCTo3Y= | ||||||
|  | github.com/mattn/go-sqlite3 v1.14.6 h1:dNPt6NO46WmLVt2DLNpwczCmdV5boIZ6g/tlDrlRUbg= | ||||||
| github.com/mattn/go-sqlite3 v1.14.6/go.mod h1:NyWgC/yNuGj7Q9rpYnZvas74GogHl5/Z4A/KQRfk6bU= | github.com/mattn/go-sqlite3 v1.14.6/go.mod h1:NyWgC/yNuGj7Q9rpYnZvas74GogHl5/Z4A/KQRfk6bU= | ||||||
|  | github.com/modern-go/concurrent v0.0.0-20180228061459-e0a39a4cb421/go.mod h1:6dJC0mAP4ikYIbvyc7fijjWJddQyLn8Ig3JB5CqoB9Q= | ||||||
|  | github.com/modern-go/concurrent v0.0.0-20180306012644-bacd9c7ef1dd h1:TRLaZ9cD/w8PVh93nsPXa1VrQ6jlwL5oN8l14QlcNfg= | ||||||
|  | github.com/modern-go/concurrent v0.0.0-20180306012644-bacd9c7ef1dd/go.mod h1:6dJC0mAP4ikYIbvyc7fijjWJddQyLn8Ig3JB5CqoB9Q= | ||||||
|  | github.com/modern-go/reflect2 v1.0.2 h1:xBagoLtFs94CBntxluKeaWgTMpvLxC4ur3nMaC9Gz0M= | ||||||
|  | github.com/modern-go/reflect2 v1.0.2/go.mod h1:yWuevngMOJpCy52FWWMvUC8ws7m/LJsjYzDa0/r8luk= | ||||||
|  | github.com/montanaflynn/stats v0.0.0-20171201202039-1bf9dbcd8cbe h1:iruDEfMl2E6fbMZ9s0scYfZQ84/6SPL6zC8ACM2oIL0= | ||||||
| github.com/montanaflynn/stats v0.0.0-20171201202039-1bf9dbcd8cbe/go.mod h1:wL8QJuTMNUDYhXwkmfOly8iTdp5TEcJFWZD2D7SIkUc= | github.com/montanaflynn/stats v0.0.0-20171201202039-1bf9dbcd8cbe/go.mod h1:wL8QJuTMNUDYhXwkmfOly8iTdp5TEcJFWZD2D7SIkUc= | ||||||
|  | github.com/montanaflynn/stats v0.7.1 h1:etflOAAHORrCC44V+aR6Ftzort912ZU+YLiSTuV8eaE= | ||||||
|  | github.com/montanaflynn/stats v0.7.1/go.mod h1:etXPPgVO6n31NxCd9KQUMvCM+ve0ruNzt6R8Bnaayow= | ||||||
|  | github.com/pelletier/go-toml/v2 v2.0.8 h1:0ctb6s9mE31h0/lhu+J6OPmVeDxJn+kYnJc2jZR9tGQ= | ||||||
|  | github.com/pelletier/go-toml/v2 v2.0.8/go.mod h1:vuYfssBdrU2XDZ9bYydBu6t+6a6PYNcZljzZR9VXg+4= | ||||||
|  | github.com/pelletier/go-toml/v2 v2.0.9 h1:uH2qQXheeefCCkuBBSLi7jCiSmj3VRh2+Goq2N7Xxu0= | ||||||
|  | github.com/pelletier/go-toml/v2 v2.0.9/go.mod h1:tJU2Z3ZkXwnxa4DPO899bsyIoywizdUvyaeZurnPPDc= | ||||||
|  | github.com/pkg/errors v0.9.1 h1:FEBLx1zS214owpjy7qsBeixbURkuhQAwrK5UwLGTwt4= | ||||||
| github.com/pkg/errors v0.9.1/go.mod h1:bwawxfHBFNV+L2hUp1rHADufV3IMtnDRdf1r5NINEl0= | github.com/pkg/errors v0.9.1/go.mod h1:bwawxfHBFNV+L2hUp1rHADufV3IMtnDRdf1r5NINEl0= | ||||||
|  | github.com/pmezard/go-difflib v1.0.0 h1:4DBwDE0NGyQoBHbLQYPwSUPoCMWR5BEzIk/f1lZbAQM= | ||||||
| github.com/pmezard/go-difflib v1.0.0/go.mod h1:iKH77koFhYxTK1pcRnkKkqfTogsbg7gZNVY4sRDYZ/4= | github.com/pmezard/go-difflib v1.0.0/go.mod h1:iKH77koFhYxTK1pcRnkKkqfTogsbg7gZNVY4sRDYZ/4= | ||||||
|  | github.com/rs/xid v1.4.0/go.mod h1:trrq9SKmegXys3aeAKXMUTdJsYXVwGY3RLcfgqegfbg= | ||||||
|  | github.com/rs/zerolog v1.29.1 h1:cO+d60CHkknCbvzEWxP0S9K6KqyTjrCNUy1LdQLCGPc= | ||||||
|  | github.com/rs/zerolog v1.29.1/go.mod h1:Le6ESbR7hc+DP6Lt1THiV8CQSdkkNrd3R0XbEgp3ZBU= | ||||||
| github.com/stretchr/objx v0.1.0/go.mod h1:HFkY916IF+rwdDfMAkV7OtwuqBVzrE8GR6GFx+wExME= | github.com/stretchr/objx v0.1.0/go.mod h1:HFkY916IF+rwdDfMAkV7OtwuqBVzrE8GR6GFx+wExME= | ||||||
|  | github.com/stretchr/objx v0.4.0/go.mod h1:YvHI0jy2hoMjB+UWwv71VJQ9isScKT/TqJzVSSt89Yw= | ||||||
|  | github.com/stretchr/objx v0.5.0/go.mod h1:Yh+to48EsGEfYuaHDzXPcE3xhTkx73EhmCGUpEOglKo= | ||||||
|  | github.com/stretchr/testify v1.3.0/go.mod h1:M5WIy9Dh21IEIfnGCwXGc5bZfKNJtfHm1UVUgZn+9EI= | ||||||
|  | github.com/stretchr/testify v1.6.1 h1:hDPOHmpOpP40lSULcqw7IrRb/u7w6RpDC9399XyoNd0= | ||||||
| github.com/stretchr/testify v1.6.1/go.mod h1:6Fq8oRcR53rry900zMqJjRRixrwX3KX962/h/Wwjteg= | github.com/stretchr/testify v1.6.1/go.mod h1:6Fq8oRcR53rry900zMqJjRRixrwX3KX962/h/Wwjteg= | ||||||
|  | github.com/stretchr/testify v1.7.0/go.mod h1:6Fq8oRcR53rry900zMqJjRRixrwX3KX962/h/Wwjteg= | ||||||
|  | github.com/stretchr/testify v1.7.1/go.mod h1:6Fq8oRcR53rry900zMqJjRRixrwX3KX962/h/Wwjteg= | ||||||
|  | github.com/stretchr/testify v1.8.0/go.mod h1:yNjHg4UonilssWZ8iaSj1OCr/vHnekPRkoO+kdMU+MU= | ||||||
|  | github.com/stretchr/testify v1.8.1/go.mod h1:w2LPCIKwWwSfY2zedu0+kehJoqGctiVI29o6fzry7u4= | ||||||
|  | github.com/stretchr/testify v1.8.2/go.mod h1:w2LPCIKwWwSfY2zedu0+kehJoqGctiVI29o6fzry7u4= | ||||||
|  | github.com/stretchr/testify v1.8.3/go.mod h1:sz/lmYIOXD/1dqDmKjjqLyZ2RngseejIcXlSw2iwfAo= | ||||||
|  | github.com/stretchr/testify v1.8.4/go.mod h1:sz/lmYIOXD/1dqDmKjjqLyZ2RngseejIcXlSw2iwfAo= | ||||||
|  | github.com/tidwall/pretty v1.0.0 h1:HsD+QiTn7sK6flMKIvNmpqz1qrpP3Ps6jOKIKMooyg4= | ||||||
| github.com/tidwall/pretty v1.0.0/go.mod h1:XNkn88O1ChpSDQmQeStsy+sBenx6DDtFZJxhVysOjyk= | github.com/tidwall/pretty v1.0.0/go.mod h1:XNkn88O1ChpSDQmQeStsy+sBenx6DDtFZJxhVysOjyk= | ||||||
|  | github.com/twitchyliquid64/golang-asm v0.15.1 h1:SU5vSMR7hnwNxj24w34ZyCi/FmDZTkS4MhqMhdFk5YI= | ||||||
|  | github.com/twitchyliquid64/golang-asm v0.15.1/go.mod h1:a1lVb/DtPvCB8fslRZhAngC2+aY1QWCk3Cedj/Gdt08= | ||||||
|  | github.com/ugorji/go/codec v1.2.11 h1:BMaWp1Bb6fHwEtbplGBGJ498wD+LKlNSl25MjdZY4dU= | ||||||
|  | github.com/ugorji/go/codec v1.2.11/go.mod h1:UNopzCgEMSXjBc6AOMqYvWC1ktqTAfzJZUZgYf6w6lg= | ||||||
|  | github.com/xdg-go/pbkdf2 v1.0.0 h1:Su7DPu48wXMwC3bs7MCNG+z4FhcyEuz5dlvchbq0B0c= | ||||||
| github.com/xdg-go/pbkdf2 v1.0.0/go.mod h1:jrpuAogTd400dnrH08LKmI/xc1MbPOebTwRqcT5RDeI= | github.com/xdg-go/pbkdf2 v1.0.0/go.mod h1:jrpuAogTd400dnrH08LKmI/xc1MbPOebTwRqcT5RDeI= | ||||||
|  | github.com/xdg-go/scram v1.1.1 h1:VOMT+81stJgXW3CpHyqHN3AXDYIMsx56mEFrB37Mb/E= | ||||||
| github.com/xdg-go/scram v1.1.1/go.mod h1:RaEWvsqvNKKvBPvcKeFjrG2cJqOkHTiyTpzz23ni57g= | github.com/xdg-go/scram v1.1.1/go.mod h1:RaEWvsqvNKKvBPvcKeFjrG2cJqOkHTiyTpzz23ni57g= | ||||||
|  | github.com/xdg-go/scram v1.1.2 h1:FHX5I5B4i4hKRVRBCFRxq1iQRej7WO3hhBuJf+UUySY= | ||||||
|  | github.com/xdg-go/scram v1.1.2/go.mod h1:RT/sEzTbU5y00aCK8UOx6R7YryM0iF1N2MOmC3kKLN4= | ||||||
|  | github.com/xdg-go/stringprep v1.0.3 h1:kdwGpVNwPFtjs98xCGkHjQtGKh86rDcRZN17QEMCOIs= | ||||||
| github.com/xdg-go/stringprep v1.0.3/go.mod h1:W3f5j4i+9rC0kuIEJL0ky1VpHXQU3ocBgklLGvcBnW8= | github.com/xdg-go/stringprep v1.0.3/go.mod h1:W3f5j4i+9rC0kuIEJL0ky1VpHXQU3ocBgklLGvcBnW8= | ||||||
|  | github.com/xdg-go/stringprep v1.0.4 h1:XLI/Ng3O1Atzq0oBs3TWm+5ZVgkq2aqdlvP9JtoZ6c8= | ||||||
|  | github.com/xdg-go/stringprep v1.0.4/go.mod h1:mPGuuIYwz7CmR2bT9j4GbQqutWS1zV24gijq1dTyGkM= | ||||||
|  | github.com/youmark/pkcs8 v0.0.0-20181117223130-1be2e3e5546d h1:splanxYIlg+5LfHAM6xpdFEAYOk8iySO56hMFq6uLyA= | ||||||
| github.com/youmark/pkcs8 v0.0.0-20181117223130-1be2e3e5546d/go.mod h1:rHwXgn7JulP+udvsHwJoVG1YGAP6VLg4y9I5dyZdqmA= | github.com/youmark/pkcs8 v0.0.0-20181117223130-1be2e3e5546d/go.mod h1:rHwXgn7JulP+udvsHwJoVG1YGAP6VLg4y9I5dyZdqmA= | ||||||
|  | github.com/youmark/pkcs8 v0.0.0-20201027041543-1326539a0a0a h1:fZHgsYlfvtyqToslyjUt3VOPF4J7aK/3MPcK7xp3PDk= | ||||||
|  | github.com/youmark/pkcs8 v0.0.0-20201027041543-1326539a0a0a/go.mod h1:ul22v+Nro/R083muKhosV54bj5niojjWZvU8xrevuH4= | ||||||
|  | github.com/yuin/goldmark v1.4.13/go.mod h1:6yULJ656Px+3vBD8DxQVa3kxgyrAnzto9xy5taEt/CY= | ||||||
| go.mongodb.org/mongo-driver v1.11.1 h1:QP0znIRTuL0jf1oBQoAoM0C6ZJfBK4kx0Uumtv1A7w8= | go.mongodb.org/mongo-driver v1.11.1 h1:QP0znIRTuL0jf1oBQoAoM0C6ZJfBK4kx0Uumtv1A7w8= | ||||||
| go.mongodb.org/mongo-driver v1.11.1/go.mod h1:s7p5vEtfbeR1gYi6pnj3c3/urpbLv2T5Sfd6Rp2HBB8= | go.mongodb.org/mongo-driver v1.11.1/go.mod h1:s7p5vEtfbeR1gYi6pnj3c3/urpbLv2T5Sfd6Rp2HBB8= | ||||||
|  | go.mongodb.org/mongo-driver v1.11.7 h1:LIwYxASDLGUg/8wOhgOOZhX8tQa/9tgZPgzZoVqJvcs= | ||||||
|  | go.mongodb.org/mongo-driver v1.11.7/go.mod h1:G9TgswdsWjX4tmDA5zfs2+6AEPpYJwqblyjsfuh8oXY= | ||||||
|  | go.mongodb.org/mongo-driver v1.12.0 h1:aPx33jmn/rQuJXPQLZQ8NtfPQG8CaqgLThFtqRb0PiE= | ||||||
|  | go.mongodb.org/mongo-driver v1.12.0/go.mod h1:AZkxhPnFJUoH7kZlFkVKucV20K387miPfm7oimrSmK0= | ||||||
|  | golang.org/x/arch v0.0.0-20210923205945-b76863e36670/go.mod h1:5om86z9Hs0C8fWVUuoMHwpExlXzs5Tkyp9hOrfG7pp8= | ||||||
|  | golang.org/x/arch v0.3.0 h1:02VY4/ZcO/gBOH6PUaoiptASxtXU10jazRCP865E97k= | ||||||
|  | golang.org/x/arch v0.3.0/go.mod h1:5om86z9Hs0C8fWVUuoMHwpExlXzs5Tkyp9hOrfG7pp8= | ||||||
|  | golang.org/x/arch v0.4.0 h1:A8WCeEWhLwPBKNbFi5Wv5UTCBx5zzubnXDlMOFAzFMc= | ||||||
|  | golang.org/x/arch v0.4.0/go.mod h1:5om86z9Hs0C8fWVUuoMHwpExlXzs5Tkyp9hOrfG7pp8= | ||||||
|  | golang.org/x/crypto v0.0.0-20190308221718-c2843e01d9a2/go.mod h1:djNgcEr1/C05ACkg1iLfiJU5Ep61QUkGW8qpdssI0+w= | ||||||
|  | golang.org/x/crypto v0.0.0-20200302210943-78000ba7a073/go.mod h1:LzIPMQfyMNhhGPhUkYOs5KpL4U8rLKemX1yGLhDgUto= | ||||||
|  | golang.org/x/crypto v0.0.0-20210921155107-089bfa567519/go.mod h1:GvvjBRRGRdwPK5ydBHafDWAxML/pGHZbMvKqRZ5+Abc= | ||||||
| golang.org/x/crypto v0.0.0-20220622213112-05595931fe9d/go.mod h1:IxCIyHEi3zRg3s0A5j5BB6A9Jmi73HwBIUl50j+osU4= | golang.org/x/crypto v0.0.0-20220622213112-05595931fe9d/go.mod h1:IxCIyHEi3zRg3s0A5j5BB6A9Jmi73HwBIUl50j+osU4= | ||||||
| golang.org/x/crypto v0.4.0 h1:UVQgzMY87xqpKNgb+kDsll2Igd33HszWHFLmpaRMq/8= | golang.org/x/crypto v0.4.0 h1:UVQgzMY87xqpKNgb+kDsll2Igd33HszWHFLmpaRMq/8= | ||||||
| golang.org/x/crypto v0.4.0/go.mod h1:3quD/ATkf6oY+rnes5c3ExXTbLc8mueNue5/DoinL80= | golang.org/x/crypto v0.4.0/go.mod h1:3quD/ATkf6oY+rnes5c3ExXTbLc8mueNue5/DoinL80= | ||||||
|  | golang.org/x/crypto v0.9.0 h1:LF6fAI+IutBocDJ2OT0Q1g8plpYljMZ4+lty+dsqw3g= | ||||||
|  | golang.org/x/crypto v0.9.0/go.mod h1:yrmDGqONDYtNj3tH8X9dzUun2m2lzPa9ngI6/RUPGR0= | ||||||
|  | golang.org/x/crypto v0.10.0 h1:LKqV2xt9+kDzSTfOhx4FrkEBcMrAgHSYgzywV9zcGmM= | ||||||
|  | golang.org/x/crypto v0.10.0/go.mod h1:o4eNf7Ede1fv+hwOwZsTHl9EsPFO6q6ZvYR8vYfY45I= | ||||||
|  | golang.org/x/crypto v0.11.0 h1:6Ewdq3tDic1mg5xRO4milcWCfMVQhI4NkqWWvqejpuA= | ||||||
|  | golang.org/x/crypto v0.11.0/go.mod h1:xgJhtzW8F9jGdVFWZESrid1U1bjeNy4zgy5cRr/CIio= | ||||||
|  | golang.org/x/mod v0.6.0-dev.0.20220419223038-86c51ed26bb4/go.mod h1:jJ57K6gSWd91VN4djpZkiMVwK6gcyfeH4XE8wZrZaV4= | ||||||
|  | golang.org/x/net v0.0.0-20190404232315-eb5bcb51f2a3/go.mod h1:t9HGtf8HONx5eT2rtn7q6eTqICYqUVnKs3thJo3Qplg= | ||||||
|  | golang.org/x/net v0.0.0-20190620200207-3b0461eec859/go.mod h1:z5CRVTTTmAJ677TzLLGU+0bjPO0LkuOLi4/5GtJWs/s= | ||||||
|  | golang.org/x/net v0.0.0-20210226172049-e18ecbb05110/go.mod h1:m0MpNAwzfU5UDzcl9v0D8zg8gWTRqZa9RBIspLL5mdg= | ||||||
| golang.org/x/net v0.0.0-20211112202133-69e39bad7dc2/go.mod h1:9nx3DQGgdP8bBQD5qxJ1jj9UTztislL4KSBs9R2vV5Y= | golang.org/x/net v0.0.0-20211112202133-69e39bad7dc2/go.mod h1:9nx3DQGgdP8bBQD5qxJ1jj9UTztislL4KSBs9R2vV5Y= | ||||||
|  | golang.org/x/net v0.0.0-20220722155237-a158d28d115b/go.mod h1:XRhObCWvk6IyKnWLug+ECip1KBveYUHfp+8e9klMJ9c= | ||||||
|  | golang.org/x/net v0.10.0 h1:X2//UzNDwYmtCLn7To6G58Wr6f5ahEAQgKNzv9Y951M= | ||||||
|  | golang.org/x/net v0.10.0/go.mod h1:0qNGK6F8kojg2nk9dLZ2mShWaEBan6FAoqfSigmmuDg= | ||||||
|  | golang.org/x/net v0.12.0 h1:cfawfvKITfUsFCeJIHJrbSxpeu/E81khclypR0GVT50= | ||||||
|  | golang.org/x/net v0.12.0/go.mod h1:zEVYFnQC7m/vmpQFELhcD1EWkZlX69l4oqgmer6hfKA= | ||||||
|  | golang.org/x/sync v0.0.0-20190423024810-112230192c58/go.mod h1:RxMgew5VJxzue5/jJTE5uejpjVlOe/izrB70Jof72aM= | ||||||
|  | golang.org/x/sync v0.0.0-20210220032951-036812b2e83c h1:5KslGYwFpkhGh+Q16bwMP3cOontH8FOep7tGV86Y7SQ= | ||||||
| golang.org/x/sync v0.0.0-20210220032951-036812b2e83c/go.mod h1:RxMgew5VJxzue5/jJTE5uejpjVlOe/izrB70Jof72aM= | golang.org/x/sync v0.0.0-20210220032951-036812b2e83c/go.mod h1:RxMgew5VJxzue5/jJTE5uejpjVlOe/izrB70Jof72aM= | ||||||
|  | golang.org/x/sync v0.0.0-20220722155255-886fb9371eb4/go.mod h1:RxMgew5VJxzue5/jJTE5uejpjVlOe/izrB70Jof72aM= | ||||||
|  | golang.org/x/sync v0.2.0 h1:PUR+T4wwASmuSTYdKjYHI5TD22Wy5ogLU5qZCOLxBrI= | ||||||
|  | golang.org/x/sync v0.2.0/go.mod h1:RxMgew5VJxzue5/jJTE5uejpjVlOe/izrB70Jof72aM= | ||||||
|  | golang.org/x/sync v0.3.0 h1:ftCYgMx6zT/asHUrPw8BLLscYtGznsLAnjq5RH9P66E= | ||||||
|  | golang.org/x/sync v0.3.0/go.mod h1:FU7BRWz2tNW+3quACPkgCx/L+uEAv1htQ0V83Z9Rj+Y= | ||||||
|  | golang.org/x/sys v0.0.0-20190215142949-d0b11bdaac8a/go.mod h1:STP8DvDyc/dI5b8T5hshtkjS+E42TnysNCUPdjciGhY= | ||||||
|  | golang.org/x/sys v0.0.0-20190412213103-97732733099d/go.mod h1:h1NjWce9XRLGQEsW7wpKNCjG9DtNlClVuFLEZdDNbEs= | ||||||
| golang.org/x/sys v0.0.0-20201119102817-f84b799fce68/go.mod h1:h1NjWce9XRLGQEsW7wpKNCjG9DtNlClVuFLEZdDNbEs= | golang.org/x/sys v0.0.0-20201119102817-f84b799fce68/go.mod h1:h1NjWce9XRLGQEsW7wpKNCjG9DtNlClVuFLEZdDNbEs= | ||||||
| golang.org/x/sys v0.0.0-20210423082822-04245dca01da/go.mod h1:h1NjWce9XRLGQEsW7wpKNCjG9DtNlClVuFLEZdDNbEs= | golang.org/x/sys v0.0.0-20210423082822-04245dca01da/go.mod h1:h1NjWce9XRLGQEsW7wpKNCjG9DtNlClVuFLEZdDNbEs= | ||||||
| golang.org/x/sys v0.0.0-20210615035016-665e8c7367d1/go.mod h1:oPkhp1MJrh7nUepCBck5+mAzfO9JrbApNNgaTdGDITg= | golang.org/x/sys v0.0.0-20210615035016-665e8c7367d1/go.mod h1:oPkhp1MJrh7nUepCBck5+mAzfO9JrbApNNgaTdGDITg= | ||||||
| golang.org/x/sys v0.1.0 h1:kunALQeHf1/185U1i0GOB/fy1IPRDDpuoOOqRReG57U= | golang.org/x/sys v0.0.0-20210630005230-0f9fa26af87c/go.mod h1:oPkhp1MJrh7nUepCBck5+mAzfO9JrbApNNgaTdGDITg= | ||||||
| golang.org/x/sys v0.1.0/go.mod h1:oPkhp1MJrh7nUepCBck5+mAzfO9JrbApNNgaTdGDITg= | golang.org/x/sys v0.0.0-20210927094055-39ccf1dd6fa6/go.mod h1:oPkhp1MJrh7nUepCBck5+mAzfO9JrbApNNgaTdGDITg= | ||||||
|  | golang.org/x/sys v0.0.0-20220520151302-bc2c85ada10a/go.mod h1:oPkhp1MJrh7nUepCBck5+mAzfO9JrbApNNgaTdGDITg= | ||||||
|  | golang.org/x/sys v0.0.0-20220704084225-05e143d24a9e/go.mod h1:oPkhp1MJrh7nUepCBck5+mAzfO9JrbApNNgaTdGDITg= | ||||||
|  | golang.org/x/sys v0.0.0-20220722155257-8c9f86f7a55f/go.mod h1:oPkhp1MJrh7nUepCBck5+mAzfO9JrbApNNgaTdGDITg= | ||||||
|  | golang.org/x/sys v0.0.0-20220811171246-fbc7d0a398ab/go.mod h1:oPkhp1MJrh7nUepCBck5+mAzfO9JrbApNNgaTdGDITg= | ||||||
| golang.org/x/sys v0.3.0 h1:w8ZOecv6NaNa/zC8944JTU3vz4u6Lagfk4RPQxv92NQ= | golang.org/x/sys v0.3.0 h1:w8ZOecv6NaNa/zC8944JTU3vz4u6Lagfk4RPQxv92NQ= | ||||||
| golang.org/x/sys v0.3.0/go.mod h1:oPkhp1MJrh7nUepCBck5+mAzfO9JrbApNNgaTdGDITg= | golang.org/x/sys v0.3.0/go.mod h1:oPkhp1MJrh7nUepCBck5+mAzfO9JrbApNNgaTdGDITg= | ||||||
|  | golang.org/x/sys v0.5.0/go.mod h1:oPkhp1MJrh7nUepCBck5+mAzfO9JrbApNNgaTdGDITg= | ||||||
|  | golang.org/x/sys v0.6.0/go.mod h1:oPkhp1MJrh7nUepCBck5+mAzfO9JrbApNNgaTdGDITg= | ||||||
|  | golang.org/x/sys v0.8.0 h1:EBmGv8NaZBZTWvrbjNoL6HVt+IVy3QDQpJs7VRIw3tU= | ||||||
|  | golang.org/x/sys v0.8.0/go.mod h1:oPkhp1MJrh7nUepCBck5+mAzfO9JrbApNNgaTdGDITg= | ||||||
|  | golang.org/x/sys v0.9.0 h1:KS/R3tvhPqvJvwcKfnBHJwwthS11LRhmM5D59eEXa0s= | ||||||
|  | golang.org/x/sys v0.9.0/go.mod h1:oPkhp1MJrh7nUepCBck5+mAzfO9JrbApNNgaTdGDITg= | ||||||
|  | golang.org/x/sys v0.10.0 h1:SqMFp9UcQJZa+pmYuAKjd9xq1f0j5rLcDIk0mj4qAsA= | ||||||
|  | golang.org/x/sys v0.10.0/go.mod h1:oPkhp1MJrh7nUepCBck5+mAzfO9JrbApNNgaTdGDITg= | ||||||
| golang.org/x/term v0.0.0-20201126162022-7de9c90e9dd1/go.mod h1:bj7SfCRtBDWHUb9snDiAeCFNEtKQo2Wmx5Cou7ajbmo= | golang.org/x/term v0.0.0-20201126162022-7de9c90e9dd1/go.mod h1:bj7SfCRtBDWHUb9snDiAeCFNEtKQo2Wmx5Cou7ajbmo= | ||||||
| golang.org/x/term v0.1.0 h1:g6Z6vPFA9dYBAF7DWcH6sCcOntplXsDKcliusYijMlw= | golang.org/x/term v0.0.0-20210927222741-03fcf44c2211/go.mod h1:jbD1KX2456YbFQfuXm/mYQcufACuNUgVhRMnK/tPxf8= | ||||||
| golang.org/x/term v0.1.0/go.mod h1:jbD1KX2456YbFQfuXm/mYQcufACuNUgVhRMnK/tPxf8= |  | ||||||
| golang.org/x/term v0.3.0 h1:qoo4akIqOcDME5bhc/NgxUdovd6BSS2uMsVjB56q1xI= | golang.org/x/term v0.3.0 h1:qoo4akIqOcDME5bhc/NgxUdovd6BSS2uMsVjB56q1xI= | ||||||
| golang.org/x/term v0.3.0/go.mod h1:q750SLmJuPmVoN1blW3UFBPREJfb1KmY3vwxfr+nFDA= | golang.org/x/term v0.3.0/go.mod h1:q750SLmJuPmVoN1blW3UFBPREJfb1KmY3vwxfr+nFDA= | ||||||
|  | golang.org/x/term v0.8.0 h1:n5xxQn2i3PC0yLAbjTpNT85q/Kgzcr2gIoX9OrJUols= | ||||||
|  | golang.org/x/term v0.8.0/go.mod h1:xPskH00ivmX89bAKVGSKKtLOWNx2+17Eiy94tnKShWo= | ||||||
|  | golang.org/x/term v0.9.0 h1:GRRCnKYhdQrD8kfRAdQ6Zcw1P0OcELxGLKJvtjVMZ28= | ||||||
|  | golang.org/x/term v0.9.0/go.mod h1:M6DEAAIenWoTxdKrOltXcmDY3rSplQUkrvaDU5FcQyo= | ||||||
|  | golang.org/x/term v0.10.0 h1:3R7pNqamzBraeqj/Tj8qt1aQ2HpmlC+Cx/qL/7hn4/c= | ||||||
|  | golang.org/x/term v0.10.0/go.mod h1:lpqdcUyK/oCiQxvxVrppt5ggO2KCZ5QblwqPnfZ6d5o= | ||||||
|  | golang.org/x/text v0.3.0/go.mod h1:NqM8EUOU14njkJ3fqMW+pc6Ldnwhi/IjpwHt7yyuwOQ= | ||||||
|  | golang.org/x/text v0.3.3/go.mod h1:5Zoc/QRtKVWzQhOtBMvqHzDpF6irO9z98xDceosuGiQ= | ||||||
| golang.org/x/text v0.3.6/go.mod h1:5Zoc/QRtKVWzQhOtBMvqHzDpF6irO9z98xDceosuGiQ= | golang.org/x/text v0.3.6/go.mod h1:5Zoc/QRtKVWzQhOtBMvqHzDpF6irO9z98xDceosuGiQ= | ||||||
| golang.org/x/text v0.3.7/go.mod h1:u+2+/6zg+i71rQMx5EYifcz6MCKuco9NR6JIITiCfzQ= | golang.org/x/text v0.3.7/go.mod h1:u+2+/6zg+i71rQMx5EYifcz6MCKuco9NR6JIITiCfzQ= | ||||||
|  | golang.org/x/text v0.3.8/go.mod h1:E6s5w1FMmriuDzIBO73fBruAKo1PCIq6d2Q6DHfQ8WQ= | ||||||
|  | golang.org/x/text v0.5.0 h1:OLmvp0KP+FVG99Ct/qFiL/Fhk4zp4QQnZ7b2U+5piUM= | ||||||
|  | golang.org/x/text v0.5.0/go.mod h1:mrYo+phRRbMaCq/xk9113O4dZlRixOauAjOtrjsXDZ8= | ||||||
|  | golang.org/x/text v0.7.0/go.mod h1:mrYo+phRRbMaCq/xk9113O4dZlRixOauAjOtrjsXDZ8= | ||||||
|  | golang.org/x/text v0.9.0 h1:2sjJmO8cDvYveuX97RDLsxlyUxLl+GHoLxBiRdHllBE= | ||||||
|  | golang.org/x/text v0.9.0/go.mod h1:e1OnstbJyHTd6l/uOt8jFFHp6TRDWZR/bV3emEE/zU8= | ||||||
|  | golang.org/x/text v0.10.0 h1:UpjohKhiEgNc0CSauXmwYftY1+LlaC75SJwh0SgCX58= | ||||||
|  | golang.org/x/text v0.10.0/go.mod h1:TvPlkZtksWOMsz7fbANvkp4WM8x/WCo/om8BMLbz+aE= | ||||||
|  | golang.org/x/text v0.11.0 h1:LAntKIrcmeSKERyiOh0XMV39LXS8IE9UL2yP7+f5ij4= | ||||||
|  | golang.org/x/text v0.11.0/go.mod h1:TvPlkZtksWOMsz7fbANvkp4WM8x/WCo/om8BMLbz+aE= | ||||||
| golang.org/x/tools v0.0.0-20180917221912-90fa682c2a6e/go.mod h1:n7NCudcB/nEzxVGmLbDWY5pfWTLqBcC2KZ6jyYvM4mQ= | golang.org/x/tools v0.0.0-20180917221912-90fa682c2a6e/go.mod h1:n7NCudcB/nEzxVGmLbDWY5pfWTLqBcC2KZ6jyYvM4mQ= | ||||||
|  | golang.org/x/tools v0.0.0-20191119224855-298f0cb1881e/go.mod h1:b+2E5dAYhXwXZwtnZ6UAqBI28+e2cm9otk0dWdXHAEo= | ||||||
|  | golang.org/x/tools v0.1.12/go.mod h1:hNGJHUnrk76NpqgfD5Aqm5Crs+Hm0VOH/i9J2+nxYbc= | ||||||
|  | golang.org/x/xerrors v0.0.0-20190717185122-a985d3407aa7/go.mod h1:I/5z698sn9Ka8TeJc9MKroUUfqBBauWjQqLJ2OPfmY0= | ||||||
|  | golang.org/x/xerrors v0.0.0-20191204190536-9bdfabe68543 h1:E7g+9GITq07hpfrRu66IVDexMakfv52eLZ2CXBWiKr4= | ||||||
| golang.org/x/xerrors v0.0.0-20191204190536-9bdfabe68543/go.mod h1:I/5z698sn9Ka8TeJc9MKroUUfqBBauWjQqLJ2OPfmY0= | golang.org/x/xerrors v0.0.0-20191204190536-9bdfabe68543/go.mod h1:I/5z698sn9Ka8TeJc9MKroUUfqBBauWjQqLJ2OPfmY0= | ||||||
|  | google.golang.org/protobuf v1.26.0-rc.1/go.mod h1:jlhhOSvTdKEhbULTjvd4ARK9grFBp09yW+WbY/TyQbw= | ||||||
|  | google.golang.org/protobuf v1.30.0 h1:kPPoIgf3TsEvrm0PFe15JQ+570QVxYzEvvHqChK+cng= | ||||||
|  | google.golang.org/protobuf v1.30.0/go.mod h1:HV8QOd/L58Z+nl8r43ehVNZIU/HEI6OcFqwMG9pJV4I= | ||||||
|  | google.golang.org/protobuf v1.31.0 h1:g0LDEJHgrBl9N9r17Ru3sqWhkIx2NB67okBHPwC7hs8= | ||||||
|  | google.golang.org/protobuf v1.31.0/go.mod h1:HV8QOd/L58Z+nl8r43ehVNZIU/HEI6OcFqwMG9pJV4I= | ||||||
| gopkg.in/check.v1 v0.0.0-20161208181325-20d25e280405/go.mod h1:Co6ibVJAznAaIkqp8huTwlJQCZ016jof/cbN4VW5Yz0= | gopkg.in/check.v1 v0.0.0-20161208181325-20d25e280405/go.mod h1:Co6ibVJAznAaIkqp8huTwlJQCZ016jof/cbN4VW5Yz0= | ||||||
| gopkg.in/check.v1 v1.0.0-20180628173108-788fd7840127/go.mod h1:Co6ibVJAznAaIkqp8huTwlJQCZ016jof/cbN4VW5Yz0= | gopkg.in/check.v1 v1.0.0-20180628173108-788fd7840127/go.mod h1:Co6ibVJAznAaIkqp8huTwlJQCZ016jof/cbN4VW5Yz0= | ||||||
| gopkg.in/yaml.v3 v3.0.0-20200313102051-9f266ea9e77c/go.mod h1:K4uyk7z7BCEPqu6E+C64Yfv1cQ7kz7rIZviUmN+EgEM= | gopkg.in/yaml.v3 v3.0.0-20200313102051-9f266ea9e77c/go.mod h1:K4uyk7z7BCEPqu6E+C64Yfv1cQ7kz7rIZviUmN+EgEM= | ||||||
|  | gopkg.in/yaml.v3 v3.0.1 h1:fxVm/GzAzEWqLHuvctI91KS9hhNmmWOoWu0XTYJS7CA= | ||||||
| gopkg.in/yaml.v3 v3.0.1/go.mod h1:K4uyk7z7BCEPqu6E+C64Yfv1cQ7kz7rIZviUmN+EgEM= | gopkg.in/yaml.v3 v3.0.1/go.mod h1:K4uyk7z7BCEPqu6E+C64Yfv1cQ7kz7rIZviUmN+EgEM= | ||||||
|  | nullprogram.com/x/optparse v1.0.0/go.mod h1:KdyPE+Igbe0jQUrVfMqDMeJQIJZEuyV7pjYmp6pbG50= | ||||||
|  | rsc.io/pdf v0.1.1/go.mod h1:n8OzWcQ6Sp37PL01nO98y4iUCRdTGarVfzxY20ICaU4= | ||||||
|   | |||||||
							
								
								
									
										5
									
								
								goextVersion.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										5
									
								
								goextVersion.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,5 @@ | |||||||
|  | package goext | ||||||
|  |  | ||||||
|  | const GoextVersion = "0.0.177" | ||||||
|  |  | ||||||
|  | const GoextVersionTimestamp = "2023-07-18T16:08:24+0200" | ||||||
							
								
								
									
										27
									
								
								gojson/LICENSE
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										27
									
								
								gojson/LICENSE
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,27 @@ | |||||||
|  | Copyright (c) 2009 The Go Authors. All rights reserved. | ||||||
|  |  | ||||||
|  | Redistribution and use in source and binary forms, with or without | ||||||
|  | modification, are permitted provided that the following conditions are | ||||||
|  | met: | ||||||
|  |  | ||||||
|  |    * Redistributions of source code must retain the above copyright | ||||||
|  | notice, this list of conditions and the following disclaimer. | ||||||
|  |    * Redistributions in binary form must reproduce the above | ||||||
|  | copyright notice, this list of conditions and the following disclaimer | ||||||
|  | in the documentation and/or other materials provided with the | ||||||
|  | distribution. | ||||||
|  |    * Neither the name of Google Inc. nor the names of its | ||||||
|  | contributors may be used to endorse or promote products derived from | ||||||
|  | this software without specific prior written permission. | ||||||
|  |  | ||||||
|  | THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS | ||||||
|  | "AS IS" AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT | ||||||
|  | LIMITED TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR | ||||||
|  | A PARTICULAR PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT | ||||||
|  | OWNER OR CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, | ||||||
|  | SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT | ||||||
|  | LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, | ||||||
|  | DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY | ||||||
|  | THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT | ||||||
|  | (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE | ||||||
|  | OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE. | ||||||
							
								
								
									
										12
									
								
								gojson/README.md
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										12
									
								
								gojson/README.md
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,12 @@ | |||||||
|  |  | ||||||
|  |  | ||||||
|  | JSON serializer which serializes nil-Arrays as `[]` and nil-maps als `{}`. | ||||||
|  |  | ||||||
|  | Idea from: https://github.com/homelight/json | ||||||
|  |  | ||||||
|  | Forked from https://github.com/golang/go/tree/547e8e22fe565d65d1fd4d6e71436a5a855447b0/src/encoding/json ( tag go1.20.2 ) | ||||||
|  |  | ||||||
|  | Added: | ||||||
|  |  | ||||||
|  |  - `MarshalSafeCollections()` method | ||||||
|  |  - `Encoder.nilSafeSlices` and `Encoder.nilSafeMaps` fields | ||||||
							
								
								
									
										1311
									
								
								gojson/decode.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										1311
									
								
								gojson/decode.go
									
									
									
									
									
										Normal file
									
								
							
										
											
												File diff suppressed because it is too large
												Load Diff
											
										
									
								
							
							
								
								
									
										2574
									
								
								gojson/decode_test.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										2574
									
								
								gojson/decode_test.go
									
									
									
									
									
										Normal file
									
								
							
										
											
												File diff suppressed because it is too large
												Load Diff
											
										
									
								
							
							
								
								
									
										1459
									
								
								gojson/encode.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										1459
									
								
								gojson/encode.go
									
									
									
									
									
										Normal file
									
								
							
										
											
												File diff suppressed because it is too large
												Load Diff
											
										
									
								
							
							
								
								
									
										1285
									
								
								gojson/encode_test.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										1285
									
								
								gojson/encode_test.go
									
									
									
									
									
										Normal file
									
								
							
										
											
												File diff suppressed because it is too large
												Load Diff
											
										
									
								
							
							
								
								
									
										73
									
								
								gojson/example_marshaling_test.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										73
									
								
								gojson/example_marshaling_test.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,73 @@ | |||||||
|  | // Copyright 2016 The Go Authors. All rights reserved. | ||||||
|  | // Use of this source code is governed by a BSD-style | ||||||
|  | // license that can be found in the LICENSE file. | ||||||
|  |  | ||||||
|  | package json_test | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"encoding/json" | ||||||
|  | 	"fmt" | ||||||
|  | 	"log" | ||||||
|  | 	"strings" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | type Animal int | ||||||
|  |  | ||||||
|  | const ( | ||||||
|  | 	Unknown Animal = iota | ||||||
|  | 	Gopher | ||||||
|  | 	Zebra | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | func (a *Animal) UnmarshalJSON(b []byte) error { | ||||||
|  | 	var s string | ||||||
|  | 	if err := json.Unmarshal(b, &s); err != nil { | ||||||
|  | 		return err | ||||||
|  | 	} | ||||||
|  | 	switch strings.ToLower(s) { | ||||||
|  | 	default: | ||||||
|  | 		*a = Unknown | ||||||
|  | 	case "gopher": | ||||||
|  | 		*a = Gopher | ||||||
|  | 	case "zebra": | ||||||
|  | 		*a = Zebra | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (a Animal) MarshalJSON() ([]byte, error) { | ||||||
|  | 	var s string | ||||||
|  | 	switch a { | ||||||
|  | 	default: | ||||||
|  | 		s = "unknown" | ||||||
|  | 	case Gopher: | ||||||
|  | 		s = "gopher" | ||||||
|  | 	case Zebra: | ||||||
|  | 		s = "zebra" | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return json.Marshal(s) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func Example_customMarshalJSON() { | ||||||
|  | 	blob := `["gopher","armadillo","zebra","unknown","gopher","bee","gopher","zebra"]` | ||||||
|  | 	var zoo []Animal | ||||||
|  | 	if err := json.Unmarshal([]byte(blob), &zoo); err != nil { | ||||||
|  | 		log.Fatal(err) | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	census := make(map[Animal]int) | ||||||
|  | 	for _, animal := range zoo { | ||||||
|  | 		census[animal] += 1 | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	fmt.Printf("Zoo Census:\n* Gophers: %d\n* Zebras:  %d\n* Unknown: %d\n", | ||||||
|  | 		census[Gopher], census[Zebra], census[Unknown]) | ||||||
|  |  | ||||||
|  | 	// Output: | ||||||
|  | 	// Zoo Census: | ||||||
|  | 	// * Gophers: 3 | ||||||
|  | 	// * Zebras:  2 | ||||||
|  | 	// * Unknown: 3 | ||||||
|  | } | ||||||
							
								
								
									
										310
									
								
								gojson/example_test.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										310
									
								
								gojson/example_test.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,310 @@ | |||||||
|  | // Copyright 2011 The Go Authors. All rights reserved. | ||||||
|  | // Use of this source code is governed by a BSD-style | ||||||
|  | // license that can be found in the LICENSE file. | ||||||
|  |  | ||||||
|  | package json_test | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"bytes" | ||||||
|  | 	"encoding/json" | ||||||
|  | 	"fmt" | ||||||
|  | 	"io" | ||||||
|  | 	"log" | ||||||
|  | 	"os" | ||||||
|  | 	"strings" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | func ExampleMarshal() { | ||||||
|  | 	type ColorGroup struct { | ||||||
|  | 		ID     int | ||||||
|  | 		Name   string | ||||||
|  | 		Colors []string | ||||||
|  | 	} | ||||||
|  | 	group := ColorGroup{ | ||||||
|  | 		ID:     1, | ||||||
|  | 		Name:   "Reds", | ||||||
|  | 		Colors: []string{"Crimson", "Red", "Ruby", "Maroon"}, | ||||||
|  | 	} | ||||||
|  | 	b, err := json.Marshal(group) | ||||||
|  | 	if err != nil { | ||||||
|  | 		fmt.Println("error:", err) | ||||||
|  | 	} | ||||||
|  | 	os.Stdout.Write(b) | ||||||
|  | 	// Output: | ||||||
|  | 	// {"ID":1,"Name":"Reds","Colors":["Crimson","Red","Ruby","Maroon"]} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func ExampleUnmarshal() { | ||||||
|  | 	var jsonBlob = []byte(`[ | ||||||
|  | 	{"Name": "Platypus", "Order": "Monotremata"}, | ||||||
|  | 	{"Name": "Quoll",    "Order": "Dasyuromorphia"} | ||||||
|  | ]`) | ||||||
|  | 	type Animal struct { | ||||||
|  | 		Name  string | ||||||
|  | 		Order string | ||||||
|  | 	} | ||||||
|  | 	var animals []Animal | ||||||
|  | 	err := json.Unmarshal(jsonBlob, &animals) | ||||||
|  | 	if err != nil { | ||||||
|  | 		fmt.Println("error:", err) | ||||||
|  | 	} | ||||||
|  | 	fmt.Printf("%+v", animals) | ||||||
|  | 	// Output: | ||||||
|  | 	// [{Name:Platypus Order:Monotremata} {Name:Quoll Order:Dasyuromorphia}] | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // This example uses a Decoder to decode a stream of distinct JSON values. | ||||||
|  | func ExampleDecoder() { | ||||||
|  | 	const jsonStream = ` | ||||||
|  | 	{"Name": "Ed", "Text": "Knock knock."} | ||||||
|  | 	{"Name": "Sam", "Text": "Who's there?"} | ||||||
|  | 	{"Name": "Ed", "Text": "Go fmt."} | ||||||
|  | 	{"Name": "Sam", "Text": "Go fmt who?"} | ||||||
|  | 	{"Name": "Ed", "Text": "Go fmt yourself!"} | ||||||
|  | ` | ||||||
|  | 	type Message struct { | ||||||
|  | 		Name, Text string | ||||||
|  | 	} | ||||||
|  | 	dec := json.NewDecoder(strings.NewReader(jsonStream)) | ||||||
|  | 	for { | ||||||
|  | 		var m Message | ||||||
|  | 		if err := dec.Decode(&m); err == io.EOF { | ||||||
|  | 			break | ||||||
|  | 		} else if err != nil { | ||||||
|  | 			log.Fatal(err) | ||||||
|  | 		} | ||||||
|  | 		fmt.Printf("%s: %s\n", m.Name, m.Text) | ||||||
|  | 	} | ||||||
|  | 	// Output: | ||||||
|  | 	// Ed: Knock knock. | ||||||
|  | 	// Sam: Who's there? | ||||||
|  | 	// Ed: Go fmt. | ||||||
|  | 	// Sam: Go fmt who? | ||||||
|  | 	// Ed: Go fmt yourself! | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // This example uses a Decoder to decode a stream of distinct JSON values. | ||||||
|  | func ExampleDecoder_Token() { | ||||||
|  | 	const jsonStream = ` | ||||||
|  | 	{"Message": "Hello", "Array": [1, 2, 3], "Null": null, "Number": 1.234} | ||||||
|  | ` | ||||||
|  | 	dec := json.NewDecoder(strings.NewReader(jsonStream)) | ||||||
|  | 	for { | ||||||
|  | 		t, err := dec.Token() | ||||||
|  | 		if err == io.EOF { | ||||||
|  | 			break | ||||||
|  | 		} | ||||||
|  | 		if err != nil { | ||||||
|  | 			log.Fatal(err) | ||||||
|  | 		} | ||||||
|  | 		fmt.Printf("%T: %v", t, t) | ||||||
|  | 		if dec.More() { | ||||||
|  | 			fmt.Printf(" (more)") | ||||||
|  | 		} | ||||||
|  | 		fmt.Printf("\n") | ||||||
|  | 	} | ||||||
|  | 	// Output: | ||||||
|  | 	// json.Delim: { (more) | ||||||
|  | 	// string: Message (more) | ||||||
|  | 	// string: Hello (more) | ||||||
|  | 	// string: Array (more) | ||||||
|  | 	// json.Delim: [ (more) | ||||||
|  | 	// float64: 1 (more) | ||||||
|  | 	// float64: 2 (more) | ||||||
|  | 	// float64: 3 | ||||||
|  | 	// json.Delim: ] (more) | ||||||
|  | 	// string: Null (more) | ||||||
|  | 	// <nil>: <nil> (more) | ||||||
|  | 	// string: Number (more) | ||||||
|  | 	// float64: 1.234 | ||||||
|  | 	// json.Delim: } | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // This example uses a Decoder to decode a streaming array of JSON objects. | ||||||
|  | func ExampleDecoder_Decode_stream() { | ||||||
|  | 	const jsonStream = ` | ||||||
|  | 	[ | ||||||
|  | 		{"Name": "Ed", "Text": "Knock knock."}, | ||||||
|  | 		{"Name": "Sam", "Text": "Who's there?"}, | ||||||
|  | 		{"Name": "Ed", "Text": "Go fmt."}, | ||||||
|  | 		{"Name": "Sam", "Text": "Go fmt who?"}, | ||||||
|  | 		{"Name": "Ed", "Text": "Go fmt yourself!"} | ||||||
|  | 	] | ||||||
|  | ` | ||||||
|  | 	type Message struct { | ||||||
|  | 		Name, Text string | ||||||
|  | 	} | ||||||
|  | 	dec := json.NewDecoder(strings.NewReader(jsonStream)) | ||||||
|  |  | ||||||
|  | 	// read open bracket | ||||||
|  | 	t, err := dec.Token() | ||||||
|  | 	if err != nil { | ||||||
|  | 		log.Fatal(err) | ||||||
|  | 	} | ||||||
|  | 	fmt.Printf("%T: %v\n", t, t) | ||||||
|  |  | ||||||
|  | 	// while the array contains values | ||||||
|  | 	for dec.More() { | ||||||
|  | 		var m Message | ||||||
|  | 		// decode an array value (Message) | ||||||
|  | 		err := dec.Decode(&m) | ||||||
|  | 		if err != nil { | ||||||
|  | 			log.Fatal(err) | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		fmt.Printf("%v: %v\n", m.Name, m.Text) | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	// read closing bracket | ||||||
|  | 	t, err = dec.Token() | ||||||
|  | 	if err != nil { | ||||||
|  | 		log.Fatal(err) | ||||||
|  | 	} | ||||||
|  | 	fmt.Printf("%T: %v\n", t, t) | ||||||
|  |  | ||||||
|  | 	// Output: | ||||||
|  | 	// json.Delim: [ | ||||||
|  | 	// Ed: Knock knock. | ||||||
|  | 	// Sam: Who's there? | ||||||
|  | 	// Ed: Go fmt. | ||||||
|  | 	// Sam: Go fmt who? | ||||||
|  | 	// Ed: Go fmt yourself! | ||||||
|  | 	// json.Delim: ] | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // This example uses RawMessage to delay parsing part of a JSON message. | ||||||
|  | func ExampleRawMessage_unmarshal() { | ||||||
|  | 	type Color struct { | ||||||
|  | 		Space string | ||||||
|  | 		Point json.RawMessage // delay parsing until we know the color space | ||||||
|  | 	} | ||||||
|  | 	type RGB struct { | ||||||
|  | 		R uint8 | ||||||
|  | 		G uint8 | ||||||
|  | 		B uint8 | ||||||
|  | 	} | ||||||
|  | 	type YCbCr struct { | ||||||
|  | 		Y  uint8 | ||||||
|  | 		Cb int8 | ||||||
|  | 		Cr int8 | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	var j = []byte(`[ | ||||||
|  | 	{"Space": "YCbCr", "Point": {"Y": 255, "Cb": 0, "Cr": -10}}, | ||||||
|  | 	{"Space": "RGB",   "Point": {"R": 98, "G": 218, "B": 255}} | ||||||
|  | ]`) | ||||||
|  | 	var colors []Color | ||||||
|  | 	err := json.Unmarshal(j, &colors) | ||||||
|  | 	if err != nil { | ||||||
|  | 		log.Fatalln("error:", err) | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	for _, c := range colors { | ||||||
|  | 		var dst any | ||||||
|  | 		switch c.Space { | ||||||
|  | 		case "RGB": | ||||||
|  | 			dst = new(RGB) | ||||||
|  | 		case "YCbCr": | ||||||
|  | 			dst = new(YCbCr) | ||||||
|  | 		} | ||||||
|  | 		err := json.Unmarshal(c.Point, dst) | ||||||
|  | 		if err != nil { | ||||||
|  | 			log.Fatalln("error:", err) | ||||||
|  | 		} | ||||||
|  | 		fmt.Println(c.Space, dst) | ||||||
|  | 	} | ||||||
|  | 	// Output: | ||||||
|  | 	// YCbCr &{255 0 -10} | ||||||
|  | 	// RGB &{98 218 255} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // This example uses RawMessage to use a precomputed JSON during marshal. | ||||||
|  | func ExampleRawMessage_marshal() { | ||||||
|  | 	h := json.RawMessage(`{"precomputed": true}`) | ||||||
|  |  | ||||||
|  | 	c := struct { | ||||||
|  | 		Header *json.RawMessage `json:"header"` | ||||||
|  | 		Body   string           `json:"body"` | ||||||
|  | 	}{Header: &h, Body: "Hello Gophers!"} | ||||||
|  |  | ||||||
|  | 	b, err := json.MarshalIndent(&c, "", "\t") | ||||||
|  | 	if err != nil { | ||||||
|  | 		fmt.Println("error:", err) | ||||||
|  | 	} | ||||||
|  | 	os.Stdout.Write(b) | ||||||
|  |  | ||||||
|  | 	// Output: | ||||||
|  | 	// { | ||||||
|  | 	// 	"header": { | ||||||
|  | 	// 		"precomputed": true | ||||||
|  | 	// 	}, | ||||||
|  | 	// 	"body": "Hello Gophers!" | ||||||
|  | 	// } | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func ExampleIndent() { | ||||||
|  | 	type Road struct { | ||||||
|  | 		Name   string | ||||||
|  | 		Number int | ||||||
|  | 	} | ||||||
|  | 	roads := []Road{ | ||||||
|  | 		{"Diamond Fork", 29}, | ||||||
|  | 		{"Sheep Creek", 51}, | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	b, err := json.Marshal(roads) | ||||||
|  | 	if err != nil { | ||||||
|  | 		log.Fatal(err) | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	var out bytes.Buffer | ||||||
|  | 	json.Indent(&out, b, "=", "\t") | ||||||
|  | 	out.WriteTo(os.Stdout) | ||||||
|  | 	// Output: | ||||||
|  | 	// [ | ||||||
|  | 	// =	{ | ||||||
|  | 	// =		"Name": "Diamond Fork", | ||||||
|  | 	// =		"Number": 29 | ||||||
|  | 	// =	}, | ||||||
|  | 	// =	{ | ||||||
|  | 	// =		"Name": "Sheep Creek", | ||||||
|  | 	// =		"Number": 51 | ||||||
|  | 	// =	} | ||||||
|  | 	// =] | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func ExampleMarshalIndent() { | ||||||
|  | 	data := map[string]int{ | ||||||
|  | 		"a": 1, | ||||||
|  | 		"b": 2, | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	b, err := json.MarshalIndent(data, "<prefix>", "<indent>") | ||||||
|  | 	if err != nil { | ||||||
|  | 		log.Fatal(err) | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	fmt.Println(string(b)) | ||||||
|  | 	// Output: | ||||||
|  | 	// { | ||||||
|  | 	// <prefix><indent>"a": 1, | ||||||
|  | 	// <prefix><indent>"b": 2 | ||||||
|  | 	// <prefix>} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func ExampleValid() { | ||||||
|  | 	goodJSON := `{"example": 1}` | ||||||
|  | 	badJSON := `{"example":2:]}}` | ||||||
|  |  | ||||||
|  | 	fmt.Println(json.Valid([]byte(goodJSON)), json.Valid([]byte(badJSON))) | ||||||
|  | 	// Output: | ||||||
|  | 	// true false | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func ExampleHTMLEscape() { | ||||||
|  | 	var out bytes.Buffer | ||||||
|  | 	json.HTMLEscape(&out, []byte(`{"Name":"<b>HTML content</b>"}`)) | ||||||
|  | 	out.WriteTo(os.Stdout) | ||||||
|  | 	// Output: | ||||||
|  | 	//{"Name":"\u003cb\u003eHTML content\u003c/b\u003e"} | ||||||
|  | } | ||||||
							
								
								
									
										67
									
								
								gojson/example_text_marshaling_test.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										67
									
								
								gojson/example_text_marshaling_test.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,67 @@ | |||||||
|  | // Copyright 2018 The Go Authors. All rights reserved. | ||||||
|  | // Use of this source code is governed by a BSD-style | ||||||
|  | // license that can be found in the LICENSE file. | ||||||
|  |  | ||||||
|  | package json_test | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"encoding/json" | ||||||
|  | 	"fmt" | ||||||
|  | 	"log" | ||||||
|  | 	"strings" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | type Size int | ||||||
|  |  | ||||||
|  | const ( | ||||||
|  | 	Unrecognized Size = iota | ||||||
|  | 	Small | ||||||
|  | 	Large | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | func (s *Size) UnmarshalText(text []byte) error { | ||||||
|  | 	switch strings.ToLower(string(text)) { | ||||||
|  | 	default: | ||||||
|  | 		*s = Unrecognized | ||||||
|  | 	case "small": | ||||||
|  | 		*s = Small | ||||||
|  | 	case "large": | ||||||
|  | 		*s = Large | ||||||
|  | 	} | ||||||
|  | 	return nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (s Size) MarshalText() ([]byte, error) { | ||||||
|  | 	var name string | ||||||
|  | 	switch s { | ||||||
|  | 	default: | ||||||
|  | 		name = "unrecognized" | ||||||
|  | 	case Small: | ||||||
|  | 		name = "small" | ||||||
|  | 	case Large: | ||||||
|  | 		name = "large" | ||||||
|  | 	} | ||||||
|  | 	return []byte(name), nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func Example_textMarshalJSON() { | ||||||
|  | 	blob := `["small","regular","large","unrecognized","small","normal","small","large"]` | ||||||
|  | 	var inventory []Size | ||||||
|  | 	if err := json.Unmarshal([]byte(blob), &inventory); err != nil { | ||||||
|  | 		log.Fatal(err) | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	counts := make(map[Size]int) | ||||||
|  | 	for _, size := range inventory { | ||||||
|  | 		counts[size] += 1 | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	fmt.Printf("Inventory Counts:\n* Small:        %d\n* Large:        %d\n* Unrecognized: %d\n", | ||||||
|  | 		counts[Small], counts[Large], counts[Unrecognized]) | ||||||
|  |  | ||||||
|  | 	// Output: | ||||||
|  | 	// Inventory Counts: | ||||||
|  | 	// * Small:        3 | ||||||
|  | 	// * Large:        2 | ||||||
|  | 	// * Unrecognized: 3 | ||||||
|  | } | ||||||
							
								
								
									
										141
									
								
								gojson/fold.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										141
									
								
								gojson/fold.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,141 @@ | |||||||
|  | // Copyright 2013 The Go Authors. All rights reserved. | ||||||
|  | // Use of this source code is governed by a BSD-style | ||||||
|  | // license that can be found in the LICENSE file. | ||||||
|  |  | ||||||
|  | package json | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"bytes" | ||||||
|  | 	"unicode/utf8" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | const ( | ||||||
|  | 	caseMask     = ^byte(0x20) // Mask to ignore case in ASCII. | ||||||
|  | 	kelvin       = '\u212a' | ||||||
|  | 	smallLongEss = '\u017f' | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | // foldFunc returns one of four different case folding equivalence | ||||||
|  | // functions, from most general (and slow) to fastest: | ||||||
|  | // | ||||||
|  | // 1) bytes.EqualFold, if the key s contains any non-ASCII UTF-8 | ||||||
|  | // 2) equalFoldRight, if s contains special folding ASCII ('k', 'K', 's', 'S') | ||||||
|  | // 3) asciiEqualFold, no special, but includes non-letters (including _) | ||||||
|  | // 4) simpleLetterEqualFold, no specials, no non-letters. | ||||||
|  | // | ||||||
|  | // The letters S and K are special because they map to 3 runes, not just 2: | ||||||
|  | //   - S maps to s and to U+017F 'ſ' Latin small letter long s | ||||||
|  | //   - k maps to K and to U+212A 'K' Kelvin sign | ||||||
|  | // | ||||||
|  | // See https://play.golang.org/p/tTxjOc0OGo | ||||||
|  | // | ||||||
|  | // The returned function is specialized for matching against s and | ||||||
|  | // should only be given s. It's not curried for performance reasons. | ||||||
|  | func foldFunc(s []byte) func(s, t []byte) bool { | ||||||
|  | 	nonLetter := false | ||||||
|  | 	special := false // special letter | ||||||
|  | 	for _, b := range s { | ||||||
|  | 		if b >= utf8.RuneSelf { | ||||||
|  | 			return bytes.EqualFold | ||||||
|  | 		} | ||||||
|  | 		upper := b & caseMask | ||||||
|  | 		if upper < 'A' || upper > 'Z' { | ||||||
|  | 			nonLetter = true | ||||||
|  | 		} else if upper == 'K' || upper == 'S' { | ||||||
|  | 			// See above for why these letters are special. | ||||||
|  | 			special = true | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | 	if special { | ||||||
|  | 		return equalFoldRight | ||||||
|  | 	} | ||||||
|  | 	if nonLetter { | ||||||
|  | 		return asciiEqualFold | ||||||
|  | 	} | ||||||
|  | 	return simpleLetterEqualFold | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // equalFoldRight is a specialization of bytes.EqualFold when s is | ||||||
|  | // known to be all ASCII (including punctuation), but contains an 's', | ||||||
|  | // 'S', 'k', or 'K', requiring a Unicode fold on the bytes in t. | ||||||
|  | // See comments on foldFunc. | ||||||
|  | func equalFoldRight(s, t []byte) bool { | ||||||
|  | 	for _, sb := range s { | ||||||
|  | 		if len(t) == 0 { | ||||||
|  | 			return false | ||||||
|  | 		} | ||||||
|  | 		tb := t[0] | ||||||
|  | 		if tb < utf8.RuneSelf { | ||||||
|  | 			if sb != tb { | ||||||
|  | 				sbUpper := sb & caseMask | ||||||
|  | 				if 'A' <= sbUpper && sbUpper <= 'Z' { | ||||||
|  | 					if sbUpper != tb&caseMask { | ||||||
|  | 						return false | ||||||
|  | 					} | ||||||
|  | 				} else { | ||||||
|  | 					return false | ||||||
|  | 				} | ||||||
|  | 			} | ||||||
|  | 			t = t[1:] | ||||||
|  | 			continue | ||||||
|  | 		} | ||||||
|  | 		// sb is ASCII and t is not. t must be either kelvin | ||||||
|  | 		// sign or long s; sb must be s, S, k, or K. | ||||||
|  | 		tr, size := utf8.DecodeRune(t) | ||||||
|  | 		switch sb { | ||||||
|  | 		case 's', 'S': | ||||||
|  | 			if tr != smallLongEss { | ||||||
|  | 				return false | ||||||
|  | 			} | ||||||
|  | 		case 'k', 'K': | ||||||
|  | 			if tr != kelvin { | ||||||
|  | 				return false | ||||||
|  | 			} | ||||||
|  | 		default: | ||||||
|  | 			return false | ||||||
|  | 		} | ||||||
|  | 		t = t[size:] | ||||||
|  |  | ||||||
|  | 	} | ||||||
|  | 	return len(t) == 0 | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // asciiEqualFold is a specialization of bytes.EqualFold for use when | ||||||
|  | // s is all ASCII (but may contain non-letters) and contains no | ||||||
|  | // special-folding letters. | ||||||
|  | // See comments on foldFunc. | ||||||
|  | func asciiEqualFold(s, t []byte) bool { | ||||||
|  | 	if len(s) != len(t) { | ||||||
|  | 		return false | ||||||
|  | 	} | ||||||
|  | 	for i, sb := range s { | ||||||
|  | 		tb := t[i] | ||||||
|  | 		if sb == tb { | ||||||
|  | 			continue | ||||||
|  | 		} | ||||||
|  | 		if ('a' <= sb && sb <= 'z') || ('A' <= sb && sb <= 'Z') { | ||||||
|  | 			if sb&caseMask != tb&caseMask { | ||||||
|  | 				return false | ||||||
|  | 			} | ||||||
|  | 		} else { | ||||||
|  | 			return false | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | 	return true | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // simpleLetterEqualFold is a specialization of bytes.EqualFold for | ||||||
|  | // use when s is all ASCII letters (no underscores, etc) and also | ||||||
|  | // doesn't contain 'k', 'K', 's', or 'S'. | ||||||
|  | // See comments on foldFunc. | ||||||
|  | func simpleLetterEqualFold(s, t []byte) bool { | ||||||
|  | 	if len(s) != len(t) { | ||||||
|  | 		return false | ||||||
|  | 	} | ||||||
|  | 	for i, b := range s { | ||||||
|  | 		if b&caseMask != t[i]&caseMask { | ||||||
|  | 			return false | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | 	return true | ||||||
|  | } | ||||||
							
								
								
									
										110
									
								
								gojson/fold_test.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										110
									
								
								gojson/fold_test.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,110 @@ | |||||||
|  | // Copyright 2013 The Go Authors. All rights reserved. | ||||||
|  | // Use of this source code is governed by a BSD-style | ||||||
|  | // license that can be found in the LICENSE file. | ||||||
|  |  | ||||||
|  | package json | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"bytes" | ||||||
|  | 	"strings" | ||||||
|  | 	"testing" | ||||||
|  | 	"unicode/utf8" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | var foldTests = []struct { | ||||||
|  | 	fn   func(s, t []byte) bool | ||||||
|  | 	s, t string | ||||||
|  | 	want bool | ||||||
|  | }{ | ||||||
|  | 	{equalFoldRight, "", "", true}, | ||||||
|  | 	{equalFoldRight, "a", "a", true}, | ||||||
|  | 	{equalFoldRight, "", "a", false}, | ||||||
|  | 	{equalFoldRight, "a", "", false}, | ||||||
|  | 	{equalFoldRight, "a", "A", true}, | ||||||
|  | 	{equalFoldRight, "AB", "ab", true}, | ||||||
|  | 	{equalFoldRight, "AB", "ac", false}, | ||||||
|  | 	{equalFoldRight, "sbkKc", "ſbKKc", true}, | ||||||
|  | 	{equalFoldRight, "SbKkc", "ſbKKc", true}, | ||||||
|  | 	{equalFoldRight, "SbKkc", "ſbKK", false}, | ||||||
|  | 	{equalFoldRight, "e", "é", false}, | ||||||
|  | 	{equalFoldRight, "s", "S", true}, | ||||||
|  |  | ||||||
|  | 	{simpleLetterEqualFold, "", "", true}, | ||||||
|  | 	{simpleLetterEqualFold, "abc", "abc", true}, | ||||||
|  | 	{simpleLetterEqualFold, "abc", "ABC", true}, | ||||||
|  | 	{simpleLetterEqualFold, "abc", "ABCD", false}, | ||||||
|  | 	{simpleLetterEqualFold, "abc", "xxx", false}, | ||||||
|  |  | ||||||
|  | 	{asciiEqualFold, "a_B", "A_b", true}, | ||||||
|  | 	{asciiEqualFold, "aa@", "aa`", false}, // verify 0x40 and 0x60 aren't case-equivalent | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func TestFold(t *testing.T) { | ||||||
|  | 	for i, tt := range foldTests { | ||||||
|  | 		if got := tt.fn([]byte(tt.s), []byte(tt.t)); got != tt.want { | ||||||
|  | 			t.Errorf("%d. %q, %q = %v; want %v", i, tt.s, tt.t, got, tt.want) | ||||||
|  | 		} | ||||||
|  | 		truth := strings.EqualFold(tt.s, tt.t) | ||||||
|  | 		if truth != tt.want { | ||||||
|  | 			t.Errorf("strings.EqualFold doesn't agree with case %d", i) | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func TestFoldAgainstUnicode(t *testing.T) { | ||||||
|  | 	var buf1, buf2 []byte | ||||||
|  | 	var runes []rune | ||||||
|  | 	for i := 0x20; i <= 0x7f; i++ { | ||||||
|  | 		runes = append(runes, rune(i)) | ||||||
|  | 	} | ||||||
|  | 	runes = append(runes, kelvin, smallLongEss) | ||||||
|  |  | ||||||
|  | 	funcs := []struct { | ||||||
|  | 		name   string | ||||||
|  | 		fold   func(s, t []byte) bool | ||||||
|  | 		letter bool // must be ASCII letter | ||||||
|  | 		simple bool // must be simple ASCII letter (not 'S' or 'K') | ||||||
|  | 	}{ | ||||||
|  | 		{ | ||||||
|  | 			name: "equalFoldRight", | ||||||
|  | 			fold: equalFoldRight, | ||||||
|  | 		}, | ||||||
|  | 		{ | ||||||
|  | 			name:   "asciiEqualFold", | ||||||
|  | 			fold:   asciiEqualFold, | ||||||
|  | 			simple: true, | ||||||
|  | 		}, | ||||||
|  | 		{ | ||||||
|  | 			name:   "simpleLetterEqualFold", | ||||||
|  | 			fold:   simpleLetterEqualFold, | ||||||
|  | 			simple: true, | ||||||
|  | 			letter: true, | ||||||
|  | 		}, | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	for _, ff := range funcs { | ||||||
|  | 		for _, r := range runes { | ||||||
|  | 			if r >= utf8.RuneSelf { | ||||||
|  | 				continue | ||||||
|  | 			} | ||||||
|  | 			if ff.letter && !isASCIILetter(byte(r)) { | ||||||
|  | 				continue | ||||||
|  | 			} | ||||||
|  | 			if ff.simple && (r == 's' || r == 'S' || r == 'k' || r == 'K') { | ||||||
|  | 				continue | ||||||
|  | 			} | ||||||
|  | 			for _, r2 := range runes { | ||||||
|  | 				buf1 = append(utf8.AppendRune(append(buf1[:0], 'x'), r), 'x') | ||||||
|  | 				buf2 = append(utf8.AppendRune(append(buf2[:0], 'x'), r2), 'x') | ||||||
|  | 				want := bytes.EqualFold(buf1, buf2) | ||||||
|  | 				if got := ff.fold(buf1, buf2); got != want { | ||||||
|  | 					t.Errorf("%s(%q, %q) = %v; want %v", ff.name, buf1, buf2, got, want) | ||||||
|  | 				} | ||||||
|  | 			} | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func isASCIILetter(b byte) bool { | ||||||
|  | 	return ('A' <= b && b <= 'Z') || ('a' <= b && b <= 'z') | ||||||
|  | } | ||||||
							
								
								
									
										42
									
								
								gojson/fuzz.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										42
									
								
								gojson/fuzz.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,42 @@ | |||||||
|  | // Copyright 2019 The Go Authors. All rights reserved. | ||||||
|  | // Use of this source code is governed by a BSD-style | ||||||
|  | // license that can be found in the LICENSE file. | ||||||
|  |  | ||||||
|  | //go:build gofuzz | ||||||
|  |  | ||||||
|  | package json | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"fmt" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | func Fuzz(data []byte) (score int) { | ||||||
|  | 	for _, ctor := range []func() any{ | ||||||
|  | 		func() any { return new(any) }, | ||||||
|  | 		func() any { return new(map[string]any) }, | ||||||
|  | 		func() any { return new([]any) }, | ||||||
|  | 	} { | ||||||
|  | 		v := ctor() | ||||||
|  | 		err := Unmarshal(data, v) | ||||||
|  | 		if err != nil { | ||||||
|  | 			continue | ||||||
|  | 		} | ||||||
|  | 		score = 1 | ||||||
|  |  | ||||||
|  | 		m, err := Marshal(v) | ||||||
|  | 		if err != nil { | ||||||
|  | 			fmt.Printf("v=%#v\n", v) | ||||||
|  | 			panic(err) | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		u := ctor() | ||||||
|  | 		err = Unmarshal(m, u) | ||||||
|  | 		if err != nil { | ||||||
|  | 			fmt.Printf("v=%#v\n", v) | ||||||
|  | 			fmt.Printf("m=%s\n", m) | ||||||
|  | 			panic(err) | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return | ||||||
|  | } | ||||||
							
								
								
									
										83
									
								
								gojson/fuzz_test.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										83
									
								
								gojson/fuzz_test.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,83 @@ | |||||||
|  | // Copyright 2021 The Go Authors. All rights reserved. | ||||||
|  | // Use of this source code is governed by a BSD-style | ||||||
|  | // license that can be found in the LICENSE file. | ||||||
|  |  | ||||||
|  | package json | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"bytes" | ||||||
|  | 	"io" | ||||||
|  | 	"testing" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | func FuzzUnmarshalJSON(f *testing.F) { | ||||||
|  | 	f.Add([]byte(`{ | ||||||
|  | "object": { | ||||||
|  | 	"slice": [ | ||||||
|  | 		1, | ||||||
|  | 		2.0, | ||||||
|  | 		"3", | ||||||
|  | 		[4], | ||||||
|  | 		{5: {}} | ||||||
|  | 	] | ||||||
|  | }, | ||||||
|  | "slice": [[]], | ||||||
|  | "string": ":)", | ||||||
|  | "int": 1e5, | ||||||
|  | "float": 3e-9" | ||||||
|  | }`)) | ||||||
|  |  | ||||||
|  | 	f.Fuzz(func(t *testing.T, b []byte) { | ||||||
|  | 		for _, typ := range []func() interface{}{ | ||||||
|  | 			func() interface{} { return new(interface{}) }, | ||||||
|  | 			func() interface{} { return new(map[string]interface{}) }, | ||||||
|  | 			func() interface{} { return new([]interface{}) }, | ||||||
|  | 		} { | ||||||
|  | 			i := typ() | ||||||
|  | 			if err := Unmarshal(b, i); err != nil { | ||||||
|  | 				return | ||||||
|  | 			} | ||||||
|  |  | ||||||
|  | 			encoded, err := Marshal(i) | ||||||
|  | 			if err != nil { | ||||||
|  | 				t.Fatalf("failed to marshal: %s", err) | ||||||
|  | 			} | ||||||
|  |  | ||||||
|  | 			if err := Unmarshal(encoded, i); err != nil { | ||||||
|  | 				t.Fatalf("failed to roundtrip: %s", err) | ||||||
|  | 			} | ||||||
|  | 		} | ||||||
|  | 	}) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func FuzzDecoderToken(f *testing.F) { | ||||||
|  | 	f.Add([]byte(`{ | ||||||
|  | "object": { | ||||||
|  | 	"slice": [ | ||||||
|  | 		1, | ||||||
|  | 		2.0, | ||||||
|  | 		"3", | ||||||
|  | 		[4], | ||||||
|  | 		{5: {}} | ||||||
|  | 	] | ||||||
|  | }, | ||||||
|  | "slice": [[]], | ||||||
|  | "string": ":)", | ||||||
|  | "int": 1e5, | ||||||
|  | "float": 3e-9" | ||||||
|  | }`)) | ||||||
|  |  | ||||||
|  | 	f.Fuzz(func(t *testing.T, b []byte) { | ||||||
|  | 		r := bytes.NewReader(b) | ||||||
|  | 		d := NewDecoder(r) | ||||||
|  | 		for { | ||||||
|  | 			_, err := d.Token() | ||||||
|  | 			if err != nil { | ||||||
|  | 				if err == io.EOF { | ||||||
|  | 					break | ||||||
|  | 				} | ||||||
|  | 				return | ||||||
|  | 			} | ||||||
|  | 		} | ||||||
|  | 	}) | ||||||
|  | } | ||||||
							
								
								
									
										44
									
								
								gojson/gionic.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										44
									
								
								gojson/gionic.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,44 @@ | |||||||
|  | package json | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"net/http" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | // Render interface is copied from github.com/gin-gonic/gin@v1.8.1/render/render.go | ||||||
|  | type Render interface { | ||||||
|  | 	// Render writes data with custom ContentType. | ||||||
|  | 	Render(http.ResponseWriter) error | ||||||
|  | 	// WriteContentType writes custom ContentType. | ||||||
|  | 	WriteContentType(w http.ResponseWriter) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type GoJsonRender struct { | ||||||
|  | 	Data          any | ||||||
|  | 	NilSafeSlices bool | ||||||
|  | 	NilSafeMaps   bool | ||||||
|  | 	Indent        *IndentOpt | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (r GoJsonRender) Render(w http.ResponseWriter) error { | ||||||
|  | 	header := w.Header() | ||||||
|  | 	if val := header["Content-Type"]; len(val) == 0 { | ||||||
|  | 		header["Content-Type"] = []string{"application/json; charset=utf-8"} | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	jsonBytes, err := MarshalSafeCollections(r.Data, r.NilSafeSlices, r.NilSafeMaps, r.Indent) | ||||||
|  | 	if err != nil { | ||||||
|  | 		panic(err) | ||||||
|  | 	} | ||||||
|  | 	_, err = w.Write(jsonBytes) | ||||||
|  | 	if err != nil { | ||||||
|  | 		panic(err) | ||||||
|  | 	} | ||||||
|  | 	return nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (r GoJsonRender) WriteContentType(w http.ResponseWriter) { | ||||||
|  | 	header := w.Header() | ||||||
|  | 	if val := header["Content-Type"]; len(val) == 0 { | ||||||
|  | 		header["Content-Type"] = []string{"application/json; charset=utf-8"} | ||||||
|  | 	} | ||||||
|  | } | ||||||
							
								
								
									
										143
									
								
								gojson/indent.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										143
									
								
								gojson/indent.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,143 @@ | |||||||
|  | // Copyright 2010 The Go Authors. All rights reserved. | ||||||
|  | // Use of this source code is governed by a BSD-style | ||||||
|  | // license that can be found in the LICENSE file. | ||||||
|  |  | ||||||
|  | package json | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"bytes" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | // Compact appends to dst the JSON-encoded src with | ||||||
|  | // insignificant space characters elided. | ||||||
|  | func Compact(dst *bytes.Buffer, src []byte) error { | ||||||
|  | 	return compact(dst, src, false) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func compact(dst *bytes.Buffer, src []byte, escape bool) error { | ||||||
|  | 	origLen := dst.Len() | ||||||
|  | 	scan := newScanner() | ||||||
|  | 	defer freeScanner(scan) | ||||||
|  | 	start := 0 | ||||||
|  | 	for i, c := range src { | ||||||
|  | 		if escape && (c == '<' || c == '>' || c == '&') { | ||||||
|  | 			if start < i { | ||||||
|  | 				dst.Write(src[start:i]) | ||||||
|  | 			} | ||||||
|  | 			dst.WriteString(`\u00`) | ||||||
|  | 			dst.WriteByte(hex[c>>4]) | ||||||
|  | 			dst.WriteByte(hex[c&0xF]) | ||||||
|  | 			start = i + 1 | ||||||
|  | 		} | ||||||
|  | 		// Convert U+2028 and U+2029 (E2 80 A8 and E2 80 A9). | ||||||
|  | 		if escape && c == 0xE2 && i+2 < len(src) && src[i+1] == 0x80 && src[i+2]&^1 == 0xA8 { | ||||||
|  | 			if start < i { | ||||||
|  | 				dst.Write(src[start:i]) | ||||||
|  | 			} | ||||||
|  | 			dst.WriteString(`\u202`) | ||||||
|  | 			dst.WriteByte(hex[src[i+2]&0xF]) | ||||||
|  | 			start = i + 3 | ||||||
|  | 		} | ||||||
|  | 		v := scan.step(scan, c) | ||||||
|  | 		if v >= scanSkipSpace { | ||||||
|  | 			if v == scanError { | ||||||
|  | 				break | ||||||
|  | 			} | ||||||
|  | 			if start < i { | ||||||
|  | 				dst.Write(src[start:i]) | ||||||
|  | 			} | ||||||
|  | 			start = i + 1 | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | 	if scan.eof() == scanError { | ||||||
|  | 		dst.Truncate(origLen) | ||||||
|  | 		return scan.err | ||||||
|  | 	} | ||||||
|  | 	if start < len(src) { | ||||||
|  | 		dst.Write(src[start:]) | ||||||
|  | 	} | ||||||
|  | 	return nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func newline(dst *bytes.Buffer, prefix, indent string, depth int) { | ||||||
|  | 	dst.WriteByte('\n') | ||||||
|  | 	dst.WriteString(prefix) | ||||||
|  | 	for i := 0; i < depth; i++ { | ||||||
|  | 		dst.WriteString(indent) | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // Indent appends to dst an indented form of the JSON-encoded src. | ||||||
|  | // Each element in a JSON object or array begins on a new, | ||||||
|  | // indented line beginning with prefix followed by one or more | ||||||
|  | // copies of indent according to the indentation nesting. | ||||||
|  | // The data appended to dst does not begin with the prefix nor | ||||||
|  | // any indentation, to make it easier to embed inside other formatted JSON data. | ||||||
|  | // Although leading space characters (space, tab, carriage return, newline) | ||||||
|  | // at the beginning of src are dropped, trailing space characters | ||||||
|  | // at the end of src are preserved and copied to dst. | ||||||
|  | // For example, if src has no trailing spaces, neither will dst; | ||||||
|  | // if src ends in a trailing newline, so will dst. | ||||||
|  | func Indent(dst *bytes.Buffer, src []byte, prefix, indent string) error { | ||||||
|  | 	origLen := dst.Len() | ||||||
|  | 	scan := newScanner() | ||||||
|  | 	defer freeScanner(scan) | ||||||
|  | 	needIndent := false | ||||||
|  | 	depth := 0 | ||||||
|  | 	for _, c := range src { | ||||||
|  | 		scan.bytes++ | ||||||
|  | 		v := scan.step(scan, c) | ||||||
|  | 		if v == scanSkipSpace { | ||||||
|  | 			continue | ||||||
|  | 		} | ||||||
|  | 		if v == scanError { | ||||||
|  | 			break | ||||||
|  | 		} | ||||||
|  | 		if needIndent && v != scanEndObject && v != scanEndArray { | ||||||
|  | 			needIndent = false | ||||||
|  | 			depth++ | ||||||
|  | 			newline(dst, prefix, indent, depth) | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		// Emit semantically uninteresting bytes | ||||||
|  | 		// (in particular, punctuation in strings) unmodified. | ||||||
|  | 		if v == scanContinue { | ||||||
|  | 			dst.WriteByte(c) | ||||||
|  | 			continue | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		// Add spacing around real punctuation. | ||||||
|  | 		switch c { | ||||||
|  | 		case '{', '[': | ||||||
|  | 			// delay indent so that empty object and array are formatted as {} and []. | ||||||
|  | 			needIndent = true | ||||||
|  | 			dst.WriteByte(c) | ||||||
|  |  | ||||||
|  | 		case ',': | ||||||
|  | 			dst.WriteByte(c) | ||||||
|  | 			newline(dst, prefix, indent, depth) | ||||||
|  |  | ||||||
|  | 		case ':': | ||||||
|  | 			dst.WriteByte(c) | ||||||
|  | 			dst.WriteByte(' ') | ||||||
|  |  | ||||||
|  | 		case '}', ']': | ||||||
|  | 			if needIndent { | ||||||
|  | 				// suppress indent in empty object/array | ||||||
|  | 				needIndent = false | ||||||
|  | 			} else { | ||||||
|  | 				depth-- | ||||||
|  | 				newline(dst, prefix, indent, depth) | ||||||
|  | 			} | ||||||
|  | 			dst.WriteByte(c) | ||||||
|  |  | ||||||
|  | 		default: | ||||||
|  | 			dst.WriteByte(c) | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | 	if scan.eof() == scanError { | ||||||
|  | 		dst.Truncate(origLen) | ||||||
|  | 		return scan.err | ||||||
|  | 	} | ||||||
|  | 	return nil | ||||||
|  | } | ||||||
							
								
								
									
										118
									
								
								gojson/number_test.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										118
									
								
								gojson/number_test.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,118 @@ | |||||||
|  | // Copyright 2011 The Go Authors. All rights reserved. | ||||||
|  | // Use of this source code is governed by a BSD-style | ||||||
|  | // license that can be found in the LICENSE file. | ||||||
|  |  | ||||||
|  | package json | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"regexp" | ||||||
|  | 	"testing" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | func TestNumberIsValid(t *testing.T) { | ||||||
|  | 	// From: https://stackoverflow.com/a/13340826 | ||||||
|  | 	var jsonNumberRegexp = regexp.MustCompile(`^-?(?:0|[1-9]\d*)(?:\.\d+)?(?:[eE][+-]?\d+)?$`) | ||||||
|  |  | ||||||
|  | 	validTests := []string{ | ||||||
|  | 		"0", | ||||||
|  | 		"-0", | ||||||
|  | 		"1", | ||||||
|  | 		"-1", | ||||||
|  | 		"0.1", | ||||||
|  | 		"-0.1", | ||||||
|  | 		"1234", | ||||||
|  | 		"-1234", | ||||||
|  | 		"12.34", | ||||||
|  | 		"-12.34", | ||||||
|  | 		"12E0", | ||||||
|  | 		"12E1", | ||||||
|  | 		"12e34", | ||||||
|  | 		"12E-0", | ||||||
|  | 		"12e+1", | ||||||
|  | 		"12e-34", | ||||||
|  | 		"-12E0", | ||||||
|  | 		"-12E1", | ||||||
|  | 		"-12e34", | ||||||
|  | 		"-12E-0", | ||||||
|  | 		"-12e+1", | ||||||
|  | 		"-12e-34", | ||||||
|  | 		"1.2E0", | ||||||
|  | 		"1.2E1", | ||||||
|  | 		"1.2e34", | ||||||
|  | 		"1.2E-0", | ||||||
|  | 		"1.2e+1", | ||||||
|  | 		"1.2e-34", | ||||||
|  | 		"-1.2E0", | ||||||
|  | 		"-1.2E1", | ||||||
|  | 		"-1.2e34", | ||||||
|  | 		"-1.2E-0", | ||||||
|  | 		"-1.2e+1", | ||||||
|  | 		"-1.2e-34", | ||||||
|  | 		"0E0", | ||||||
|  | 		"0E1", | ||||||
|  | 		"0e34", | ||||||
|  | 		"0E-0", | ||||||
|  | 		"0e+1", | ||||||
|  | 		"0e-34", | ||||||
|  | 		"-0E0", | ||||||
|  | 		"-0E1", | ||||||
|  | 		"-0e34", | ||||||
|  | 		"-0E-0", | ||||||
|  | 		"-0e+1", | ||||||
|  | 		"-0e-34", | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	for _, test := range validTests { | ||||||
|  | 		if !isValidNumber(test) { | ||||||
|  | 			t.Errorf("%s should be valid", test) | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		var f float64 | ||||||
|  | 		if err := Unmarshal([]byte(test), &f); err != nil { | ||||||
|  | 			t.Errorf("%s should be valid but Unmarshal failed: %v", test, err) | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		if !jsonNumberRegexp.MatchString(test) { | ||||||
|  | 			t.Errorf("%s should be valid but regexp does not match", test) | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	invalidTests := []string{ | ||||||
|  | 		"", | ||||||
|  | 		"invalid", | ||||||
|  | 		"1.0.1", | ||||||
|  | 		"1..1", | ||||||
|  | 		"-1-2", | ||||||
|  | 		"012a42", | ||||||
|  | 		"01.2", | ||||||
|  | 		"012", | ||||||
|  | 		"12E12.12", | ||||||
|  | 		"1e2e3", | ||||||
|  | 		"1e+-2", | ||||||
|  | 		"1e--23", | ||||||
|  | 		"1e", | ||||||
|  | 		"e1", | ||||||
|  | 		"1e+", | ||||||
|  | 		"1ea", | ||||||
|  | 		"1a", | ||||||
|  | 		"1.a", | ||||||
|  | 		"1.", | ||||||
|  | 		"01", | ||||||
|  | 		"1.e1", | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	for _, test := range invalidTests { | ||||||
|  | 		if isValidNumber(test) { | ||||||
|  | 			t.Errorf("%s should be invalid", test) | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		var f float64 | ||||||
|  | 		if err := Unmarshal([]byte(test), &f); err == nil { | ||||||
|  | 			t.Errorf("%s should be invalid but unmarshal wrote %v", test, f) | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		if jsonNumberRegexp.MatchString(test) { | ||||||
|  | 			t.Errorf("%s should be invalid but matches regexp", test) | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | } | ||||||
							
								
								
									
										610
									
								
								gojson/scanner.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										610
									
								
								gojson/scanner.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,610 @@ | |||||||
|  | // Copyright 2010 The Go Authors. All rights reserved. | ||||||
|  | // Use of this source code is governed by a BSD-style | ||||||
|  | // license that can be found in the LICENSE file. | ||||||
|  |  | ||||||
|  | package json | ||||||
|  |  | ||||||
|  | // JSON value parser state machine. | ||||||
|  | // Just about at the limit of what is reasonable to write by hand. | ||||||
|  | // Some parts are a bit tedious, but overall it nicely factors out the | ||||||
|  | // otherwise common code from the multiple scanning functions | ||||||
|  | // in this package (Compact, Indent, checkValid, etc). | ||||||
|  | // | ||||||
|  | // This file starts with two simple examples using the scanner | ||||||
|  | // before diving into the scanner itself. | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"strconv" | ||||||
|  | 	"sync" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | // Valid reports whether data is a valid JSON encoding. | ||||||
|  | func Valid(data []byte) bool { | ||||||
|  | 	scan := newScanner() | ||||||
|  | 	defer freeScanner(scan) | ||||||
|  | 	return checkValid(data, scan) == nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // checkValid verifies that data is valid JSON-encoded data. | ||||||
|  | // scan is passed in for use by checkValid to avoid an allocation. | ||||||
|  | // checkValid returns nil or a SyntaxError. | ||||||
|  | func checkValid(data []byte, scan *scanner) error { | ||||||
|  | 	scan.reset() | ||||||
|  | 	for _, c := range data { | ||||||
|  | 		scan.bytes++ | ||||||
|  | 		if scan.step(scan, c) == scanError { | ||||||
|  | 			return scan.err | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | 	if scan.eof() == scanError { | ||||||
|  | 		return scan.err | ||||||
|  | 	} | ||||||
|  | 	return nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // A SyntaxError is a description of a JSON syntax error. | ||||||
|  | // Unmarshal will return a SyntaxError if the JSON can't be parsed. | ||||||
|  | type SyntaxError struct { | ||||||
|  | 	msg    string // description of error | ||||||
|  | 	Offset int64  // error occurred after reading Offset bytes | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (e *SyntaxError) Error() string { return e.msg } | ||||||
|  |  | ||||||
|  | // A scanner is a JSON scanning state machine. | ||||||
|  | // Callers call scan.reset and then pass bytes in one at a time | ||||||
|  | // by calling scan.step(&scan, c) for each byte. | ||||||
|  | // The return value, referred to as an opcode, tells the | ||||||
|  | // caller about significant parsing events like beginning | ||||||
|  | // and ending literals, objects, and arrays, so that the | ||||||
|  | // caller can follow along if it wishes. | ||||||
|  | // The return value scanEnd indicates that a single top-level | ||||||
|  | // JSON value has been completed, *before* the byte that | ||||||
|  | // just got passed in.  (The indication must be delayed in order | ||||||
|  | // to recognize the end of numbers: is 123 a whole value or | ||||||
|  | // the beginning of 12345e+6?). | ||||||
|  | type scanner struct { | ||||||
|  | 	// The step is a func to be called to execute the next transition. | ||||||
|  | 	// Also tried using an integer constant and a single func | ||||||
|  | 	// with a switch, but using the func directly was 10% faster | ||||||
|  | 	// on a 64-bit Mac Mini, and it's nicer to read. | ||||||
|  | 	step func(*scanner, byte) int | ||||||
|  |  | ||||||
|  | 	// Reached end of top-level value. | ||||||
|  | 	endTop bool | ||||||
|  |  | ||||||
|  | 	// Stack of what we're in the middle of - array values, object keys, object values. | ||||||
|  | 	parseState []int | ||||||
|  |  | ||||||
|  | 	// Error that happened, if any. | ||||||
|  | 	err error | ||||||
|  |  | ||||||
|  | 	// total bytes consumed, updated by decoder.Decode (and deliberately | ||||||
|  | 	// not set to zero by scan.reset) | ||||||
|  | 	bytes int64 | ||||||
|  | } | ||||||
|  |  | ||||||
|  | var scannerPool = sync.Pool{ | ||||||
|  | 	New: func() any { | ||||||
|  | 		return &scanner{} | ||||||
|  | 	}, | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func newScanner() *scanner { | ||||||
|  | 	scan := scannerPool.Get().(*scanner) | ||||||
|  | 	// scan.reset by design doesn't set bytes to zero | ||||||
|  | 	scan.bytes = 0 | ||||||
|  | 	scan.reset() | ||||||
|  | 	return scan | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func freeScanner(scan *scanner) { | ||||||
|  | 	// Avoid hanging on to too much memory in extreme cases. | ||||||
|  | 	if len(scan.parseState) > 1024 { | ||||||
|  | 		scan.parseState = nil | ||||||
|  | 	} | ||||||
|  | 	scannerPool.Put(scan) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // These values are returned by the state transition functions | ||||||
|  | // assigned to scanner.state and the method scanner.eof. | ||||||
|  | // They give details about the current state of the scan that | ||||||
|  | // callers might be interested to know about. | ||||||
|  | // It is okay to ignore the return value of any particular | ||||||
|  | // call to scanner.state: if one call returns scanError, | ||||||
|  | // every subsequent call will return scanError too. | ||||||
|  | const ( | ||||||
|  | 	// Continue. | ||||||
|  | 	scanContinue     = iota // uninteresting byte | ||||||
|  | 	scanBeginLiteral        // end implied by next result != scanContinue | ||||||
|  | 	scanBeginObject         // begin object | ||||||
|  | 	scanObjectKey           // just finished object key (string) | ||||||
|  | 	scanObjectValue         // just finished non-last object value | ||||||
|  | 	scanEndObject           // end object (implies scanObjectValue if possible) | ||||||
|  | 	scanBeginArray          // begin array | ||||||
|  | 	scanArrayValue          // just finished array value | ||||||
|  | 	scanEndArray            // end array (implies scanArrayValue if possible) | ||||||
|  | 	scanSkipSpace           // space byte; can skip; known to be last "continue" result | ||||||
|  |  | ||||||
|  | 	// Stop. | ||||||
|  | 	scanEnd   // top-level value ended *before* this byte; known to be first "stop" result | ||||||
|  | 	scanError // hit an error, scanner.err. | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | // These values are stored in the parseState stack. | ||||||
|  | // They give the current state of a composite value | ||||||
|  | // being scanned. If the parser is inside a nested value | ||||||
|  | // the parseState describes the nested state, outermost at entry 0. | ||||||
|  | const ( | ||||||
|  | 	parseObjectKey   = iota // parsing object key (before colon) | ||||||
|  | 	parseObjectValue        // parsing object value (after colon) | ||||||
|  | 	parseArrayValue         // parsing array value | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | // This limits the max nesting depth to prevent stack overflow. | ||||||
|  | // This is permitted by https://tools.ietf.org/html/rfc7159#section-9 | ||||||
|  | const maxNestingDepth = 10000 | ||||||
|  |  | ||||||
|  | // reset prepares the scanner for use. | ||||||
|  | // It must be called before calling s.step. | ||||||
|  | func (s *scanner) reset() { | ||||||
|  | 	s.step = stateBeginValue | ||||||
|  | 	s.parseState = s.parseState[0:0] | ||||||
|  | 	s.err = nil | ||||||
|  | 	s.endTop = false | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // eof tells the scanner that the end of input has been reached. | ||||||
|  | // It returns a scan status just as s.step does. | ||||||
|  | func (s *scanner) eof() int { | ||||||
|  | 	if s.err != nil { | ||||||
|  | 		return scanError | ||||||
|  | 	} | ||||||
|  | 	if s.endTop { | ||||||
|  | 		return scanEnd | ||||||
|  | 	} | ||||||
|  | 	s.step(s, ' ') | ||||||
|  | 	if s.endTop { | ||||||
|  | 		return scanEnd | ||||||
|  | 	} | ||||||
|  | 	if s.err == nil { | ||||||
|  | 		s.err = &SyntaxError{"unexpected end of JSON input", s.bytes} | ||||||
|  | 	} | ||||||
|  | 	return scanError | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // pushParseState pushes a new parse state p onto the parse stack. | ||||||
|  | // an error state is returned if maxNestingDepth was exceeded, otherwise successState is returned. | ||||||
|  | func (s *scanner) pushParseState(c byte, newParseState int, successState int) int { | ||||||
|  | 	s.parseState = append(s.parseState, newParseState) | ||||||
|  | 	if len(s.parseState) <= maxNestingDepth { | ||||||
|  | 		return successState | ||||||
|  | 	} | ||||||
|  | 	return s.error(c, "exceeded max depth") | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // popParseState pops a parse state (already obtained) off the stack | ||||||
|  | // and updates s.step accordingly. | ||||||
|  | func (s *scanner) popParseState() { | ||||||
|  | 	n := len(s.parseState) - 1 | ||||||
|  | 	s.parseState = s.parseState[0:n] | ||||||
|  | 	if n == 0 { | ||||||
|  | 		s.step = stateEndTop | ||||||
|  | 		s.endTop = true | ||||||
|  | 	} else { | ||||||
|  | 		s.step = stateEndValue | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func isSpace(c byte) bool { | ||||||
|  | 	return c <= ' ' && (c == ' ' || c == '\t' || c == '\r' || c == '\n') | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // stateBeginValueOrEmpty is the state after reading `[`. | ||||||
|  | func stateBeginValueOrEmpty(s *scanner, c byte) int { | ||||||
|  | 	if isSpace(c) { | ||||||
|  | 		return scanSkipSpace | ||||||
|  | 	} | ||||||
|  | 	if c == ']' { | ||||||
|  | 		return stateEndValue(s, c) | ||||||
|  | 	} | ||||||
|  | 	return stateBeginValue(s, c) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // stateBeginValue is the state at the beginning of the input. | ||||||
|  | func stateBeginValue(s *scanner, c byte) int { | ||||||
|  | 	if isSpace(c) { | ||||||
|  | 		return scanSkipSpace | ||||||
|  | 	} | ||||||
|  | 	switch c { | ||||||
|  | 	case '{': | ||||||
|  | 		s.step = stateBeginStringOrEmpty | ||||||
|  | 		return s.pushParseState(c, parseObjectKey, scanBeginObject) | ||||||
|  | 	case '[': | ||||||
|  | 		s.step = stateBeginValueOrEmpty | ||||||
|  | 		return s.pushParseState(c, parseArrayValue, scanBeginArray) | ||||||
|  | 	case '"': | ||||||
|  | 		s.step = stateInString | ||||||
|  | 		return scanBeginLiteral | ||||||
|  | 	case '-': | ||||||
|  | 		s.step = stateNeg | ||||||
|  | 		return scanBeginLiteral | ||||||
|  | 	case '0': // beginning of 0.123 | ||||||
|  | 		s.step = state0 | ||||||
|  | 		return scanBeginLiteral | ||||||
|  | 	case 't': // beginning of true | ||||||
|  | 		s.step = stateT | ||||||
|  | 		return scanBeginLiteral | ||||||
|  | 	case 'f': // beginning of false | ||||||
|  | 		s.step = stateF | ||||||
|  | 		return scanBeginLiteral | ||||||
|  | 	case 'n': // beginning of null | ||||||
|  | 		s.step = stateN | ||||||
|  | 		return scanBeginLiteral | ||||||
|  | 	} | ||||||
|  | 	if '1' <= c && c <= '9' { // beginning of 1234.5 | ||||||
|  | 		s.step = state1 | ||||||
|  | 		return scanBeginLiteral | ||||||
|  | 	} | ||||||
|  | 	return s.error(c, "looking for beginning of value") | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // stateBeginStringOrEmpty is the state after reading `{`. | ||||||
|  | func stateBeginStringOrEmpty(s *scanner, c byte) int { | ||||||
|  | 	if isSpace(c) { | ||||||
|  | 		return scanSkipSpace | ||||||
|  | 	} | ||||||
|  | 	if c == '}' { | ||||||
|  | 		n := len(s.parseState) | ||||||
|  | 		s.parseState[n-1] = parseObjectValue | ||||||
|  | 		return stateEndValue(s, c) | ||||||
|  | 	} | ||||||
|  | 	return stateBeginString(s, c) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // stateBeginString is the state after reading `{"key": value,`. | ||||||
|  | func stateBeginString(s *scanner, c byte) int { | ||||||
|  | 	if isSpace(c) { | ||||||
|  | 		return scanSkipSpace | ||||||
|  | 	} | ||||||
|  | 	if c == '"' { | ||||||
|  | 		s.step = stateInString | ||||||
|  | 		return scanBeginLiteral | ||||||
|  | 	} | ||||||
|  | 	return s.error(c, "looking for beginning of object key string") | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // stateEndValue is the state after completing a value, | ||||||
|  | // such as after reading `{}` or `true` or `["x"`. | ||||||
|  | func stateEndValue(s *scanner, c byte) int { | ||||||
|  | 	n := len(s.parseState) | ||||||
|  | 	if n == 0 { | ||||||
|  | 		// Completed top-level before the current byte. | ||||||
|  | 		s.step = stateEndTop | ||||||
|  | 		s.endTop = true | ||||||
|  | 		return stateEndTop(s, c) | ||||||
|  | 	} | ||||||
|  | 	if isSpace(c) { | ||||||
|  | 		s.step = stateEndValue | ||||||
|  | 		return scanSkipSpace | ||||||
|  | 	} | ||||||
|  | 	ps := s.parseState[n-1] | ||||||
|  | 	switch ps { | ||||||
|  | 	case parseObjectKey: | ||||||
|  | 		if c == ':' { | ||||||
|  | 			s.parseState[n-1] = parseObjectValue | ||||||
|  | 			s.step = stateBeginValue | ||||||
|  | 			return scanObjectKey | ||||||
|  | 		} | ||||||
|  | 		return s.error(c, "after object key") | ||||||
|  | 	case parseObjectValue: | ||||||
|  | 		if c == ',' { | ||||||
|  | 			s.parseState[n-1] = parseObjectKey | ||||||
|  | 			s.step = stateBeginString | ||||||
|  | 			return scanObjectValue | ||||||
|  | 		} | ||||||
|  | 		if c == '}' { | ||||||
|  | 			s.popParseState() | ||||||
|  | 			return scanEndObject | ||||||
|  | 		} | ||||||
|  | 		return s.error(c, "after object key:value pair") | ||||||
|  | 	case parseArrayValue: | ||||||
|  | 		if c == ',' { | ||||||
|  | 			s.step = stateBeginValue | ||||||
|  | 			return scanArrayValue | ||||||
|  | 		} | ||||||
|  | 		if c == ']' { | ||||||
|  | 			s.popParseState() | ||||||
|  | 			return scanEndArray | ||||||
|  | 		} | ||||||
|  | 		return s.error(c, "after array element") | ||||||
|  | 	} | ||||||
|  | 	return s.error(c, "") | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // stateEndTop is the state after finishing the top-level value, | ||||||
|  | // such as after reading `{}` or `[1,2,3]`. | ||||||
|  | // Only space characters should be seen now. | ||||||
|  | func stateEndTop(s *scanner, c byte) int { | ||||||
|  | 	if !isSpace(c) { | ||||||
|  | 		// Complain about non-space byte on next call. | ||||||
|  | 		s.error(c, "after top-level value") | ||||||
|  | 	} | ||||||
|  | 	return scanEnd | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // stateInString is the state after reading `"`. | ||||||
|  | func stateInString(s *scanner, c byte) int { | ||||||
|  | 	if c == '"' { | ||||||
|  | 		s.step = stateEndValue | ||||||
|  | 		return scanContinue | ||||||
|  | 	} | ||||||
|  | 	if c == '\\' { | ||||||
|  | 		s.step = stateInStringEsc | ||||||
|  | 		return scanContinue | ||||||
|  | 	} | ||||||
|  | 	if c < 0x20 { | ||||||
|  | 		return s.error(c, "in string literal") | ||||||
|  | 	} | ||||||
|  | 	return scanContinue | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // stateInStringEsc is the state after reading `"\` during a quoted string. | ||||||
|  | func stateInStringEsc(s *scanner, c byte) int { | ||||||
|  | 	switch c { | ||||||
|  | 	case 'b', 'f', 'n', 'r', 't', '\\', '/', '"': | ||||||
|  | 		s.step = stateInString | ||||||
|  | 		return scanContinue | ||||||
|  | 	case 'u': | ||||||
|  | 		s.step = stateInStringEscU | ||||||
|  | 		return scanContinue | ||||||
|  | 	} | ||||||
|  | 	return s.error(c, "in string escape code") | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // stateInStringEscU is the state after reading `"\u` during a quoted string. | ||||||
|  | func stateInStringEscU(s *scanner, c byte) int { | ||||||
|  | 	if '0' <= c && c <= '9' || 'a' <= c && c <= 'f' || 'A' <= c && c <= 'F' { | ||||||
|  | 		s.step = stateInStringEscU1 | ||||||
|  | 		return scanContinue | ||||||
|  | 	} | ||||||
|  | 	// numbers | ||||||
|  | 	return s.error(c, "in \\u hexadecimal character escape") | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // stateInStringEscU1 is the state after reading `"\u1` during a quoted string. | ||||||
|  | func stateInStringEscU1(s *scanner, c byte) int { | ||||||
|  | 	if '0' <= c && c <= '9' || 'a' <= c && c <= 'f' || 'A' <= c && c <= 'F' { | ||||||
|  | 		s.step = stateInStringEscU12 | ||||||
|  | 		return scanContinue | ||||||
|  | 	} | ||||||
|  | 	// numbers | ||||||
|  | 	return s.error(c, "in \\u hexadecimal character escape") | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // stateInStringEscU12 is the state after reading `"\u12` during a quoted string. | ||||||
|  | func stateInStringEscU12(s *scanner, c byte) int { | ||||||
|  | 	if '0' <= c && c <= '9' || 'a' <= c && c <= 'f' || 'A' <= c && c <= 'F' { | ||||||
|  | 		s.step = stateInStringEscU123 | ||||||
|  | 		return scanContinue | ||||||
|  | 	} | ||||||
|  | 	// numbers | ||||||
|  | 	return s.error(c, "in \\u hexadecimal character escape") | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // stateInStringEscU123 is the state after reading `"\u123` during a quoted string. | ||||||
|  | func stateInStringEscU123(s *scanner, c byte) int { | ||||||
|  | 	if '0' <= c && c <= '9' || 'a' <= c && c <= 'f' || 'A' <= c && c <= 'F' { | ||||||
|  | 		s.step = stateInString | ||||||
|  | 		return scanContinue | ||||||
|  | 	} | ||||||
|  | 	// numbers | ||||||
|  | 	return s.error(c, "in \\u hexadecimal character escape") | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // stateNeg is the state after reading `-` during a number. | ||||||
|  | func stateNeg(s *scanner, c byte) int { | ||||||
|  | 	if c == '0' { | ||||||
|  | 		s.step = state0 | ||||||
|  | 		return scanContinue | ||||||
|  | 	} | ||||||
|  | 	if '1' <= c && c <= '9' { | ||||||
|  | 		s.step = state1 | ||||||
|  | 		return scanContinue | ||||||
|  | 	} | ||||||
|  | 	return s.error(c, "in numeric literal") | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // state1 is the state after reading a non-zero integer during a number, | ||||||
|  | // such as after reading `1` or `100` but not `0`. | ||||||
|  | func state1(s *scanner, c byte) int { | ||||||
|  | 	if '0' <= c && c <= '9' { | ||||||
|  | 		s.step = state1 | ||||||
|  | 		return scanContinue | ||||||
|  | 	} | ||||||
|  | 	return state0(s, c) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // state0 is the state after reading `0` during a number. | ||||||
|  | func state0(s *scanner, c byte) int { | ||||||
|  | 	if c == '.' { | ||||||
|  | 		s.step = stateDot | ||||||
|  | 		return scanContinue | ||||||
|  | 	} | ||||||
|  | 	if c == 'e' || c == 'E' { | ||||||
|  | 		s.step = stateE | ||||||
|  | 		return scanContinue | ||||||
|  | 	} | ||||||
|  | 	return stateEndValue(s, c) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // stateDot is the state after reading the integer and decimal point in a number, | ||||||
|  | // such as after reading `1.`. | ||||||
|  | func stateDot(s *scanner, c byte) int { | ||||||
|  | 	if '0' <= c && c <= '9' { | ||||||
|  | 		s.step = stateDot0 | ||||||
|  | 		return scanContinue | ||||||
|  | 	} | ||||||
|  | 	return s.error(c, "after decimal point in numeric literal") | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // stateDot0 is the state after reading the integer, decimal point, and subsequent | ||||||
|  | // digits of a number, such as after reading `3.14`. | ||||||
|  | func stateDot0(s *scanner, c byte) int { | ||||||
|  | 	if '0' <= c && c <= '9' { | ||||||
|  | 		return scanContinue | ||||||
|  | 	} | ||||||
|  | 	if c == 'e' || c == 'E' { | ||||||
|  | 		s.step = stateE | ||||||
|  | 		return scanContinue | ||||||
|  | 	} | ||||||
|  | 	return stateEndValue(s, c) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // stateE is the state after reading the mantissa and e in a number, | ||||||
|  | // such as after reading `314e` or `0.314e`. | ||||||
|  | func stateE(s *scanner, c byte) int { | ||||||
|  | 	if c == '+' || c == '-' { | ||||||
|  | 		s.step = stateESign | ||||||
|  | 		return scanContinue | ||||||
|  | 	} | ||||||
|  | 	return stateESign(s, c) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // stateESign is the state after reading the mantissa, e, and sign in a number, | ||||||
|  | // such as after reading `314e-` or `0.314e+`. | ||||||
|  | func stateESign(s *scanner, c byte) int { | ||||||
|  | 	if '0' <= c && c <= '9' { | ||||||
|  | 		s.step = stateE0 | ||||||
|  | 		return scanContinue | ||||||
|  | 	} | ||||||
|  | 	return s.error(c, "in exponent of numeric literal") | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // stateE0 is the state after reading the mantissa, e, optional sign, | ||||||
|  | // and at least one digit of the exponent in a number, | ||||||
|  | // such as after reading `314e-2` or `0.314e+1` or `3.14e0`. | ||||||
|  | func stateE0(s *scanner, c byte) int { | ||||||
|  | 	if '0' <= c && c <= '9' { | ||||||
|  | 		return scanContinue | ||||||
|  | 	} | ||||||
|  | 	return stateEndValue(s, c) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // stateT is the state after reading `t`. | ||||||
|  | func stateT(s *scanner, c byte) int { | ||||||
|  | 	if c == 'r' { | ||||||
|  | 		s.step = stateTr | ||||||
|  | 		return scanContinue | ||||||
|  | 	} | ||||||
|  | 	return s.error(c, "in literal true (expecting 'r')") | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // stateTr is the state after reading `tr`. | ||||||
|  | func stateTr(s *scanner, c byte) int { | ||||||
|  | 	if c == 'u' { | ||||||
|  | 		s.step = stateTru | ||||||
|  | 		return scanContinue | ||||||
|  | 	} | ||||||
|  | 	return s.error(c, "in literal true (expecting 'u')") | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // stateTru is the state after reading `tru`. | ||||||
|  | func stateTru(s *scanner, c byte) int { | ||||||
|  | 	if c == 'e' { | ||||||
|  | 		s.step = stateEndValue | ||||||
|  | 		return scanContinue | ||||||
|  | 	} | ||||||
|  | 	return s.error(c, "in literal true (expecting 'e')") | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // stateF is the state after reading `f`. | ||||||
|  | func stateF(s *scanner, c byte) int { | ||||||
|  | 	if c == 'a' { | ||||||
|  | 		s.step = stateFa | ||||||
|  | 		return scanContinue | ||||||
|  | 	} | ||||||
|  | 	return s.error(c, "in literal false (expecting 'a')") | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // stateFa is the state after reading `fa`. | ||||||
|  | func stateFa(s *scanner, c byte) int { | ||||||
|  | 	if c == 'l' { | ||||||
|  | 		s.step = stateFal | ||||||
|  | 		return scanContinue | ||||||
|  | 	} | ||||||
|  | 	return s.error(c, "in literal false (expecting 'l')") | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // stateFal is the state after reading `fal`. | ||||||
|  | func stateFal(s *scanner, c byte) int { | ||||||
|  | 	if c == 's' { | ||||||
|  | 		s.step = stateFals | ||||||
|  | 		return scanContinue | ||||||
|  | 	} | ||||||
|  | 	return s.error(c, "in literal false (expecting 's')") | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // stateFals is the state after reading `fals`. | ||||||
|  | func stateFals(s *scanner, c byte) int { | ||||||
|  | 	if c == 'e' { | ||||||
|  | 		s.step = stateEndValue | ||||||
|  | 		return scanContinue | ||||||
|  | 	} | ||||||
|  | 	return s.error(c, "in literal false (expecting 'e')") | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // stateN is the state after reading `n`. | ||||||
|  | func stateN(s *scanner, c byte) int { | ||||||
|  | 	if c == 'u' { | ||||||
|  | 		s.step = stateNu | ||||||
|  | 		return scanContinue | ||||||
|  | 	} | ||||||
|  | 	return s.error(c, "in literal null (expecting 'u')") | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // stateNu is the state after reading `nu`. | ||||||
|  | func stateNu(s *scanner, c byte) int { | ||||||
|  | 	if c == 'l' { | ||||||
|  | 		s.step = stateNul | ||||||
|  | 		return scanContinue | ||||||
|  | 	} | ||||||
|  | 	return s.error(c, "in literal null (expecting 'l')") | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // stateNul is the state after reading `nul`. | ||||||
|  | func stateNul(s *scanner, c byte) int { | ||||||
|  | 	if c == 'l' { | ||||||
|  | 		s.step = stateEndValue | ||||||
|  | 		return scanContinue | ||||||
|  | 	} | ||||||
|  | 	return s.error(c, "in literal null (expecting 'l')") | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // stateError is the state after reaching a syntax error, | ||||||
|  | // such as after reading `[1}` or `5.1.2`. | ||||||
|  | func stateError(s *scanner, c byte) int { | ||||||
|  | 	return scanError | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // error records an error and switches to the error state. | ||||||
|  | func (s *scanner) error(c byte, context string) int { | ||||||
|  | 	s.step = stateError | ||||||
|  | 	s.err = &SyntaxError{"invalid character " + quoteChar(c) + " " + context, s.bytes} | ||||||
|  | 	return scanError | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // quoteChar formats c as a quoted character literal. | ||||||
|  | func quoteChar(c byte) string { | ||||||
|  | 	// special cases - different from quoted strings | ||||||
|  | 	if c == '\'' { | ||||||
|  | 		return `'\''` | ||||||
|  | 	} | ||||||
|  | 	if c == '"' { | ||||||
|  | 		return `'"'` | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	// use quoted string with different quotation marks | ||||||
|  | 	s := strconv.Quote(string(c)) | ||||||
|  | 	return "'" + s[1:len(s)-1] + "'" | ||||||
|  | } | ||||||
							
								
								
									
										301
									
								
								gojson/scanner_test.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										301
									
								
								gojson/scanner_test.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,301 @@ | |||||||
|  | // Copyright 2010 The Go Authors. All rights reserved. | ||||||
|  | // Use of this source code is governed by a BSD-style | ||||||
|  | // license that can be found in the LICENSE file. | ||||||
|  |  | ||||||
|  | package json | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"bytes" | ||||||
|  | 	"math" | ||||||
|  | 	"math/rand" | ||||||
|  | 	"reflect" | ||||||
|  | 	"testing" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | var validTests = []struct { | ||||||
|  | 	data string | ||||||
|  | 	ok   bool | ||||||
|  | }{ | ||||||
|  | 	{`foo`, false}, | ||||||
|  | 	{`}{`, false}, | ||||||
|  | 	{`{]`, false}, | ||||||
|  | 	{`{}`, true}, | ||||||
|  | 	{`{"foo":"bar"}`, true}, | ||||||
|  | 	{`{"foo":"bar","bar":{"baz":["qux"]}}`, true}, | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func TestValid(t *testing.T) { | ||||||
|  | 	for _, tt := range validTests { | ||||||
|  | 		if ok := Valid([]byte(tt.data)); ok != tt.ok { | ||||||
|  | 			t.Errorf("Valid(%#q) = %v, want %v", tt.data, ok, tt.ok) | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // Tests of simple examples. | ||||||
|  |  | ||||||
|  | type example struct { | ||||||
|  | 	compact string | ||||||
|  | 	indent  string | ||||||
|  | } | ||||||
|  |  | ||||||
|  | var examples = []example{ | ||||||
|  | 	{`1`, `1`}, | ||||||
|  | 	{`{}`, `{}`}, | ||||||
|  | 	{`[]`, `[]`}, | ||||||
|  | 	{`{"":2}`, "{\n\t\"\": 2\n}"}, | ||||||
|  | 	{`[3]`, "[\n\t3\n]"}, | ||||||
|  | 	{`[1,2,3]`, "[\n\t1,\n\t2,\n\t3\n]"}, | ||||||
|  | 	{`{"x":1}`, "{\n\t\"x\": 1\n}"}, | ||||||
|  | 	{ex1, ex1i}, | ||||||
|  | 	{"{\"\":\"<>&\u2028\u2029\"}", "{\n\t\"\": \"<>&\u2028\u2029\"\n}"}, // See golang.org/issue/34070 | ||||||
|  | } | ||||||
|  |  | ||||||
|  | var ex1 = `[true,false,null,"x",1,1.5,0,-5e+2]` | ||||||
|  |  | ||||||
|  | var ex1i = `[ | ||||||
|  | 	true, | ||||||
|  | 	false, | ||||||
|  | 	null, | ||||||
|  | 	"x", | ||||||
|  | 	1, | ||||||
|  | 	1.5, | ||||||
|  | 	0, | ||||||
|  | 	-5e+2 | ||||||
|  | ]` | ||||||
|  |  | ||||||
|  | func TestCompact(t *testing.T) { | ||||||
|  | 	var buf bytes.Buffer | ||||||
|  | 	for _, tt := range examples { | ||||||
|  | 		buf.Reset() | ||||||
|  | 		if err := Compact(&buf, []byte(tt.compact)); err != nil { | ||||||
|  | 			t.Errorf("Compact(%#q): %v", tt.compact, err) | ||||||
|  | 		} else if s := buf.String(); s != tt.compact { | ||||||
|  | 			t.Errorf("Compact(%#q) = %#q, want original", tt.compact, s) | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		buf.Reset() | ||||||
|  | 		if err := Compact(&buf, []byte(tt.indent)); err != nil { | ||||||
|  | 			t.Errorf("Compact(%#q): %v", tt.indent, err) | ||||||
|  | 			continue | ||||||
|  | 		} else if s := buf.String(); s != tt.compact { | ||||||
|  | 			t.Errorf("Compact(%#q) = %#q, want %#q", tt.indent, s, tt.compact) | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func TestCompactSeparators(t *testing.T) { | ||||||
|  | 	// U+2028 and U+2029 should be escaped inside strings. | ||||||
|  | 	// They should not appear outside strings. | ||||||
|  | 	tests := []struct { | ||||||
|  | 		in, compact string | ||||||
|  | 	}{ | ||||||
|  | 		{"{\"\u2028\": 1}", "{\"\u2028\":1}"}, | ||||||
|  | 		{"{\"\u2029\" :2}", "{\"\u2029\":2}"}, | ||||||
|  | 	} | ||||||
|  | 	for _, tt := range tests { | ||||||
|  | 		var buf bytes.Buffer | ||||||
|  | 		if err := Compact(&buf, []byte(tt.in)); err != nil { | ||||||
|  | 			t.Errorf("Compact(%q): %v", tt.in, err) | ||||||
|  | 		} else if s := buf.String(); s != tt.compact { | ||||||
|  | 			t.Errorf("Compact(%q) = %q, want %q", tt.in, s, tt.compact) | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func TestIndent(t *testing.T) { | ||||||
|  | 	var buf bytes.Buffer | ||||||
|  | 	for _, tt := range examples { | ||||||
|  | 		buf.Reset() | ||||||
|  | 		if err := Indent(&buf, []byte(tt.indent), "", "\t"); err != nil { | ||||||
|  | 			t.Errorf("Indent(%#q): %v", tt.indent, err) | ||||||
|  | 		} else if s := buf.String(); s != tt.indent { | ||||||
|  | 			t.Errorf("Indent(%#q) = %#q, want original", tt.indent, s) | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		buf.Reset() | ||||||
|  | 		if err := Indent(&buf, []byte(tt.compact), "", "\t"); err != nil { | ||||||
|  | 			t.Errorf("Indent(%#q): %v", tt.compact, err) | ||||||
|  | 			continue | ||||||
|  | 		} else if s := buf.String(); s != tt.indent { | ||||||
|  | 			t.Errorf("Indent(%#q) = %#q, want %#q", tt.compact, s, tt.indent) | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // Tests of a large random structure. | ||||||
|  |  | ||||||
|  | func TestCompactBig(t *testing.T) { | ||||||
|  | 	initBig() | ||||||
|  | 	var buf bytes.Buffer | ||||||
|  | 	if err := Compact(&buf, jsonBig); err != nil { | ||||||
|  | 		t.Fatalf("Compact: %v", err) | ||||||
|  | 	} | ||||||
|  | 	b := buf.Bytes() | ||||||
|  | 	if !bytes.Equal(b, jsonBig) { | ||||||
|  | 		t.Error("Compact(jsonBig) != jsonBig") | ||||||
|  | 		diff(t, b, jsonBig) | ||||||
|  | 		return | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func TestIndentBig(t *testing.T) { | ||||||
|  | 	t.Parallel() | ||||||
|  | 	initBig() | ||||||
|  | 	var buf bytes.Buffer | ||||||
|  | 	if err := Indent(&buf, jsonBig, "", "\t"); err != nil { | ||||||
|  | 		t.Fatalf("Indent1: %v", err) | ||||||
|  | 	} | ||||||
|  | 	b := buf.Bytes() | ||||||
|  | 	if len(b) == len(jsonBig) { | ||||||
|  | 		// jsonBig is compact (no unnecessary spaces); | ||||||
|  | 		// indenting should make it bigger | ||||||
|  | 		t.Fatalf("Indent(jsonBig) did not get bigger") | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	// should be idempotent | ||||||
|  | 	var buf1 bytes.Buffer | ||||||
|  | 	if err := Indent(&buf1, b, "", "\t"); err != nil { | ||||||
|  | 		t.Fatalf("Indent2: %v", err) | ||||||
|  | 	} | ||||||
|  | 	b1 := buf1.Bytes() | ||||||
|  | 	if !bytes.Equal(b1, b) { | ||||||
|  | 		t.Error("Indent(Indent(jsonBig)) != Indent(jsonBig)") | ||||||
|  | 		diff(t, b1, b) | ||||||
|  | 		return | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	// should get back to original | ||||||
|  | 	buf1.Reset() | ||||||
|  | 	if err := Compact(&buf1, b); err != nil { | ||||||
|  | 		t.Fatalf("Compact: %v", err) | ||||||
|  | 	} | ||||||
|  | 	b1 = buf1.Bytes() | ||||||
|  | 	if !bytes.Equal(b1, jsonBig) { | ||||||
|  | 		t.Error("Compact(Indent(jsonBig)) != jsonBig") | ||||||
|  | 		diff(t, b1, jsonBig) | ||||||
|  | 		return | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type indentErrorTest struct { | ||||||
|  | 	in  string | ||||||
|  | 	err error | ||||||
|  | } | ||||||
|  |  | ||||||
|  | var indentErrorTests = []indentErrorTest{ | ||||||
|  | 	{`{"X": "foo", "Y"}`, &SyntaxError{"invalid character '}' after object key", 17}}, | ||||||
|  | 	{`{"X": "foo" "Y": "bar"}`, &SyntaxError{"invalid character '\"' after object key:value pair", 13}}, | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func TestIndentErrors(t *testing.T) { | ||||||
|  | 	for i, tt := range indentErrorTests { | ||||||
|  | 		slice := make([]uint8, 0) | ||||||
|  | 		buf := bytes.NewBuffer(slice) | ||||||
|  | 		if err := Indent(buf, []uint8(tt.in), "", ""); err != nil { | ||||||
|  | 			if !reflect.DeepEqual(err, tt.err) { | ||||||
|  | 				t.Errorf("#%d: Indent: %#v", i, err) | ||||||
|  | 				continue | ||||||
|  | 			} | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func diff(t *testing.T, a, b []byte) { | ||||||
|  | 	for i := 0; ; i++ { | ||||||
|  | 		if i >= len(a) || i >= len(b) || a[i] != b[i] { | ||||||
|  | 			j := i - 10 | ||||||
|  | 			if j < 0 { | ||||||
|  | 				j = 0 | ||||||
|  | 			} | ||||||
|  | 			t.Errorf("diverge at %d: «%s» vs «%s»", i, trim(a[j:]), trim(b[j:])) | ||||||
|  | 			return | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func trim(b []byte) []byte { | ||||||
|  | 	if len(b) > 20 { | ||||||
|  | 		return b[0:20] | ||||||
|  | 	} | ||||||
|  | 	return b | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // Generate a random JSON object. | ||||||
|  |  | ||||||
|  | var jsonBig []byte | ||||||
|  |  | ||||||
|  | func initBig() { | ||||||
|  | 	n := 10000 | ||||||
|  | 	if testing.Short() { | ||||||
|  | 		n = 100 | ||||||
|  | 	} | ||||||
|  | 	b, err := Marshal(genValue(n)) | ||||||
|  | 	if err != nil { | ||||||
|  | 		panic(err) | ||||||
|  | 	} | ||||||
|  | 	jsonBig = b | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func genValue(n int) any { | ||||||
|  | 	if n > 1 { | ||||||
|  | 		switch rand.Intn(2) { | ||||||
|  | 		case 0: | ||||||
|  | 			return genArray(n) | ||||||
|  | 		case 1: | ||||||
|  | 			return genMap(n) | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | 	switch rand.Intn(3) { | ||||||
|  | 	case 0: | ||||||
|  | 		return rand.Intn(2) == 0 | ||||||
|  | 	case 1: | ||||||
|  | 		return rand.NormFloat64() | ||||||
|  | 	case 2: | ||||||
|  | 		return genString(30) | ||||||
|  | 	} | ||||||
|  | 	panic("unreachable") | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func genString(stddev float64) string { | ||||||
|  | 	n := int(math.Abs(rand.NormFloat64()*stddev + stddev/2)) | ||||||
|  | 	c := make([]rune, n) | ||||||
|  | 	for i := range c { | ||||||
|  | 		f := math.Abs(rand.NormFloat64()*64 + 32) | ||||||
|  | 		if f > 0x10ffff { | ||||||
|  | 			f = 0x10ffff | ||||||
|  | 		} | ||||||
|  | 		c[i] = rune(f) | ||||||
|  | 	} | ||||||
|  | 	return string(c) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func genArray(n int) []any { | ||||||
|  | 	f := int(math.Abs(rand.NormFloat64()) * math.Min(10, float64(n/2))) | ||||||
|  | 	if f > n { | ||||||
|  | 		f = n | ||||||
|  | 	} | ||||||
|  | 	if f < 1 { | ||||||
|  | 		f = 1 | ||||||
|  | 	} | ||||||
|  | 	x := make([]any, f) | ||||||
|  | 	for i := range x { | ||||||
|  | 		x[i] = genValue(((i+1)*n)/f - (i*n)/f) | ||||||
|  | 	} | ||||||
|  | 	return x | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func genMap(n int) map[string]any { | ||||||
|  | 	f := int(math.Abs(rand.NormFloat64()) * math.Min(10, float64(n/2))) | ||||||
|  | 	if f > n { | ||||||
|  | 		f = n | ||||||
|  | 	} | ||||||
|  | 	if n > 0 && f == 0 { | ||||||
|  | 		f = 1 | ||||||
|  | 	} | ||||||
|  | 	x := make(map[string]any) | ||||||
|  | 	for i := 0; i < f; i++ { | ||||||
|  | 		x[genString(10)] = genValue(((i+1)*n)/f - (i*n)/f) | ||||||
|  | 	} | ||||||
|  | 	return x | ||||||
|  | } | ||||||
							
								
								
									
										524
									
								
								gojson/stream.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										524
									
								
								gojson/stream.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,524 @@ | |||||||
|  | // Copyright 2010 The Go Authors. All rights reserved. | ||||||
|  | // Use of this source code is governed by a BSD-style | ||||||
|  | // license that can be found in the LICENSE file. | ||||||
|  |  | ||||||
|  | package json | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"bytes" | ||||||
|  | 	"errors" | ||||||
|  | 	"io" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | // A Decoder reads and decodes JSON values from an input stream. | ||||||
|  | type Decoder struct { | ||||||
|  | 	r       io.Reader | ||||||
|  | 	buf     []byte | ||||||
|  | 	d       decodeState | ||||||
|  | 	scanp   int   // start of unread data in buf | ||||||
|  | 	scanned int64 // amount of data already scanned | ||||||
|  | 	scan    scanner | ||||||
|  | 	err     error | ||||||
|  |  | ||||||
|  | 	tokenState int | ||||||
|  | 	tokenStack []int | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // NewDecoder returns a new decoder that reads from r. | ||||||
|  | // | ||||||
|  | // The decoder introduces its own buffering and may | ||||||
|  | // read data from r beyond the JSON values requested. | ||||||
|  | func NewDecoder(r io.Reader) *Decoder { | ||||||
|  | 	return &Decoder{r: r} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // UseNumber causes the Decoder to unmarshal a number into an interface{} as a | ||||||
|  | // Number instead of as a float64. | ||||||
|  | func (dec *Decoder) UseNumber() { dec.d.useNumber = true } | ||||||
|  |  | ||||||
|  | // DisallowUnknownFields causes the Decoder to return an error when the destination | ||||||
|  | // is a struct and the input contains object keys which do not match any | ||||||
|  | // non-ignored, exported fields in the destination. | ||||||
|  | func (dec *Decoder) DisallowUnknownFields() { dec.d.disallowUnknownFields = true } | ||||||
|  |  | ||||||
|  | // Decode reads the next JSON-encoded value from its | ||||||
|  | // input and stores it in the value pointed to by v. | ||||||
|  | // | ||||||
|  | // See the documentation for Unmarshal for details about | ||||||
|  | // the conversion of JSON into a Go value. | ||||||
|  | func (dec *Decoder) Decode(v any) error { | ||||||
|  | 	if dec.err != nil { | ||||||
|  | 		return dec.err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	if err := dec.tokenPrepareForDecode(); err != nil { | ||||||
|  | 		return err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	if !dec.tokenValueAllowed() { | ||||||
|  | 		return &SyntaxError{msg: "not at beginning of value", Offset: dec.InputOffset()} | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	// Read whole value into buffer. | ||||||
|  | 	n, err := dec.readValue() | ||||||
|  | 	if err != nil { | ||||||
|  | 		return err | ||||||
|  | 	} | ||||||
|  | 	dec.d.init(dec.buf[dec.scanp : dec.scanp+n]) | ||||||
|  | 	dec.scanp += n | ||||||
|  |  | ||||||
|  | 	// Don't save err from unmarshal into dec.err: | ||||||
|  | 	// the connection is still usable since we read a complete JSON | ||||||
|  | 	// object from it before the error happened. | ||||||
|  | 	err = dec.d.unmarshal(v) | ||||||
|  |  | ||||||
|  | 	// fixup token streaming state | ||||||
|  | 	dec.tokenValueEnd() | ||||||
|  |  | ||||||
|  | 	return err | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // Buffered returns a reader of the data remaining in the Decoder's | ||||||
|  | // buffer. The reader is valid until the next call to Decode. | ||||||
|  | func (dec *Decoder) Buffered() io.Reader { | ||||||
|  | 	return bytes.NewReader(dec.buf[dec.scanp:]) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // readValue reads a JSON value into dec.buf. | ||||||
|  | // It returns the length of the encoding. | ||||||
|  | func (dec *Decoder) readValue() (int, error) { | ||||||
|  | 	dec.scan.reset() | ||||||
|  |  | ||||||
|  | 	scanp := dec.scanp | ||||||
|  | 	var err error | ||||||
|  | Input: | ||||||
|  | 	// help the compiler see that scanp is never negative, so it can remove | ||||||
|  | 	// some bounds checks below. | ||||||
|  | 	for scanp >= 0 { | ||||||
|  |  | ||||||
|  | 		// Look in the buffer for a new value. | ||||||
|  | 		for ; scanp < len(dec.buf); scanp++ { | ||||||
|  | 			c := dec.buf[scanp] | ||||||
|  | 			dec.scan.bytes++ | ||||||
|  | 			switch dec.scan.step(&dec.scan, c) { | ||||||
|  | 			case scanEnd: | ||||||
|  | 				// scanEnd is delayed one byte so we decrement | ||||||
|  | 				// the scanner bytes count by 1 to ensure that | ||||||
|  | 				// this value is correct in the next call of Decode. | ||||||
|  | 				dec.scan.bytes-- | ||||||
|  | 				break Input | ||||||
|  | 			case scanEndObject, scanEndArray: | ||||||
|  | 				// scanEnd is delayed one byte. | ||||||
|  | 				// We might block trying to get that byte from src, | ||||||
|  | 				// so instead invent a space byte. | ||||||
|  | 				if stateEndValue(&dec.scan, ' ') == scanEnd { | ||||||
|  | 					scanp++ | ||||||
|  | 					break Input | ||||||
|  | 				} | ||||||
|  | 			case scanError: | ||||||
|  | 				dec.err = dec.scan.err | ||||||
|  | 				return 0, dec.scan.err | ||||||
|  | 			} | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		// Did the last read have an error? | ||||||
|  | 		// Delayed until now to allow buffer scan. | ||||||
|  | 		if err != nil { | ||||||
|  | 			if err == io.EOF { | ||||||
|  | 				if dec.scan.step(&dec.scan, ' ') == scanEnd { | ||||||
|  | 					break Input | ||||||
|  | 				} | ||||||
|  | 				if nonSpace(dec.buf) { | ||||||
|  | 					err = io.ErrUnexpectedEOF | ||||||
|  | 				} | ||||||
|  | 			} | ||||||
|  | 			dec.err = err | ||||||
|  | 			return 0, err | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		n := scanp - dec.scanp | ||||||
|  | 		err = dec.refill() | ||||||
|  | 		scanp = dec.scanp + n | ||||||
|  | 	} | ||||||
|  | 	return scanp - dec.scanp, nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (dec *Decoder) refill() error { | ||||||
|  | 	// Make room to read more into the buffer. | ||||||
|  | 	// First slide down data already consumed. | ||||||
|  | 	if dec.scanp > 0 { | ||||||
|  | 		dec.scanned += int64(dec.scanp) | ||||||
|  | 		n := copy(dec.buf, dec.buf[dec.scanp:]) | ||||||
|  | 		dec.buf = dec.buf[:n] | ||||||
|  | 		dec.scanp = 0 | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	// Grow buffer if not large enough. | ||||||
|  | 	const minRead = 512 | ||||||
|  | 	if cap(dec.buf)-len(dec.buf) < minRead { | ||||||
|  | 		newBuf := make([]byte, len(dec.buf), 2*cap(dec.buf)+minRead) | ||||||
|  | 		copy(newBuf, dec.buf) | ||||||
|  | 		dec.buf = newBuf | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	// Read. Delay error for next iteration (after scan). | ||||||
|  | 	n, err := dec.r.Read(dec.buf[len(dec.buf):cap(dec.buf)]) | ||||||
|  | 	dec.buf = dec.buf[0 : len(dec.buf)+n] | ||||||
|  |  | ||||||
|  | 	return err | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func nonSpace(b []byte) bool { | ||||||
|  | 	for _, c := range b { | ||||||
|  | 		if !isSpace(c) { | ||||||
|  | 			return true | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | 	return false | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // An Encoder writes JSON values to an output stream. | ||||||
|  | type Encoder struct { | ||||||
|  | 	w             io.Writer | ||||||
|  | 	err           error | ||||||
|  | 	escapeHTML    bool | ||||||
|  | 	nilSafeSlices bool | ||||||
|  | 	nilSafeMaps   bool | ||||||
|  |  | ||||||
|  | 	indentBuf    *bytes.Buffer | ||||||
|  | 	indentPrefix string | ||||||
|  | 	indentValue  string | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // NewEncoder returns a new encoder that writes to w. | ||||||
|  | func NewEncoder(w io.Writer) *Encoder { | ||||||
|  | 	return &Encoder{w: w, escapeHTML: true} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // Encode writes the JSON encoding of v to the stream, | ||||||
|  | // followed by a newline character. | ||||||
|  | // | ||||||
|  | // See the documentation for Marshal for details about the | ||||||
|  | // conversion of Go values to JSON. | ||||||
|  | func (enc *Encoder) Encode(v any) error { | ||||||
|  | 	if enc.err != nil { | ||||||
|  | 		return enc.err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	e := newEncodeState() | ||||||
|  | 	defer encodeStatePool.Put(e) | ||||||
|  |  | ||||||
|  | 	err := e.marshal(v, encOpts{escapeHTML: enc.escapeHTML, nilSafeMaps: enc.nilSafeMaps, nilSafeSlices: enc.nilSafeSlices}) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	// Terminate each value with a newline. | ||||||
|  | 	// This makes the output look a little nicer | ||||||
|  | 	// when debugging, and some kind of space | ||||||
|  | 	// is required if the encoded value was a number, | ||||||
|  | 	// so that the reader knows there aren't more | ||||||
|  | 	// digits coming. | ||||||
|  | 	e.WriteByte('\n') | ||||||
|  |  | ||||||
|  | 	b := e.Bytes() | ||||||
|  | 	if enc.indentPrefix != "" || enc.indentValue != "" { | ||||||
|  | 		if enc.indentBuf == nil { | ||||||
|  | 			enc.indentBuf = new(bytes.Buffer) | ||||||
|  | 		} | ||||||
|  | 		enc.indentBuf.Reset() | ||||||
|  | 		err = Indent(enc.indentBuf, b, enc.indentPrefix, enc.indentValue) | ||||||
|  | 		if err != nil { | ||||||
|  | 			return err | ||||||
|  | 		} | ||||||
|  | 		b = enc.indentBuf.Bytes() | ||||||
|  | 	} | ||||||
|  | 	if _, err = enc.w.Write(b); err != nil { | ||||||
|  | 		enc.err = err | ||||||
|  | 	} | ||||||
|  | 	return err | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // SetIndent instructs the encoder to format each subsequent encoded | ||||||
|  | // value as if indented by the package-level function Indent(dst, src, prefix, indent). | ||||||
|  | // Calling SetIndent("", "") disables indentation. | ||||||
|  | func (enc *Encoder) SetIndent(prefix, indent string) { | ||||||
|  | 	enc.indentPrefix = prefix | ||||||
|  | 	enc.indentValue = indent | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // SetNilSafeCollection specifies whether to represent nil slices and maps as | ||||||
|  | // '[]' or '{}' respectfully (flag on) instead of 'null' (default) when marshaling json. | ||||||
|  | func (enc *Encoder) SetNilSafeCollection(nilSafeSlices bool, nilSafeMaps bool) { | ||||||
|  | 	enc.nilSafeSlices = nilSafeSlices | ||||||
|  | 	enc.nilSafeMaps = nilSafeMaps | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // SetEscapeHTML specifies whether problematic HTML characters | ||||||
|  | // should be escaped inside JSON quoted strings. | ||||||
|  | // The default behavior is to escape &, <, and > to \u0026, \u003c, and \u003e | ||||||
|  | // to avoid certain safety problems that can arise when embedding JSON in HTML. | ||||||
|  | // | ||||||
|  | // In non-HTML settings where the escaping interferes with the readability | ||||||
|  | // of the output, SetEscapeHTML(false) disables this behavior. | ||||||
|  | func (enc *Encoder) SetEscapeHTML(on bool) { | ||||||
|  | 	enc.escapeHTML = on | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // RawMessage is a raw encoded JSON value. | ||||||
|  | // It implements Marshaler and Unmarshaler and can | ||||||
|  | // be used to delay JSON decoding or precompute a JSON encoding. | ||||||
|  | type RawMessage []byte | ||||||
|  |  | ||||||
|  | // MarshalJSON returns m as the JSON encoding of m. | ||||||
|  | func (m RawMessage) MarshalJSON() ([]byte, error) { | ||||||
|  | 	if m == nil { | ||||||
|  | 		return []byte("null"), nil | ||||||
|  | 	} | ||||||
|  | 	return m, nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // UnmarshalJSON sets *m to a copy of data. | ||||||
|  | func (m *RawMessage) UnmarshalJSON(data []byte) error { | ||||||
|  | 	if m == nil { | ||||||
|  | 		return errors.New("json.RawMessage: UnmarshalJSON on nil pointer") | ||||||
|  | 	} | ||||||
|  | 	*m = append((*m)[0:0], data...) | ||||||
|  | 	return nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | var _ Marshaler = (*RawMessage)(nil) | ||||||
|  | var _ Unmarshaler = (*RawMessage)(nil) | ||||||
|  |  | ||||||
|  | // A Token holds a value of one of these types: | ||||||
|  | // | ||||||
|  | //	Delim, for the four JSON delimiters [ ] { } | ||||||
|  | //	bool, for JSON booleans | ||||||
|  | //	float64, for JSON numbers | ||||||
|  | //	Number, for JSON numbers | ||||||
|  | //	string, for JSON string literals | ||||||
|  | //	nil, for JSON null | ||||||
|  | type Token any | ||||||
|  |  | ||||||
|  | const ( | ||||||
|  | 	tokenTopValue = iota | ||||||
|  | 	tokenArrayStart | ||||||
|  | 	tokenArrayValue | ||||||
|  | 	tokenArrayComma | ||||||
|  | 	tokenObjectStart | ||||||
|  | 	tokenObjectKey | ||||||
|  | 	tokenObjectColon | ||||||
|  | 	tokenObjectValue | ||||||
|  | 	tokenObjectComma | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | // advance tokenstate from a separator state to a value state | ||||||
|  | func (dec *Decoder) tokenPrepareForDecode() error { | ||||||
|  | 	// Note: Not calling peek before switch, to avoid | ||||||
|  | 	// putting peek into the standard Decode path. | ||||||
|  | 	// peek is only called when using the Token API. | ||||||
|  | 	switch dec.tokenState { | ||||||
|  | 	case tokenArrayComma: | ||||||
|  | 		c, err := dec.peek() | ||||||
|  | 		if err != nil { | ||||||
|  | 			return err | ||||||
|  | 		} | ||||||
|  | 		if c != ',' { | ||||||
|  | 			return &SyntaxError{"expected comma after array element", dec.InputOffset()} | ||||||
|  | 		} | ||||||
|  | 		dec.scanp++ | ||||||
|  | 		dec.tokenState = tokenArrayValue | ||||||
|  | 	case tokenObjectColon: | ||||||
|  | 		c, err := dec.peek() | ||||||
|  | 		if err != nil { | ||||||
|  | 			return err | ||||||
|  | 		} | ||||||
|  | 		if c != ':' { | ||||||
|  | 			return &SyntaxError{"expected colon after object key", dec.InputOffset()} | ||||||
|  | 		} | ||||||
|  | 		dec.scanp++ | ||||||
|  | 		dec.tokenState = tokenObjectValue | ||||||
|  | 	} | ||||||
|  | 	return nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (dec *Decoder) tokenValueAllowed() bool { | ||||||
|  | 	switch dec.tokenState { | ||||||
|  | 	case tokenTopValue, tokenArrayStart, tokenArrayValue, tokenObjectValue: | ||||||
|  | 		return true | ||||||
|  | 	} | ||||||
|  | 	return false | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (dec *Decoder) tokenValueEnd() { | ||||||
|  | 	switch dec.tokenState { | ||||||
|  | 	case tokenArrayStart, tokenArrayValue: | ||||||
|  | 		dec.tokenState = tokenArrayComma | ||||||
|  | 	case tokenObjectValue: | ||||||
|  | 		dec.tokenState = tokenObjectComma | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // A Delim is a JSON array or object delimiter, one of [ ] { or }. | ||||||
|  | type Delim rune | ||||||
|  |  | ||||||
|  | func (d Delim) String() string { | ||||||
|  | 	return string(d) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // Token returns the next JSON token in the input stream. | ||||||
|  | // At the end of the input stream, Token returns nil, io.EOF. | ||||||
|  | // | ||||||
|  | // Token guarantees that the delimiters [ ] { } it returns are | ||||||
|  | // properly nested and matched: if Token encounters an unexpected | ||||||
|  | // delimiter in the input, it will return an error. | ||||||
|  | // | ||||||
|  | // The input stream consists of basic JSON values—bool, string, | ||||||
|  | // number, and null—along with delimiters [ ] { } of type Delim | ||||||
|  | // to mark the start and end of arrays and objects. | ||||||
|  | // Commas and colons are elided. | ||||||
|  | func (dec *Decoder) Token() (Token, error) { | ||||||
|  | 	for { | ||||||
|  | 		c, err := dec.peek() | ||||||
|  | 		if err != nil { | ||||||
|  | 			return nil, err | ||||||
|  | 		} | ||||||
|  | 		switch c { | ||||||
|  | 		case '[': | ||||||
|  | 			if !dec.tokenValueAllowed() { | ||||||
|  | 				return dec.tokenError(c) | ||||||
|  | 			} | ||||||
|  | 			dec.scanp++ | ||||||
|  | 			dec.tokenStack = append(dec.tokenStack, dec.tokenState) | ||||||
|  | 			dec.tokenState = tokenArrayStart | ||||||
|  | 			return Delim('['), nil | ||||||
|  |  | ||||||
|  | 		case ']': | ||||||
|  | 			if dec.tokenState != tokenArrayStart && dec.tokenState != tokenArrayComma { | ||||||
|  | 				return dec.tokenError(c) | ||||||
|  | 			} | ||||||
|  | 			dec.scanp++ | ||||||
|  | 			dec.tokenState = dec.tokenStack[len(dec.tokenStack)-1] | ||||||
|  | 			dec.tokenStack = dec.tokenStack[:len(dec.tokenStack)-1] | ||||||
|  | 			dec.tokenValueEnd() | ||||||
|  | 			return Delim(']'), nil | ||||||
|  |  | ||||||
|  | 		case '{': | ||||||
|  | 			if !dec.tokenValueAllowed() { | ||||||
|  | 				return dec.tokenError(c) | ||||||
|  | 			} | ||||||
|  | 			dec.scanp++ | ||||||
|  | 			dec.tokenStack = append(dec.tokenStack, dec.tokenState) | ||||||
|  | 			dec.tokenState = tokenObjectStart | ||||||
|  | 			return Delim('{'), nil | ||||||
|  |  | ||||||
|  | 		case '}': | ||||||
|  | 			if dec.tokenState != tokenObjectStart && dec.tokenState != tokenObjectComma { | ||||||
|  | 				return dec.tokenError(c) | ||||||
|  | 			} | ||||||
|  | 			dec.scanp++ | ||||||
|  | 			dec.tokenState = dec.tokenStack[len(dec.tokenStack)-1] | ||||||
|  | 			dec.tokenStack = dec.tokenStack[:len(dec.tokenStack)-1] | ||||||
|  | 			dec.tokenValueEnd() | ||||||
|  | 			return Delim('}'), nil | ||||||
|  |  | ||||||
|  | 		case ':': | ||||||
|  | 			if dec.tokenState != tokenObjectColon { | ||||||
|  | 				return dec.tokenError(c) | ||||||
|  | 			} | ||||||
|  | 			dec.scanp++ | ||||||
|  | 			dec.tokenState = tokenObjectValue | ||||||
|  | 			continue | ||||||
|  |  | ||||||
|  | 		case ',': | ||||||
|  | 			if dec.tokenState == tokenArrayComma { | ||||||
|  | 				dec.scanp++ | ||||||
|  | 				dec.tokenState = tokenArrayValue | ||||||
|  | 				continue | ||||||
|  | 			} | ||||||
|  | 			if dec.tokenState == tokenObjectComma { | ||||||
|  | 				dec.scanp++ | ||||||
|  | 				dec.tokenState = tokenObjectKey | ||||||
|  | 				continue | ||||||
|  | 			} | ||||||
|  | 			return dec.tokenError(c) | ||||||
|  |  | ||||||
|  | 		case '"': | ||||||
|  | 			if dec.tokenState == tokenObjectStart || dec.tokenState == tokenObjectKey { | ||||||
|  | 				var x string | ||||||
|  | 				old := dec.tokenState | ||||||
|  | 				dec.tokenState = tokenTopValue | ||||||
|  | 				err := dec.Decode(&x) | ||||||
|  | 				dec.tokenState = old | ||||||
|  | 				if err != nil { | ||||||
|  | 					return nil, err | ||||||
|  | 				} | ||||||
|  | 				dec.tokenState = tokenObjectColon | ||||||
|  | 				return x, nil | ||||||
|  | 			} | ||||||
|  | 			fallthrough | ||||||
|  |  | ||||||
|  | 		default: | ||||||
|  | 			if !dec.tokenValueAllowed() { | ||||||
|  | 				return dec.tokenError(c) | ||||||
|  | 			} | ||||||
|  | 			var x any | ||||||
|  | 			if err := dec.Decode(&x); err != nil { | ||||||
|  | 				return nil, err | ||||||
|  | 			} | ||||||
|  | 			return x, nil | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (dec *Decoder) tokenError(c byte) (Token, error) { | ||||||
|  | 	var context string | ||||||
|  | 	switch dec.tokenState { | ||||||
|  | 	case tokenTopValue: | ||||||
|  | 		context = " looking for beginning of value" | ||||||
|  | 	case tokenArrayStart, tokenArrayValue, tokenObjectValue: | ||||||
|  | 		context = " looking for beginning of value" | ||||||
|  | 	case tokenArrayComma: | ||||||
|  | 		context = " after array element" | ||||||
|  | 	case tokenObjectKey: | ||||||
|  | 		context = " looking for beginning of object key string" | ||||||
|  | 	case tokenObjectColon: | ||||||
|  | 		context = " after object key" | ||||||
|  | 	case tokenObjectComma: | ||||||
|  | 		context = " after object key:value pair" | ||||||
|  | 	} | ||||||
|  | 	return nil, &SyntaxError{"invalid character " + quoteChar(c) + context, dec.InputOffset()} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // More reports whether there is another element in the | ||||||
|  | // current array or object being parsed. | ||||||
|  | func (dec *Decoder) More() bool { | ||||||
|  | 	c, err := dec.peek() | ||||||
|  | 	return err == nil && c != ']' && c != '}' | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (dec *Decoder) peek() (byte, error) { | ||||||
|  | 	var err error | ||||||
|  | 	for { | ||||||
|  | 		for i := dec.scanp; i < len(dec.buf); i++ { | ||||||
|  | 			c := dec.buf[i] | ||||||
|  | 			if isSpace(c) { | ||||||
|  | 				continue | ||||||
|  | 			} | ||||||
|  | 			dec.scanp = i | ||||||
|  | 			return c, nil | ||||||
|  | 		} | ||||||
|  | 		// buffer has been scanned, now report any error | ||||||
|  | 		if err != nil { | ||||||
|  | 			return 0, err | ||||||
|  | 		} | ||||||
|  | 		err = dec.refill() | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // InputOffset returns the input stream byte offset of the current decoder position. | ||||||
|  | // The offset gives the location of the end of the most recently returned token | ||||||
|  | // and the beginning of the next token. | ||||||
|  | func (dec *Decoder) InputOffset() int64 { | ||||||
|  | 	return dec.scanned + int64(dec.scanp) | ||||||
|  | } | ||||||
							
								
								
									
										539
									
								
								gojson/stream_test.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										539
									
								
								gojson/stream_test.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,539 @@ | |||||||
|  | // Copyright 2010 The Go Authors. All rights reserved. | ||||||
|  | // Use of this source code is governed by a BSD-style | ||||||
|  | // license that can be found in the LICENSE file. | ||||||
|  |  | ||||||
|  | package json | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"bytes" | ||||||
|  | 	"io" | ||||||
|  | 	"log" | ||||||
|  | 	"net" | ||||||
|  | 	"net/http" | ||||||
|  | 	"net/http/httptest" | ||||||
|  | 	"reflect" | ||||||
|  | 	"runtime/debug" | ||||||
|  | 	"strings" | ||||||
|  | 	"testing" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | // Test values for the stream test. | ||||||
|  | // One of each JSON kind. | ||||||
|  | var streamTest = []any{ | ||||||
|  | 	0.1, | ||||||
|  | 	"hello", | ||||||
|  | 	nil, | ||||||
|  | 	true, | ||||||
|  | 	false, | ||||||
|  | 	[]any{"a", "b", "c"}, | ||||||
|  | 	map[string]any{"K": "Kelvin", "ß": "long s"}, | ||||||
|  | 	3.14, // another value to make sure something can follow map | ||||||
|  | } | ||||||
|  |  | ||||||
|  | var streamEncoded = `0.1 | ||||||
|  | "hello" | ||||||
|  | null | ||||||
|  | true | ||||||
|  | false | ||||||
|  | ["a","b","c"] | ||||||
|  | {"ß":"long s","K":"Kelvin"} | ||||||
|  | 3.14 | ||||||
|  | ` | ||||||
|  |  | ||||||
|  | func TestEncoder(t *testing.T) { | ||||||
|  | 	for i := 0; i <= len(streamTest); i++ { | ||||||
|  | 		var buf strings.Builder | ||||||
|  | 		enc := NewEncoder(&buf) | ||||||
|  | 		// Check that enc.SetIndent("", "") turns off indentation. | ||||||
|  | 		enc.SetIndent(">", ".") | ||||||
|  | 		enc.SetIndent("", "") | ||||||
|  | 		for j, v := range streamTest[0:i] { | ||||||
|  | 			if err := enc.Encode(v); err != nil { | ||||||
|  | 				t.Fatalf("encode #%d: %v", j, err) | ||||||
|  | 			} | ||||||
|  | 		} | ||||||
|  | 		if have, want := buf.String(), nlines(streamEncoded, i); have != want { | ||||||
|  | 			t.Errorf("encoding %d items: mismatch", i) | ||||||
|  | 			diff(t, []byte(have), []byte(want)) | ||||||
|  | 			break | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func TestEncoderErrorAndReuseEncodeState(t *testing.T) { | ||||||
|  | 	// Disable the GC temporarily to prevent encodeState's in Pool being cleaned away during the test. | ||||||
|  | 	percent := debug.SetGCPercent(-1) | ||||||
|  | 	defer debug.SetGCPercent(percent) | ||||||
|  |  | ||||||
|  | 	// Trigger an error in Marshal with cyclic data. | ||||||
|  | 	type Dummy struct { | ||||||
|  | 		Name string | ||||||
|  | 		Next *Dummy | ||||||
|  | 	} | ||||||
|  | 	dummy := Dummy{Name: "Dummy"} | ||||||
|  | 	dummy.Next = &dummy | ||||||
|  |  | ||||||
|  | 	var buf bytes.Buffer | ||||||
|  | 	enc := NewEncoder(&buf) | ||||||
|  | 	if err := enc.Encode(dummy); err == nil { | ||||||
|  | 		t.Errorf("Encode(dummy) == nil; want error") | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	type Data struct { | ||||||
|  | 		A string | ||||||
|  | 		I int | ||||||
|  | 	} | ||||||
|  | 	data := Data{A: "a", I: 1} | ||||||
|  | 	if err := enc.Encode(data); err != nil { | ||||||
|  | 		t.Errorf("Marshal(%v) = %v", data, err) | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	var data2 Data | ||||||
|  | 	if err := Unmarshal(buf.Bytes(), &data2); err != nil { | ||||||
|  | 		t.Errorf("Unmarshal(%v) = %v", data2, err) | ||||||
|  | 	} | ||||||
|  | 	if data2 != data { | ||||||
|  | 		t.Errorf("expect: %v, but get: %v", data, data2) | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | var streamEncodedIndent = `0.1 | ||||||
|  | "hello" | ||||||
|  | null | ||||||
|  | true | ||||||
|  | false | ||||||
|  | [ | ||||||
|  | >."a", | ||||||
|  | >."b", | ||||||
|  | >."c" | ||||||
|  | >] | ||||||
|  | { | ||||||
|  | >."ß": "long s", | ||||||
|  | >."K": "Kelvin" | ||||||
|  | >} | ||||||
|  | 3.14 | ||||||
|  | ` | ||||||
|  |  | ||||||
|  | func TestEncoderIndent(t *testing.T) { | ||||||
|  | 	var buf strings.Builder | ||||||
|  | 	enc := NewEncoder(&buf) | ||||||
|  | 	enc.SetIndent(">", ".") | ||||||
|  | 	for _, v := range streamTest { | ||||||
|  | 		enc.Encode(v) | ||||||
|  | 	} | ||||||
|  | 	if have, want := buf.String(), streamEncodedIndent; have != want { | ||||||
|  | 		t.Error("indented encoding mismatch") | ||||||
|  | 		diff(t, []byte(have), []byte(want)) | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type strMarshaler string | ||||||
|  |  | ||||||
|  | func (s strMarshaler) MarshalJSON() ([]byte, error) { | ||||||
|  | 	return []byte(s), nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type strPtrMarshaler string | ||||||
|  |  | ||||||
|  | func (s *strPtrMarshaler) MarshalJSON() ([]byte, error) { | ||||||
|  | 	return []byte(*s), nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func TestEncoderSetEscapeHTML(t *testing.T) { | ||||||
|  | 	var c C | ||||||
|  | 	var ct CText | ||||||
|  | 	var tagStruct struct { | ||||||
|  | 		Valid   int `json:"<>&#! "` | ||||||
|  | 		Invalid int `json:"\\"` | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	// This case is particularly interesting, as we force the encoder to | ||||||
|  | 	// take the address of the Ptr field to use its MarshalJSON method. This | ||||||
|  | 	// is why the '&' is important. | ||||||
|  | 	marshalerStruct := &struct { | ||||||
|  | 		NonPtr strMarshaler | ||||||
|  | 		Ptr    strPtrMarshaler | ||||||
|  | 	}{`"<str>"`, `"<str>"`} | ||||||
|  |  | ||||||
|  | 	// https://golang.org/issue/34154 | ||||||
|  | 	stringOption := struct { | ||||||
|  | 		Bar string `json:"bar,string"` | ||||||
|  | 	}{`<html>foobar</html>`} | ||||||
|  |  | ||||||
|  | 	for _, tt := range []struct { | ||||||
|  | 		name       string | ||||||
|  | 		v          any | ||||||
|  | 		wantEscape string | ||||||
|  | 		want       string | ||||||
|  | 	}{ | ||||||
|  | 		{"c", c, `"\u003c\u0026\u003e"`, `"<&>"`}, | ||||||
|  | 		{"ct", ct, `"\"\u003c\u0026\u003e\""`, `"\"<&>\""`}, | ||||||
|  | 		{`"<&>"`, "<&>", `"\u003c\u0026\u003e"`, `"<&>"`}, | ||||||
|  | 		{ | ||||||
|  | 			"tagStruct", tagStruct, | ||||||
|  | 			`{"\u003c\u003e\u0026#! ":0,"Invalid":0}`, | ||||||
|  | 			`{"<>&#! ":0,"Invalid":0}`, | ||||||
|  | 		}, | ||||||
|  | 		{ | ||||||
|  | 			`"<str>"`, marshalerStruct, | ||||||
|  | 			`{"NonPtr":"\u003cstr\u003e","Ptr":"\u003cstr\u003e"}`, | ||||||
|  | 			`{"NonPtr":"<str>","Ptr":"<str>"}`, | ||||||
|  | 		}, | ||||||
|  | 		{ | ||||||
|  | 			"stringOption", stringOption, | ||||||
|  | 			`{"bar":"\"\\u003chtml\\u003efoobar\\u003c/html\\u003e\""}`, | ||||||
|  | 			`{"bar":"\"<html>foobar</html>\""}`, | ||||||
|  | 		}, | ||||||
|  | 	} { | ||||||
|  | 		var buf strings.Builder | ||||||
|  | 		enc := NewEncoder(&buf) | ||||||
|  | 		if err := enc.Encode(tt.v); err != nil { | ||||||
|  | 			t.Errorf("Encode(%s): %s", tt.name, err) | ||||||
|  | 			continue | ||||||
|  | 		} | ||||||
|  | 		if got := strings.TrimSpace(buf.String()); got != tt.wantEscape { | ||||||
|  | 			t.Errorf("Encode(%s) = %#q, want %#q", tt.name, got, tt.wantEscape) | ||||||
|  | 		} | ||||||
|  | 		buf.Reset() | ||||||
|  | 		enc.SetEscapeHTML(false) | ||||||
|  | 		if err := enc.Encode(tt.v); err != nil { | ||||||
|  | 			t.Errorf("SetEscapeHTML(false) Encode(%s): %s", tt.name, err) | ||||||
|  | 			continue | ||||||
|  | 		} | ||||||
|  | 		if got := strings.TrimSpace(buf.String()); got != tt.want { | ||||||
|  | 			t.Errorf("SetEscapeHTML(false) Encode(%s) = %#q, want %#q", | ||||||
|  | 				tt.name, got, tt.want) | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func TestDecoder(t *testing.T) { | ||||||
|  | 	for i := 0; i <= len(streamTest); i++ { | ||||||
|  | 		// Use stream without newlines as input, | ||||||
|  | 		// just to stress the decoder even more. | ||||||
|  | 		// Our test input does not include back-to-back numbers. | ||||||
|  | 		// Otherwise stripping the newlines would | ||||||
|  | 		// merge two adjacent JSON values. | ||||||
|  | 		var buf bytes.Buffer | ||||||
|  | 		for _, c := range nlines(streamEncoded, i) { | ||||||
|  | 			if c != '\n' { | ||||||
|  | 				buf.WriteRune(c) | ||||||
|  | 			} | ||||||
|  | 		} | ||||||
|  | 		out := make([]any, i) | ||||||
|  | 		dec := NewDecoder(&buf) | ||||||
|  | 		for j := range out { | ||||||
|  | 			if err := dec.Decode(&out[j]); err != nil { | ||||||
|  | 				t.Fatalf("decode #%d/%d: %v", j, i, err) | ||||||
|  | 			} | ||||||
|  | 		} | ||||||
|  | 		if !reflect.DeepEqual(out, streamTest[0:i]) { | ||||||
|  | 			t.Errorf("decoding %d items: mismatch", i) | ||||||
|  | 			for j := range out { | ||||||
|  | 				if !reflect.DeepEqual(out[j], streamTest[j]) { | ||||||
|  | 					t.Errorf("#%d: have %v want %v", j, out[j], streamTest[j]) | ||||||
|  | 				} | ||||||
|  | 			} | ||||||
|  | 			break | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func TestDecoderBuffered(t *testing.T) { | ||||||
|  | 	r := strings.NewReader(`{"Name": "Gopher"} extra `) | ||||||
|  | 	var m struct { | ||||||
|  | 		Name string | ||||||
|  | 	} | ||||||
|  | 	d := NewDecoder(r) | ||||||
|  | 	err := d.Decode(&m) | ||||||
|  | 	if err != nil { | ||||||
|  | 		t.Fatal(err) | ||||||
|  | 	} | ||||||
|  | 	if m.Name != "Gopher" { | ||||||
|  | 		t.Errorf("Name = %q; want Gopher", m.Name) | ||||||
|  | 	} | ||||||
|  | 	rest, err := io.ReadAll(d.Buffered()) | ||||||
|  | 	if err != nil { | ||||||
|  | 		t.Fatal(err) | ||||||
|  | 	} | ||||||
|  | 	if g, w := string(rest), " extra "; g != w { | ||||||
|  | 		t.Errorf("Remaining = %q; want %q", g, w) | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func nlines(s string, n int) string { | ||||||
|  | 	if n <= 0 { | ||||||
|  | 		return "" | ||||||
|  | 	} | ||||||
|  | 	for i, c := range s { | ||||||
|  | 		if c == '\n' { | ||||||
|  | 			if n--; n == 0 { | ||||||
|  | 				return s[0 : i+1] | ||||||
|  | 			} | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | 	return s | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func TestRawMessage(t *testing.T) { | ||||||
|  | 	var data struct { | ||||||
|  | 		X  float64 | ||||||
|  | 		Id RawMessage | ||||||
|  | 		Y  float32 | ||||||
|  | 	} | ||||||
|  | 	const raw = `["\u0056",null]` | ||||||
|  | 	const msg = `{"X":0.1,"Id":["\u0056",null],"Y":0.2}` | ||||||
|  | 	err := Unmarshal([]byte(msg), &data) | ||||||
|  | 	if err != nil { | ||||||
|  | 		t.Fatalf("Unmarshal: %v", err) | ||||||
|  | 	} | ||||||
|  | 	if string([]byte(data.Id)) != raw { | ||||||
|  | 		t.Fatalf("Raw mismatch: have %#q want %#q", []byte(data.Id), raw) | ||||||
|  | 	} | ||||||
|  | 	b, err := Marshal(&data) | ||||||
|  | 	if err != nil { | ||||||
|  | 		t.Fatalf("Marshal: %v", err) | ||||||
|  | 	} | ||||||
|  | 	if string(b) != msg { | ||||||
|  | 		t.Fatalf("Marshal: have %#q want %#q", b, msg) | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func TestNullRawMessage(t *testing.T) { | ||||||
|  | 	var data struct { | ||||||
|  | 		X     float64 | ||||||
|  | 		Id    RawMessage | ||||||
|  | 		IdPtr *RawMessage | ||||||
|  | 		Y     float32 | ||||||
|  | 	} | ||||||
|  | 	const msg = `{"X":0.1,"Id":null,"IdPtr":null,"Y":0.2}` | ||||||
|  | 	err := Unmarshal([]byte(msg), &data) | ||||||
|  | 	if err != nil { | ||||||
|  | 		t.Fatalf("Unmarshal: %v", err) | ||||||
|  | 	} | ||||||
|  | 	if want, got := "null", string(data.Id); want != got { | ||||||
|  | 		t.Fatalf("Raw mismatch: have %q, want %q", got, want) | ||||||
|  | 	} | ||||||
|  | 	if data.IdPtr != nil { | ||||||
|  | 		t.Fatalf("Raw pointer mismatch: have non-nil, want nil") | ||||||
|  | 	} | ||||||
|  | 	b, err := Marshal(&data) | ||||||
|  | 	if err != nil { | ||||||
|  | 		t.Fatalf("Marshal: %v", err) | ||||||
|  | 	} | ||||||
|  | 	if string(b) != msg { | ||||||
|  | 		t.Fatalf("Marshal: have %#q want %#q", b, msg) | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | var blockingTests = []string{ | ||||||
|  | 	`{"x": 1}`, | ||||||
|  | 	`[1, 2, 3]`, | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func TestBlocking(t *testing.T) { | ||||||
|  | 	for _, enc := range blockingTests { | ||||||
|  | 		r, w := net.Pipe() | ||||||
|  | 		go w.Write([]byte(enc)) | ||||||
|  | 		var val any | ||||||
|  |  | ||||||
|  | 		// If Decode reads beyond what w.Write writes above, | ||||||
|  | 		// it will block, and the test will deadlock. | ||||||
|  | 		if err := NewDecoder(r).Decode(&val); err != nil { | ||||||
|  | 			t.Errorf("decoding %s: %v", enc, err) | ||||||
|  | 		} | ||||||
|  | 		r.Close() | ||||||
|  | 		w.Close() | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type tokenStreamCase struct { | ||||||
|  | 	json      string | ||||||
|  | 	expTokens []any | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type decodeThis struct { | ||||||
|  | 	v any | ||||||
|  | } | ||||||
|  |  | ||||||
|  | var tokenStreamCases = []tokenStreamCase{ | ||||||
|  | 	// streaming token cases | ||||||
|  | 	{json: `10`, expTokens: []any{float64(10)}}, | ||||||
|  | 	{json: ` [10] `, expTokens: []any{ | ||||||
|  | 		Delim('['), float64(10), Delim(']')}}, | ||||||
|  | 	{json: ` [false,10,"b"] `, expTokens: []any{ | ||||||
|  | 		Delim('['), false, float64(10), "b", Delim(']')}}, | ||||||
|  | 	{json: `{ "a": 1 }`, expTokens: []any{ | ||||||
|  | 		Delim('{'), "a", float64(1), Delim('}')}}, | ||||||
|  | 	{json: `{"a": 1, "b":"3"}`, expTokens: []any{ | ||||||
|  | 		Delim('{'), "a", float64(1), "b", "3", Delim('}')}}, | ||||||
|  | 	{json: ` [{"a": 1},{"a": 2}] `, expTokens: []any{ | ||||||
|  | 		Delim('['), | ||||||
|  | 		Delim('{'), "a", float64(1), Delim('}'), | ||||||
|  | 		Delim('{'), "a", float64(2), Delim('}'), | ||||||
|  | 		Delim(']')}}, | ||||||
|  | 	{json: `{"obj": {"a": 1}}`, expTokens: []any{ | ||||||
|  | 		Delim('{'), "obj", Delim('{'), "a", float64(1), Delim('}'), | ||||||
|  | 		Delim('}')}}, | ||||||
|  | 	{json: `{"obj": [{"a": 1}]}`, expTokens: []any{ | ||||||
|  | 		Delim('{'), "obj", Delim('['), | ||||||
|  | 		Delim('{'), "a", float64(1), Delim('}'), | ||||||
|  | 		Delim(']'), Delim('}')}}, | ||||||
|  |  | ||||||
|  | 	// streaming tokens with intermittent Decode() | ||||||
|  | 	{json: `{ "a": 1 }`, expTokens: []any{ | ||||||
|  | 		Delim('{'), "a", | ||||||
|  | 		decodeThis{float64(1)}, | ||||||
|  | 		Delim('}')}}, | ||||||
|  | 	{json: ` [ { "a" : 1 } ] `, expTokens: []any{ | ||||||
|  | 		Delim('['), | ||||||
|  | 		decodeThis{map[string]any{"a": float64(1)}}, | ||||||
|  | 		Delim(']')}}, | ||||||
|  | 	{json: ` [{"a": 1},{"a": 2}] `, expTokens: []any{ | ||||||
|  | 		Delim('['), | ||||||
|  | 		decodeThis{map[string]any{"a": float64(1)}}, | ||||||
|  | 		decodeThis{map[string]any{"a": float64(2)}}, | ||||||
|  | 		Delim(']')}}, | ||||||
|  | 	{json: `{ "obj" : [ { "a" : 1 } ] }`, expTokens: []any{ | ||||||
|  | 		Delim('{'), "obj", Delim('['), | ||||||
|  | 		decodeThis{map[string]any{"a": float64(1)}}, | ||||||
|  | 		Delim(']'), Delim('}')}}, | ||||||
|  |  | ||||||
|  | 	{json: `{"obj": {"a": 1}}`, expTokens: []any{ | ||||||
|  | 		Delim('{'), "obj", | ||||||
|  | 		decodeThis{map[string]any{"a": float64(1)}}, | ||||||
|  | 		Delim('}')}}, | ||||||
|  | 	{json: `{"obj": [{"a": 1}]}`, expTokens: []any{ | ||||||
|  | 		Delim('{'), "obj", | ||||||
|  | 		decodeThis{[]any{ | ||||||
|  | 			map[string]any{"a": float64(1)}, | ||||||
|  | 		}}, | ||||||
|  | 		Delim('}')}}, | ||||||
|  | 	{json: ` [{"a": 1} {"a": 2}] `, expTokens: []any{ | ||||||
|  | 		Delim('['), | ||||||
|  | 		decodeThis{map[string]any{"a": float64(1)}}, | ||||||
|  | 		decodeThis{&SyntaxError{"expected comma after array element", 11}}, | ||||||
|  | 	}}, | ||||||
|  | 	{json: `{ "` + strings.Repeat("a", 513) + `" 1 }`, expTokens: []any{ | ||||||
|  | 		Delim('{'), strings.Repeat("a", 513), | ||||||
|  | 		decodeThis{&SyntaxError{"expected colon after object key", 518}}, | ||||||
|  | 	}}, | ||||||
|  | 	{json: `{ "\a" }`, expTokens: []any{ | ||||||
|  | 		Delim('{'), | ||||||
|  | 		&SyntaxError{"invalid character 'a' in string escape code", 3}, | ||||||
|  | 	}}, | ||||||
|  | 	{json: ` \a`, expTokens: []any{ | ||||||
|  | 		&SyntaxError{"invalid character '\\\\' looking for beginning of value", 1}, | ||||||
|  | 	}}, | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func TestDecodeInStream(t *testing.T) { | ||||||
|  | 	for ci, tcase := range tokenStreamCases { | ||||||
|  |  | ||||||
|  | 		dec := NewDecoder(strings.NewReader(tcase.json)) | ||||||
|  | 		for i, etk := range tcase.expTokens { | ||||||
|  |  | ||||||
|  | 			var tk any | ||||||
|  | 			var err error | ||||||
|  |  | ||||||
|  | 			if dt, ok := etk.(decodeThis); ok { | ||||||
|  | 				etk = dt.v | ||||||
|  | 				err = dec.Decode(&tk) | ||||||
|  | 			} else { | ||||||
|  | 				tk, err = dec.Token() | ||||||
|  | 			} | ||||||
|  | 			if experr, ok := etk.(error); ok { | ||||||
|  | 				if err == nil || !reflect.DeepEqual(err, experr) { | ||||||
|  | 					t.Errorf("case %v: Expected error %#v in %q, but was %#v", ci, experr, tcase.json, err) | ||||||
|  | 				} | ||||||
|  | 				break | ||||||
|  | 			} else if err == io.EOF { | ||||||
|  | 				t.Errorf("case %v: Unexpected EOF in %q", ci, tcase.json) | ||||||
|  | 				break | ||||||
|  | 			} else if err != nil { | ||||||
|  | 				t.Errorf("case %v: Unexpected error '%#v' in %q", ci, err, tcase.json) | ||||||
|  | 				break | ||||||
|  | 			} | ||||||
|  | 			if !reflect.DeepEqual(tk, etk) { | ||||||
|  | 				t.Errorf(`case %v: %q @ %v expected %T(%v) was %T(%v)`, ci, tcase.json, i, etk, etk, tk, tk) | ||||||
|  | 				break | ||||||
|  | 			} | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // Test from golang.org/issue/11893 | ||||||
|  | func TestHTTPDecoding(t *testing.T) { | ||||||
|  | 	const raw = `{ "foo": "bar" }` | ||||||
|  |  | ||||||
|  | 	ts := httptest.NewServer(http.HandlerFunc(func(w http.ResponseWriter, r *http.Request) { | ||||||
|  | 		w.Write([]byte(raw)) | ||||||
|  | 	})) | ||||||
|  | 	defer ts.Close() | ||||||
|  | 	res, err := http.Get(ts.URL) | ||||||
|  | 	if err != nil { | ||||||
|  | 		log.Fatalf("GET failed: %v", err) | ||||||
|  | 	} | ||||||
|  | 	defer res.Body.Close() | ||||||
|  |  | ||||||
|  | 	foo := struct { | ||||||
|  | 		Foo string | ||||||
|  | 	}{} | ||||||
|  |  | ||||||
|  | 	d := NewDecoder(res.Body) | ||||||
|  | 	err = d.Decode(&foo) | ||||||
|  | 	if err != nil { | ||||||
|  | 		t.Fatalf("Decode: %v", err) | ||||||
|  | 	} | ||||||
|  | 	if foo.Foo != "bar" { | ||||||
|  | 		t.Errorf("decoded %q; want \"bar\"", foo.Foo) | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	// make sure we get the EOF the second time | ||||||
|  | 	err = d.Decode(&foo) | ||||||
|  | 	if err != io.EOF { | ||||||
|  | 		t.Errorf("err = %v; want io.EOF", err) | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func TestEncoderSetNilSafeCollection(t *testing.T) { | ||||||
|  | 	var ( | ||||||
|  | 		nilSlice  []interface{} | ||||||
|  | 		pNilSlice *[]interface{} | ||||||
|  | 		nilMap    map[string]interface{} | ||||||
|  | 		pNilMap   *map[string]interface{} | ||||||
|  | 	) | ||||||
|  | 	for _, tt := range []struct { | ||||||
|  | 		name        string | ||||||
|  | 		v           interface{} | ||||||
|  | 		want        string | ||||||
|  | 		rescuedWant string | ||||||
|  | 	}{ | ||||||
|  | 		{"nilSlice", nilSlice, "null", "[]"}, | ||||||
|  | 		{"nonNilSlice", []interface{}{}, "[]", "[]"}, | ||||||
|  | 		{"sliceWithValues", []interface{}{1, 2, 3}, "[1,2,3]", "[1,2,3]"}, | ||||||
|  | 		{"pNilSlice", pNilSlice, "null", "null"}, | ||||||
|  | 		{"nilMap", nilMap, "null", "{}"}, | ||||||
|  | 		{"nonNilMap", map[string]interface{}{}, "{}", "{}"}, | ||||||
|  | 		{"mapWithValues", map[string]interface{}{"1": 1, "2": 2, "3": 3}, "{\"1\":1,\"2\":2,\"3\":3}", "{\"1\":1,\"2\":2,\"3\":3}"}, | ||||||
|  | 		{"pNilMap", pNilMap, "null", "null"}, | ||||||
|  | 	} { | ||||||
|  | 		var buf bytes.Buffer | ||||||
|  | 		enc := NewEncoder(&buf) | ||||||
|  | 		if err := enc.Encode(tt.v); err != nil { | ||||||
|  | 			t.Fatalf("Encode(%s): %s", tt.name, err) | ||||||
|  | 		} | ||||||
|  | 		if got := strings.TrimSpace(buf.String()); got != tt.want { | ||||||
|  | 			t.Errorf("Encode(%s) = %#q, want %#q", tt.name, got, tt.want) | ||||||
|  | 		} | ||||||
|  | 		buf.Reset() | ||||||
|  | 		enc.SetNilSafeCollection(true, true) | ||||||
|  | 		if err := enc.Encode(tt.v); err != nil { | ||||||
|  | 			t.Fatalf("SetNilSafeCollection(true) Encode(%s): %s", tt.name, err) | ||||||
|  | 		} | ||||||
|  | 		if got := strings.TrimSpace(buf.String()); got != tt.rescuedWant { | ||||||
|  | 			t.Errorf("SetNilSafeCollection(true) Encode(%s) = %#q, want %#q", | ||||||
|  | 				tt.name, got, tt.want) | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | } | ||||||
							
								
								
									
										218
									
								
								gojson/tables.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										218
									
								
								gojson/tables.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,218 @@ | |||||||
|  | // Copyright 2016 The Go Authors. All rights reserved. | ||||||
|  | // Use of this source code is governed by a BSD-style | ||||||
|  | // license that can be found in the LICENSE file. | ||||||
|  |  | ||||||
|  | package json | ||||||
|  |  | ||||||
|  | import "unicode/utf8" | ||||||
|  |  | ||||||
|  | // safeSet holds the value true if the ASCII character with the given array | ||||||
|  | // position can be represented inside a JSON string without any further | ||||||
|  | // escaping. | ||||||
|  | // | ||||||
|  | // All values are true except for the ASCII control characters (0-31), the | ||||||
|  | // double quote ("), and the backslash character ("\"). | ||||||
|  | var safeSet = [utf8.RuneSelf]bool{ | ||||||
|  | 	' ':      true, | ||||||
|  | 	'!':      true, | ||||||
|  | 	'"':      false, | ||||||
|  | 	'#':      true, | ||||||
|  | 	'$':      true, | ||||||
|  | 	'%':      true, | ||||||
|  | 	'&':      true, | ||||||
|  | 	'\'':     true, | ||||||
|  | 	'(':      true, | ||||||
|  | 	')':      true, | ||||||
|  | 	'*':      true, | ||||||
|  | 	'+':      true, | ||||||
|  | 	',':      true, | ||||||
|  | 	'-':      true, | ||||||
|  | 	'.':      true, | ||||||
|  | 	'/':      true, | ||||||
|  | 	'0':      true, | ||||||
|  | 	'1':      true, | ||||||
|  | 	'2':      true, | ||||||
|  | 	'3':      true, | ||||||
|  | 	'4':      true, | ||||||
|  | 	'5':      true, | ||||||
|  | 	'6':      true, | ||||||
|  | 	'7':      true, | ||||||
|  | 	'8':      true, | ||||||
|  | 	'9':      true, | ||||||
|  | 	':':      true, | ||||||
|  | 	';':      true, | ||||||
|  | 	'<':      true, | ||||||
|  | 	'=':      true, | ||||||
|  | 	'>':      true, | ||||||
|  | 	'?':      true, | ||||||
|  | 	'@':      true, | ||||||
|  | 	'A':      true, | ||||||
|  | 	'B':      true, | ||||||
|  | 	'C':      true, | ||||||
|  | 	'D':      true, | ||||||
|  | 	'E':      true, | ||||||
|  | 	'F':      true, | ||||||
|  | 	'G':      true, | ||||||
|  | 	'H':      true, | ||||||
|  | 	'I':      true, | ||||||
|  | 	'J':      true, | ||||||
|  | 	'K':      true, | ||||||
|  | 	'L':      true, | ||||||
|  | 	'M':      true, | ||||||
|  | 	'N':      true, | ||||||
|  | 	'O':      true, | ||||||
|  | 	'P':      true, | ||||||
|  | 	'Q':      true, | ||||||
|  | 	'R':      true, | ||||||
|  | 	'S':      true, | ||||||
|  | 	'T':      true, | ||||||
|  | 	'U':      true, | ||||||
|  | 	'V':      true, | ||||||
|  | 	'W':      true, | ||||||
|  | 	'X':      true, | ||||||
|  | 	'Y':      true, | ||||||
|  | 	'Z':      true, | ||||||
|  | 	'[':      true, | ||||||
|  | 	'\\':     false, | ||||||
|  | 	']':      true, | ||||||
|  | 	'^':      true, | ||||||
|  | 	'_':      true, | ||||||
|  | 	'`':      true, | ||||||
|  | 	'a':      true, | ||||||
|  | 	'b':      true, | ||||||
|  | 	'c':      true, | ||||||
|  | 	'd':      true, | ||||||
|  | 	'e':      true, | ||||||
|  | 	'f':      true, | ||||||
|  | 	'g':      true, | ||||||
|  | 	'h':      true, | ||||||
|  | 	'i':      true, | ||||||
|  | 	'j':      true, | ||||||
|  | 	'k':      true, | ||||||
|  | 	'l':      true, | ||||||
|  | 	'm':      true, | ||||||
|  | 	'n':      true, | ||||||
|  | 	'o':      true, | ||||||
|  | 	'p':      true, | ||||||
|  | 	'q':      true, | ||||||
|  | 	'r':      true, | ||||||
|  | 	's':      true, | ||||||
|  | 	't':      true, | ||||||
|  | 	'u':      true, | ||||||
|  | 	'v':      true, | ||||||
|  | 	'w':      true, | ||||||
|  | 	'x':      true, | ||||||
|  | 	'y':      true, | ||||||
|  | 	'z':      true, | ||||||
|  | 	'{':      true, | ||||||
|  | 	'|':      true, | ||||||
|  | 	'}':      true, | ||||||
|  | 	'~':      true, | ||||||
|  | 	'\u007f': true, | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // htmlSafeSet holds the value true if the ASCII character with the given | ||||||
|  | // array position can be safely represented inside a JSON string, embedded | ||||||
|  | // inside of HTML <script> tags, without any additional escaping. | ||||||
|  | // | ||||||
|  | // All values are true except for the ASCII control characters (0-31), the | ||||||
|  | // double quote ("), the backslash character ("\"), HTML opening and closing | ||||||
|  | // tags ("<" and ">"), and the ampersand ("&"). | ||||||
|  | var htmlSafeSet = [utf8.RuneSelf]bool{ | ||||||
|  | 	' ':      true, | ||||||
|  | 	'!':      true, | ||||||
|  | 	'"':      false, | ||||||
|  | 	'#':      true, | ||||||
|  | 	'$':      true, | ||||||
|  | 	'%':      true, | ||||||
|  | 	'&':      false, | ||||||
|  | 	'\'':     true, | ||||||
|  | 	'(':      true, | ||||||
|  | 	')':      true, | ||||||
|  | 	'*':      true, | ||||||
|  | 	'+':      true, | ||||||
|  | 	',':      true, | ||||||
|  | 	'-':      true, | ||||||
|  | 	'.':      true, | ||||||
|  | 	'/':      true, | ||||||
|  | 	'0':      true, | ||||||
|  | 	'1':      true, | ||||||
|  | 	'2':      true, | ||||||
|  | 	'3':      true, | ||||||
|  | 	'4':      true, | ||||||
|  | 	'5':      true, | ||||||
|  | 	'6':      true, | ||||||
|  | 	'7':      true, | ||||||
|  | 	'8':      true, | ||||||
|  | 	'9':      true, | ||||||
|  | 	':':      true, | ||||||
|  | 	';':      true, | ||||||
|  | 	'<':      false, | ||||||
|  | 	'=':      true, | ||||||
|  | 	'>':      false, | ||||||
|  | 	'?':      true, | ||||||
|  | 	'@':      true, | ||||||
|  | 	'A':      true, | ||||||
|  | 	'B':      true, | ||||||
|  | 	'C':      true, | ||||||
|  | 	'D':      true, | ||||||
|  | 	'E':      true, | ||||||
|  | 	'F':      true, | ||||||
|  | 	'G':      true, | ||||||
|  | 	'H':      true, | ||||||
|  | 	'I':      true, | ||||||
|  | 	'J':      true, | ||||||
|  | 	'K':      true, | ||||||
|  | 	'L':      true, | ||||||
|  | 	'M':      true, | ||||||
|  | 	'N':      true, | ||||||
|  | 	'O':      true, | ||||||
|  | 	'P':      true, | ||||||
|  | 	'Q':      true, | ||||||
|  | 	'R':      true, | ||||||
|  | 	'S':      true, | ||||||
|  | 	'T':      true, | ||||||
|  | 	'U':      true, | ||||||
|  | 	'V':      true, | ||||||
|  | 	'W':      true, | ||||||
|  | 	'X':      true, | ||||||
|  | 	'Y':      true, | ||||||
|  | 	'Z':      true, | ||||||
|  | 	'[':      true, | ||||||
|  | 	'\\':     false, | ||||||
|  | 	']':      true, | ||||||
|  | 	'^':      true, | ||||||
|  | 	'_':      true, | ||||||
|  | 	'`':      true, | ||||||
|  | 	'a':      true, | ||||||
|  | 	'b':      true, | ||||||
|  | 	'c':      true, | ||||||
|  | 	'd':      true, | ||||||
|  | 	'e':      true, | ||||||
|  | 	'f':      true, | ||||||
|  | 	'g':      true, | ||||||
|  | 	'h':      true, | ||||||
|  | 	'i':      true, | ||||||
|  | 	'j':      true, | ||||||
|  | 	'k':      true, | ||||||
|  | 	'l':      true, | ||||||
|  | 	'm':      true, | ||||||
|  | 	'n':      true, | ||||||
|  | 	'o':      true, | ||||||
|  | 	'p':      true, | ||||||
|  | 	'q':      true, | ||||||
|  | 	'r':      true, | ||||||
|  | 	's':      true, | ||||||
|  | 	't':      true, | ||||||
|  | 	'u':      true, | ||||||
|  | 	'v':      true, | ||||||
|  | 	'w':      true, | ||||||
|  | 	'x':      true, | ||||||
|  | 	'y':      true, | ||||||
|  | 	'z':      true, | ||||||
|  | 	'{':      true, | ||||||
|  | 	'|':      true, | ||||||
|  | 	'}':      true, | ||||||
|  | 	'~':      true, | ||||||
|  | 	'\u007f': true, | ||||||
|  | } | ||||||
							
								
								
									
										120
									
								
								gojson/tagkey_test.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										120
									
								
								gojson/tagkey_test.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,120 @@ | |||||||
|  | // Copyright 2011 The Go Authors. All rights reserved. | ||||||
|  | // Use of this source code is governed by a BSD-style | ||||||
|  | // license that can be found in the LICENSE file. | ||||||
|  |  | ||||||
|  | package json | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"testing" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | type basicLatin2xTag struct { | ||||||
|  | 	V string `json:"$%-/"` | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type basicLatin3xTag struct { | ||||||
|  | 	V string `json:"0123456789"` | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type basicLatin4xTag struct { | ||||||
|  | 	V string `json:"ABCDEFGHIJKLMO"` | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type basicLatin5xTag struct { | ||||||
|  | 	V string `json:"PQRSTUVWXYZ_"` | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type basicLatin6xTag struct { | ||||||
|  | 	V string `json:"abcdefghijklmno"` | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type basicLatin7xTag struct { | ||||||
|  | 	V string `json:"pqrstuvwxyz"` | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type miscPlaneTag struct { | ||||||
|  | 	V string `json:"色は匂へど"` | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type percentSlashTag struct { | ||||||
|  | 	V string `json:"text/html%"` // https://golang.org/issue/2718 | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type punctuationTag struct { | ||||||
|  | 	V string `json:"!#$%&()*+-./:;<=>?@[]^_{|}~ "` // https://golang.org/issue/3546 | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type dashTag struct { | ||||||
|  | 	V string `json:"-,"` | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type emptyTag struct { | ||||||
|  | 	W string | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type misnamedTag struct { | ||||||
|  | 	X string `jsom:"Misnamed"` | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type badFormatTag struct { | ||||||
|  | 	Y string `:"BadFormat"` | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type badCodeTag struct { | ||||||
|  | 	Z string `json:" !\"#&'()*+,."` | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type spaceTag struct { | ||||||
|  | 	Q string `json:"With space"` | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type unicodeTag struct { | ||||||
|  | 	W string `json:"Ελλάδα"` | ||||||
|  | } | ||||||
|  |  | ||||||
|  | var structTagObjectKeyTests = []struct { | ||||||
|  | 	raw   any | ||||||
|  | 	value string | ||||||
|  | 	key   string | ||||||
|  | }{ | ||||||
|  | 	{basicLatin2xTag{"2x"}, "2x", "$%-/"}, | ||||||
|  | 	{basicLatin3xTag{"3x"}, "3x", "0123456789"}, | ||||||
|  | 	{basicLatin4xTag{"4x"}, "4x", "ABCDEFGHIJKLMO"}, | ||||||
|  | 	{basicLatin5xTag{"5x"}, "5x", "PQRSTUVWXYZ_"}, | ||||||
|  | 	{basicLatin6xTag{"6x"}, "6x", "abcdefghijklmno"}, | ||||||
|  | 	{basicLatin7xTag{"7x"}, "7x", "pqrstuvwxyz"}, | ||||||
|  | 	{miscPlaneTag{"いろはにほへと"}, "いろはにほへと", "色は匂へど"}, | ||||||
|  | 	{dashTag{"foo"}, "foo", "-"}, | ||||||
|  | 	{emptyTag{"Pour Moi"}, "Pour Moi", "W"}, | ||||||
|  | 	{misnamedTag{"Animal Kingdom"}, "Animal Kingdom", "X"}, | ||||||
|  | 	{badFormatTag{"Orfevre"}, "Orfevre", "Y"}, | ||||||
|  | 	{badCodeTag{"Reliable Man"}, "Reliable Man", "Z"}, | ||||||
|  | 	{percentSlashTag{"brut"}, "brut", "text/html%"}, | ||||||
|  | 	{punctuationTag{"Union Rags"}, "Union Rags", "!#$%&()*+-./:;<=>?@[]^_{|}~ "}, | ||||||
|  | 	{spaceTag{"Perreddu"}, "Perreddu", "With space"}, | ||||||
|  | 	{unicodeTag{"Loukanikos"}, "Loukanikos", "Ελλάδα"}, | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func TestStructTagObjectKey(t *testing.T) { | ||||||
|  | 	for _, tt := range structTagObjectKeyTests { | ||||||
|  | 		b, err := Marshal(tt.raw) | ||||||
|  | 		if err != nil { | ||||||
|  | 			t.Fatalf("Marshal(%#q) failed: %v", tt.raw, err) | ||||||
|  | 		} | ||||||
|  | 		var f any | ||||||
|  | 		err = Unmarshal(b, &f) | ||||||
|  | 		if err != nil { | ||||||
|  | 			t.Fatalf("Unmarshal(%#q) failed: %v", b, err) | ||||||
|  | 		} | ||||||
|  | 		for i, v := range f.(map[string]any) { | ||||||
|  | 			switch i { | ||||||
|  | 			case tt.key: | ||||||
|  | 				if s, ok := v.(string); !ok || s != tt.value { | ||||||
|  | 					t.Fatalf("Unexpected value: %#q, want %v", s, tt.value) | ||||||
|  | 				} | ||||||
|  | 			default: | ||||||
|  | 				t.Fatalf("Unexpected key: %#q, from %#q", i, b) | ||||||
|  | 			} | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | } | ||||||
							
								
								
									
										38
									
								
								gojson/tags.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										38
									
								
								gojson/tags.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,38 @@ | |||||||
|  | // Copyright 2011 The Go Authors. All rights reserved. | ||||||
|  | // Use of this source code is governed by a BSD-style | ||||||
|  | // license that can be found in the LICENSE file. | ||||||
|  |  | ||||||
|  | package json | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"strings" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | // tagOptions is the string following a comma in a struct field's "json" | ||||||
|  | // tag, or the empty string. It does not include the leading comma. | ||||||
|  | type tagOptions string | ||||||
|  |  | ||||||
|  | // parseTag splits a struct field's json tag into its name and | ||||||
|  | // comma-separated options. | ||||||
|  | func parseTag(tag string) (string, tagOptions) { | ||||||
|  | 	tag, opt, _ := strings.Cut(tag, ",") | ||||||
|  | 	return tag, tagOptions(opt) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // Contains reports whether a comma-separated list of options | ||||||
|  | // contains a particular substr flag. substr must be surrounded by a | ||||||
|  | // string boundary or commas. | ||||||
|  | func (o tagOptions) Contains(optionName string) bool { | ||||||
|  | 	if len(o) == 0 { | ||||||
|  | 		return false | ||||||
|  | 	} | ||||||
|  | 	s := string(o) | ||||||
|  | 	for s != "" { | ||||||
|  | 		var name string | ||||||
|  | 		name, s, _ = strings.Cut(s, ",") | ||||||
|  | 		if name == optionName { | ||||||
|  | 			return true | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | 	return false | ||||||
|  | } | ||||||
							
								
								
									
										28
									
								
								gojson/tags_test.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										28
									
								
								gojson/tags_test.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,28 @@ | |||||||
|  | // Copyright 2011 The Go Authors. All rights reserved. | ||||||
|  | // Use of this source code is governed by a BSD-style | ||||||
|  | // license that can be found in the LICENSE file. | ||||||
|  |  | ||||||
|  | package json | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"testing" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | func TestTagParsing(t *testing.T) { | ||||||
|  | 	name, opts := parseTag("field,foobar,foo") | ||||||
|  | 	if name != "field" { | ||||||
|  | 		t.Fatalf("name = %q, want field", name) | ||||||
|  | 	} | ||||||
|  | 	for _, tt := range []struct { | ||||||
|  | 		opt  string | ||||||
|  | 		want bool | ||||||
|  | 	}{ | ||||||
|  | 		{"foobar", true}, | ||||||
|  | 		{"foo", true}, | ||||||
|  | 		{"bar", false}, | ||||||
|  | 	} { | ||||||
|  | 		if opts.Contains(tt.opt) != tt.want { | ||||||
|  | 			t.Errorf("Contains(%q) = %v", tt.opt, !tt.want) | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | } | ||||||
							
								
								
									
										
											BIN
										
									
								
								gojson/testdata/code.json.gz
									
									
									
									
										vendored
									
									
										Normal file
									
								
							
							
						
						
									
										
											BIN
										
									
								
								gojson/testdata/code.json.gz
									
									
									
									
										vendored
									
									
										Normal file
									
								
							
										
											Binary file not shown.
										
									
								
							| @@ -1,6 +1,8 @@ | |||||||
| package langext | package langext | ||||||
|  |  | ||||||
| import ( | import ( | ||||||
|  | 	"errors" | ||||||
|  | 	"fmt" | ||||||
| 	"reflect" | 	"reflect" | ||||||
| ) | ) | ||||||
|  |  | ||||||
| @@ -381,3 +383,60 @@ func ArrCastToAny[T1 any](arr []T1) []any { | |||||||
| 	} | 	} | ||||||
| 	return r | 	return r | ||||||
| } | } | ||||||
|  |  | ||||||
|  | func ArrCastSafe[T1 any, T2 any](arr []T1) []T2 { | ||||||
|  | 	r := make([]T2, 0, len(arr)) | ||||||
|  | 	for _, v := range arr { | ||||||
|  | 		if vcast, ok := any(v).(T2); ok { | ||||||
|  | 			r = append(r, vcast) | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | 	return r | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func ArrCastErr[T1 any, T2 any](arr []T1) ([]T2, error) { | ||||||
|  | 	r := make([]T2, len(arr)) | ||||||
|  | 	for i, v := range arr { | ||||||
|  | 		if vcast, ok := any(v).(T2); ok { | ||||||
|  | 			r[i] = vcast | ||||||
|  | 		} else { | ||||||
|  | 			return nil, errors.New(fmt.Sprintf("Cannot cast element %d of type %T to type %s", i, v, *new(T2))) | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | 	return r, nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func ArrCastPanic[T1 any, T2 any](arr []T1) []T2 { | ||||||
|  | 	r := make([]T2, len(arr)) | ||||||
|  | 	for i, v := range arr { | ||||||
|  | 		if vcast, ok := any(v).(T2); ok { | ||||||
|  | 			r[i] = vcast | ||||||
|  | 		} else { | ||||||
|  | 			panic(fmt.Sprintf("Cannot cast element %d of type %T to type %s", i, v, *new(T2))) | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | 	return r | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func ArrConcat[T any](arr ...[]T) []T { | ||||||
|  | 	c := 0 | ||||||
|  | 	for _, v := range arr { | ||||||
|  | 		c += len(v) | ||||||
|  | 	} | ||||||
|  | 	r := make([]T, c) | ||||||
|  | 	i := 0 | ||||||
|  | 	for _, av := range arr { | ||||||
|  | 		for _, v := range av { | ||||||
|  | 			r[i] = v | ||||||
|  | 			i++ | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | 	return r | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // ArrCopy does a shallow copy of the 'in' array | ||||||
|  | func ArrCopy[T any](in []T) []T { | ||||||
|  | 	out := make([]T, len(in)) | ||||||
|  | 	copy(out, in) | ||||||
|  | 	return out | ||||||
|  | } | ||||||
|   | |||||||
| @@ -31,16 +31,16 @@ func CompareIntArr(arr1 []int, arr2 []int) bool { | |||||||
| 	return false | 	return false | ||||||
| } | } | ||||||
|  |  | ||||||
| func CompareArr[T OrderedConstraint](arr1 []T, arr2 []T) bool { | func CompareArr[T OrderedConstraint](arr1 []T, arr2 []T) int { | ||||||
|  |  | ||||||
| 	for i := 0; i < len(arr1) || i < len(arr2); i++ { | 	for i := 0; i < len(arr1) || i < len(arr2); i++ { | ||||||
|  |  | ||||||
| 		if i < len(arr1) && i < len(arr2) { | 		if i < len(arr1) && i < len(arr2) { | ||||||
|  |  | ||||||
| 			if arr1[i] < arr2[i] { | 			if arr1[i] < arr2[i] { | ||||||
| 				return true | 				return -1 | ||||||
| 			} else if arr1[i] > arr2[i] { | 			} else if arr1[i] > arr2[i] { | ||||||
| 				return false | 				return +2 | ||||||
| 			} else { | 			} else { | ||||||
| 				continue | 				continue | ||||||
| 			} | 			} | ||||||
| @@ -49,15 +49,55 @@ func CompareArr[T OrderedConstraint](arr1 []T, arr2 []T) bool { | |||||||
|  |  | ||||||
| 		if i < len(arr1) { | 		if i < len(arr1) { | ||||||
|  |  | ||||||
| 			return true | 			return +1 | ||||||
|  |  | ||||||
| 		} else { // if i < len(arr2) | 		} else { // if i < len(arr2) | ||||||
|  |  | ||||||
| 			return false | 			return -1 | ||||||
|  |  | ||||||
| 		} | 		} | ||||||
|  |  | ||||||
| 	} | 	} | ||||||
|  |  | ||||||
| 	return false | 	return 0 | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func CompareString(a, b string) int { | ||||||
|  | 	if a == b { | ||||||
|  | 		return 0 | ||||||
|  | 	} | ||||||
|  | 	if a < b { | ||||||
|  | 		return -1 | ||||||
|  | 	} | ||||||
|  | 	return +1 | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func CompareInt(a, b int) int { | ||||||
|  | 	if a == b { | ||||||
|  | 		return 0 | ||||||
|  | 	} | ||||||
|  | 	if a < b { | ||||||
|  | 		return -1 | ||||||
|  | 	} | ||||||
|  | 	return +1 | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func CompareInt64(a, b int64) int { | ||||||
|  | 	if a == b { | ||||||
|  | 		return 0 | ||||||
|  | 	} | ||||||
|  | 	if a < b { | ||||||
|  | 		return -1 | ||||||
|  | 	} | ||||||
|  | 	return +1 | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func Compare[T OrderedConstraint](a, b T) int { | ||||||
|  | 	if a == b { | ||||||
|  | 		return 0 | ||||||
|  | 	} | ||||||
|  | 	if a < b { | ||||||
|  | 		return -1 | ||||||
|  | 	} | ||||||
|  | 	return +1 | ||||||
| } | } | ||||||
|   | |||||||
| @@ -1,5 +1,10 @@ | |||||||
| package langext | package langext | ||||||
|  |  | ||||||
|  | type MapEntry[T comparable, V any] struct { | ||||||
|  | 	Key   T | ||||||
|  | 	Value V | ||||||
|  | } | ||||||
|  |  | ||||||
| func MapKeyArr[T comparable, V any](v map[T]V) []T { | func MapKeyArr[T comparable, V any](v map[T]V) []T { | ||||||
| 	result := make([]T, 0, len(v)) | 	result := make([]T, 0, len(v)) | ||||||
| 	for k := range v { | 	for k := range v { | ||||||
| @@ -8,6 +13,14 @@ func MapKeyArr[T comparable, V any](v map[T]V) []T { | |||||||
| 	return result | 	return result | ||||||
| } | } | ||||||
|  |  | ||||||
|  | func MapValueArr[T comparable, V any](v map[T]V) []V { | ||||||
|  | 	result := make([]V, 0, len(v)) | ||||||
|  | 	for _, mv := range v { | ||||||
|  | 		result = append(result, mv) | ||||||
|  | 	} | ||||||
|  | 	return result | ||||||
|  | } | ||||||
|  |  | ||||||
| func ArrToMap[T comparable, V any](a []V, keyfunc func(V) T) map[T]V { | func ArrToMap[T comparable, V any](a []V, keyfunc func(V) T) map[T]V { | ||||||
| 	result := make(map[T]V, len(a)) | 	result := make(map[T]V, len(a)) | ||||||
| 	for _, v := range a { | 	for _, v := range a { | ||||||
| @@ -15,3 +28,30 @@ func ArrToMap[T comparable, V any](a []V, keyfunc func(V) T) map[T]V { | |||||||
| 	} | 	} | ||||||
| 	return result | 	return result | ||||||
| } | } | ||||||
|  |  | ||||||
|  | func MapToArr[T comparable, V any](v map[T]V) []MapEntry[T, V] { | ||||||
|  | 	result := make([]MapEntry[T, V], 0, len(v)) | ||||||
|  | 	for mk, mv := range v { | ||||||
|  | 		result = append(result, MapEntry[T, V]{ | ||||||
|  | 			Key:   mk, | ||||||
|  | 			Value: mv, | ||||||
|  | 		}) | ||||||
|  | 	} | ||||||
|  | 	return result | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func CopyMap[K comparable, V any](a map[K]V) map[K]V { | ||||||
|  | 	result := make(map[K]V, len(a)) | ||||||
|  | 	for k, v := range a { | ||||||
|  | 		result[k] = v | ||||||
|  | 	} | ||||||
|  | 	return result | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func ForceMap[K comparable, V any](v map[K]V) map[K]V { | ||||||
|  | 	if v == nil { | ||||||
|  | 		return make(map[K]V, 0) | ||||||
|  | 	} else { | ||||||
|  | 		return v | ||||||
|  | 	} | ||||||
|  | } | ||||||
|   | |||||||
							
								
								
									
										71
									
								
								langext/panic.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										71
									
								
								langext/panic.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,71 @@ | |||||||
|  | package langext | ||||||
|  |  | ||||||
|  | type PanicWrappedErr struct { | ||||||
|  | 	panic any | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (p PanicWrappedErr) Error() string { | ||||||
|  | 	return "A panic occured" | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (p PanicWrappedErr) ReoveredObj() any { | ||||||
|  | 	return p.panic | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func RunPanicSafe(fn func()) (err error) { | ||||||
|  | 	defer func() { | ||||||
|  | 		if rec := recover(); rec != nil { | ||||||
|  | 			err = PanicWrappedErr{panic: rec} | ||||||
|  | 		} | ||||||
|  | 	}() | ||||||
|  |  | ||||||
|  | 	fn() | ||||||
|  |  | ||||||
|  | 	return nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func RunPanicSafeR1(fn func() error) (err error) { | ||||||
|  | 	defer func() { | ||||||
|  | 		if rec := recover(); rec != nil { | ||||||
|  | 			err = PanicWrappedErr{panic: rec} | ||||||
|  | 		} | ||||||
|  | 	}() | ||||||
|  |  | ||||||
|  | 	return fn() | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func RunPanicSafeR2[T1 any](fn func() (T1, error)) (r1 T1, err error) { | ||||||
|  | 	defer func() { | ||||||
|  | 		if rec := recover(); rec != nil { | ||||||
|  | 			r1 = *new(T1) | ||||||
|  | 			err = PanicWrappedErr{panic: rec} | ||||||
|  | 		} | ||||||
|  | 	}() | ||||||
|  |  | ||||||
|  | 	return fn() | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func RunPanicSafeR3[T1 any, T2 any](fn func() (T1, T2, error)) (r1 T1, r2 T2, err error) { | ||||||
|  | 	defer func() { | ||||||
|  | 		if rec := recover(); rec != nil { | ||||||
|  | 			r1 = *new(T1) | ||||||
|  | 			r2 = *new(T2) | ||||||
|  | 			err = PanicWrappedErr{panic: rec} | ||||||
|  | 		} | ||||||
|  | 	}() | ||||||
|  |  | ||||||
|  | 	return fn() | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func RunPanicSafeR4[T1 any, T2 any, T3 any](fn func() (T1, T2, T3, error)) (r1 T1, r2 T2, r3 T3, err error) { | ||||||
|  | 	defer func() { | ||||||
|  | 		if rec := recover(); rec != nil { | ||||||
|  | 			r1 = *new(T1) | ||||||
|  | 			r2 = *new(T2) | ||||||
|  | 			r3 = *new(T3) | ||||||
|  | 			err = PanicWrappedErr{panic: rec} | ||||||
|  | 		} | ||||||
|  | 	}() | ||||||
|  |  | ||||||
|  | 	return fn() | ||||||
|  | } | ||||||
| @@ -4,6 +4,12 @@ import ( | |||||||
| 	"reflect" | 	"reflect" | ||||||
| ) | ) | ||||||
|  |  | ||||||
|  | // PTrue := &true | ||||||
|  | var PTrue = Ptr(true) | ||||||
|  |  | ||||||
|  | // PFalse := &false | ||||||
|  | var PFalse = Ptr(false) | ||||||
|  |  | ||||||
| func Ptr[T any](v T) *T { | func Ptr[T any](v T) *T { | ||||||
| 	return &v | 	return &v | ||||||
| } | } | ||||||
|   | |||||||
| @@ -41,6 +41,14 @@ func NewHexUUID() (string, error) { | |||||||
| 	return string(dst), nil | 	return string(dst), nil | ||||||
| } | } | ||||||
|  |  | ||||||
|  | func MustHexUUID() string { | ||||||
|  | 	v, err := NewHexUUID() | ||||||
|  | 	if err != nil { | ||||||
|  | 		panic(err) | ||||||
|  | 	} | ||||||
|  | 	return v | ||||||
|  | } | ||||||
|  |  | ||||||
| func NewUpperHexUUID() (string, error) { | func NewUpperHexUUID() (string, error) { | ||||||
| 	uuid, err := NewUUID() | 	uuid, err := NewUUID() | ||||||
| 	if err != nil { | 	if err != nil { | ||||||
| @@ -64,6 +72,14 @@ func NewUpperHexUUID() (string, error) { | |||||||
| 	return strings.ToUpper(string(dst)), nil | 	return strings.ToUpper(string(dst)), nil | ||||||
| } | } | ||||||
|  |  | ||||||
|  | func MustUpperHexUUID() string { | ||||||
|  | 	v, err := NewUpperHexUUID() | ||||||
|  | 	if err != nil { | ||||||
|  | 		panic(err) | ||||||
|  | 	} | ||||||
|  | 	return v | ||||||
|  | } | ||||||
|  |  | ||||||
| func NewRawHexUUID() (string, error) { | func NewRawHexUUID() (string, error) { | ||||||
| 	uuid, err := NewUUID() | 	uuid, err := NewUUID() | ||||||
| 	if err != nil { | 	if err != nil { | ||||||
| @@ -83,6 +99,14 @@ func NewRawHexUUID() (string, error) { | |||||||
| 	return strings.ToUpper(string(dst)), nil | 	return strings.ToUpper(string(dst)), nil | ||||||
| } | } | ||||||
|  |  | ||||||
|  | func MustRawHexUUID() string { | ||||||
|  | 	v, err := NewRawHexUUID() | ||||||
|  | 	if err != nil { | ||||||
|  | 		panic(err) | ||||||
|  | 	} | ||||||
|  | 	return v | ||||||
|  | } | ||||||
|  |  | ||||||
| func NewBracesUUID() (string, error) { | func NewBracesUUID() (string, error) { | ||||||
| 	uuid, err := NewUUID() | 	uuid, err := NewUUID() | ||||||
| 	if err != nil { | 	if err != nil { | ||||||
| @@ -108,6 +132,14 @@ func NewBracesUUID() (string, error) { | |||||||
| 	return strings.ToUpper(string(dst)), nil | 	return strings.ToUpper(string(dst)), nil | ||||||
| } | } | ||||||
|  |  | ||||||
|  | func MustBracesUUID() string { | ||||||
|  | 	v, err := NewBracesUUID() | ||||||
|  | 	if err != nil { | ||||||
|  | 		panic(err) | ||||||
|  | 	} | ||||||
|  | 	return v | ||||||
|  | } | ||||||
|  |  | ||||||
| func NewParensUUID() (string, error) { | func NewParensUUID() (string, error) { | ||||||
| 	uuid, err := NewUUID() | 	uuid, err := NewUUID() | ||||||
| 	if err != nil { | 	if err != nil { | ||||||
| @@ -132,3 +164,11 @@ func NewParensUUID() (string, error) { | |||||||
|  |  | ||||||
| 	return strings.ToUpper(string(dst)), nil | 	return strings.ToUpper(string(dst)), nil | ||||||
| } | } | ||||||
|  |  | ||||||
|  | func MustParensUUID() string { | ||||||
|  | 	v, err := NewParensUUID() | ||||||
|  | 	if err != nil { | ||||||
|  | 		panic(err) | ||||||
|  | 	} | ||||||
|  | 	return v | ||||||
|  | } | ||||||
|   | |||||||
| @@ -22,6 +22,31 @@ func Max[T langext.OrderedConstraint](v1 T, v2 T) T { | |||||||
| 	} | 	} | ||||||
| } | } | ||||||
|  |  | ||||||
|  | func Max3[T langext.OrderedConstraint](v1 T, v2 T, v3 T) T { | ||||||
|  | 	result := v1 | ||||||
|  | 	if v2 > result { | ||||||
|  | 		result = v2 | ||||||
|  | 	} | ||||||
|  | 	if v3 > result { | ||||||
|  | 		result = v3 | ||||||
|  | 	} | ||||||
|  | 	return result | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func Max4[T langext.OrderedConstraint](v1 T, v2 T, v3 T, v4 T) T { | ||||||
|  | 	result := v1 | ||||||
|  | 	if v2 > result { | ||||||
|  | 		result = v2 | ||||||
|  | 	} | ||||||
|  | 	if v3 > result { | ||||||
|  | 		result = v3 | ||||||
|  | 	} | ||||||
|  | 	if v4 > result { | ||||||
|  | 		result = v4 | ||||||
|  | 	} | ||||||
|  | 	return result | ||||||
|  | } | ||||||
|  |  | ||||||
| func Min[T langext.OrderedConstraint](v1 T, v2 T) T { | func Min[T langext.OrderedConstraint](v1 T, v2 T) T { | ||||||
| 	if v1 < v2 { | 	if v1 < v2 { | ||||||
| 		return v1 | 		return v1 | ||||||
| @@ -30,6 +55,31 @@ func Min[T langext.OrderedConstraint](v1 T, v2 T) T { | |||||||
| 	} | 	} | ||||||
| } | } | ||||||
|  |  | ||||||
|  | func Min3[T langext.OrderedConstraint](v1 T, v2 T, v3 T) T { | ||||||
|  | 	result := v1 | ||||||
|  | 	if v2 < result { | ||||||
|  | 		result = v2 | ||||||
|  | 	} | ||||||
|  | 	if v3 < result { | ||||||
|  | 		result = v3 | ||||||
|  | 	} | ||||||
|  | 	return result | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func Min4[T langext.OrderedConstraint](v1 T, v2 T, v3 T, v4 T) T { | ||||||
|  | 	result := v1 | ||||||
|  | 	if v2 < result { | ||||||
|  | 		result = v2 | ||||||
|  | 	} | ||||||
|  | 	if v3 < result { | ||||||
|  | 		result = v3 | ||||||
|  | 	} | ||||||
|  | 	if v4 < result { | ||||||
|  | 		result = v4 | ||||||
|  | 	} | ||||||
|  | 	return result | ||||||
|  | } | ||||||
|  |  | ||||||
| func Abs[T langext.NumberConstraint](v T) T { | func Abs[T langext.NumberConstraint](v T) T { | ||||||
| 	if v < 0 { | 	if v < 0 { | ||||||
| 		return -v | 		return -v | ||||||
|   | |||||||
							
								
								
									
										49
									
								
								mongoext/pipeline.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										49
									
								
								mongoext/pipeline.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,49 @@ | |||||||
|  | package mongoext | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"go.mongodb.org/mongo-driver/bson" | ||||||
|  | 	"go.mongodb.org/mongo-driver/mongo" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | // FixTextSearchPipeline moves {$match:{$text:{$search}}} entries to the front of the pipeline (otherwise its an mongo error) | ||||||
|  | func FixTextSearchPipeline(pipeline mongo.Pipeline) mongo.Pipeline { | ||||||
|  |  | ||||||
|  | 	dget := func(v bson.D, k string) (bson.M, bool) { | ||||||
|  | 		for _, e := range v { | ||||||
|  | 			if e.Key == k { | ||||||
|  | 				if mv, ok := e.Value.(bson.M); ok { | ||||||
|  | 					return mv, true | ||||||
|  | 				} | ||||||
|  | 			} | ||||||
|  | 		} | ||||||
|  | 		return nil, false | ||||||
|  | 	} | ||||||
|  | 	mget := func(v bson.M, k string) (bson.M, bool) { | ||||||
|  | 		for ekey, eval := range v { | ||||||
|  | 			if ekey == k { | ||||||
|  | 				if mv, ok := eval.(bson.M); ok { | ||||||
|  | 					return mv, true | ||||||
|  | 				} | ||||||
|  | 			} | ||||||
|  | 		} | ||||||
|  | 		return nil, false | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	result := make([]bson.D, 0, len(pipeline)) | ||||||
|  |  | ||||||
|  | 	for _, entry := range pipeline { | ||||||
|  |  | ||||||
|  | 		if v0, ok := dget(entry, "$match"); ok { | ||||||
|  | 			if v1, ok := mget(v0, "$text"); ok { | ||||||
|  | 				if _, ok := v1["$search"]; ok { | ||||||
|  | 					result = append([]bson.D{entry}, result...) | ||||||
|  | 					continue | ||||||
|  | 				} | ||||||
|  | 			} | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		result = append(result, entry) | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return result | ||||||
|  | } | ||||||
							
								
								
									
										30
									
								
								mongoext/projections.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										30
									
								
								mongoext/projections.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,30 @@ | |||||||
|  | package mongoext | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"go.mongodb.org/mongo-driver/bson" | ||||||
|  | 	"reflect" | ||||||
|  | 	"strings" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | // ProjectionFromStruct automatically generated a mongodb projection for a struct | ||||||
|  | // This way you can pretty much always write | ||||||
|  | // `options.FindOne().SetProjection(mongoutils.ProjectionFromStruct(...your_model...))` | ||||||
|  | // to only get the data from mongodb that you will actually use in the later decode step | ||||||
|  | func ProjectionFromStruct(obj interface{}) bson.M { | ||||||
|  | 	v := reflect.ValueOf(obj) | ||||||
|  | 	t := v.Type() | ||||||
|  |  | ||||||
|  | 	result := bson.M{} | ||||||
|  |  | ||||||
|  | 	for i := 0; i < v.NumField(); i++ { | ||||||
|  | 		tag := t.Field(i).Tag.Get("bson") | ||||||
|  | 		if tag == "" { | ||||||
|  | 			continue | ||||||
|  | 		} | ||||||
|  | 		tag = strings.Split(tag, ",")[0] | ||||||
|  |  | ||||||
|  | 		result[tag] = 1 | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return result | ||||||
|  | } | ||||||
							
								
								
									
										28
									
								
								mongoext/registry.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										28
									
								
								mongoext/registry.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,28 @@ | |||||||
|  | package mongoext | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"go.mongodb.org/mongo-driver/bson" | ||||||
|  | 	"go.mongodb.org/mongo-driver/bson/bsoncodec" | ||||||
|  | 	"gogs.mikescher.com/BlackForestBytes/goext/rfctime" | ||||||
|  | 	"reflect" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | func CreateGoExtBsonRegistry() *bsoncodec.Registry { | ||||||
|  | 	rb := bsoncodec.NewRegistryBuilder() | ||||||
|  |  | ||||||
|  | 	rb.RegisterTypeDecoder(reflect.TypeOf(rfctime.RFC3339Time{}), rfctime.RFC3339Time{}) | ||||||
|  | 	rb.RegisterTypeDecoder(reflect.TypeOf(&rfctime.RFC3339Time{}), rfctime.RFC3339Time{}) | ||||||
|  |  | ||||||
|  | 	rb.RegisterTypeDecoder(reflect.TypeOf(rfctime.RFC3339NanoTime{}), rfctime.RFC3339NanoTime{}) | ||||||
|  | 	rb.RegisterTypeDecoder(reflect.TypeOf(&rfctime.RFC3339NanoTime{}), rfctime.RFC3339NanoTime{}) | ||||||
|  |  | ||||||
|  | 	rb.RegisterTypeDecoder(reflect.TypeOf(rfctime.Date{}), rfctime.Date{}) | ||||||
|  | 	rb.RegisterTypeDecoder(reflect.TypeOf(&rfctime.Date{}), rfctime.Date{}) | ||||||
|  |  | ||||||
|  | 	bsoncodec.DefaultValueEncoders{}.RegisterDefaultEncoders(rb) | ||||||
|  | 	bsoncodec.DefaultValueDecoders{}.RegisterDefaultDecoders(rb) | ||||||
|  |  | ||||||
|  | 	bson.PrimitiveCodecs{}.RegisterPrimitiveCodecs(rb) | ||||||
|  |  | ||||||
|  | 	return rb.Build() | ||||||
|  | } | ||||||
							
								
								
									
										136
									
								
								reflectext/casting.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										136
									
								
								reflectext/casting.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,136 @@ | |||||||
|  | package reflectext | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"reflect" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | var reflectBasicTypes = map[reflect.Kind]reflect.Type{ | ||||||
|  | 	reflect.Bool:       reflect.TypeOf(false), | ||||||
|  | 	reflect.Int:        reflect.TypeOf(int(0)), | ||||||
|  | 	reflect.Int8:       reflect.TypeOf(int8(0)), | ||||||
|  | 	reflect.Int16:      reflect.TypeOf(int16(0)), | ||||||
|  | 	reflect.Int32:      reflect.TypeOf(int32(0)), | ||||||
|  | 	reflect.Int64:      reflect.TypeOf(int64(0)), | ||||||
|  | 	reflect.Uint:       reflect.TypeOf(uint(0)), | ||||||
|  | 	reflect.Uint8:      reflect.TypeOf(uint8(0)), | ||||||
|  | 	reflect.Uint16:     reflect.TypeOf(uint16(0)), | ||||||
|  | 	reflect.Uint32:     reflect.TypeOf(uint32(0)), | ||||||
|  | 	reflect.Uint64:     reflect.TypeOf(uint64(0)), | ||||||
|  | 	reflect.Uintptr:    reflect.TypeOf(uintptr(0)), | ||||||
|  | 	reflect.Float32:    reflect.TypeOf(float32(0)), | ||||||
|  | 	reflect.Float64:    reflect.TypeOf(float64(0)), | ||||||
|  | 	reflect.Complex64:  reflect.TypeOf(complex64(0)), | ||||||
|  | 	reflect.Complex128: reflect.TypeOf(complex128(0)), | ||||||
|  | 	reflect.String:     reflect.TypeOf(""), | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // Underlying returns the underlying type of t (without type alias) | ||||||
|  | // | ||||||
|  | // https://github.com/golang/go/issues/39574#issuecomment-655664772 | ||||||
|  | func Underlying(t reflect.Type) (ret reflect.Type) { | ||||||
|  | 	if t.Name() == "" { | ||||||
|  | 		// t is an unnamed type. the underlying type is t itself | ||||||
|  | 		return t | ||||||
|  | 	} | ||||||
|  | 	kind := t.Kind() | ||||||
|  | 	if ret = reflectBasicTypes[kind]; ret != nil { | ||||||
|  | 		return ret | ||||||
|  | 	} | ||||||
|  | 	switch kind { | ||||||
|  | 	case reflect.Array: | ||||||
|  | 		ret = reflect.ArrayOf(t.Len(), t.Elem()) | ||||||
|  | 	case reflect.Chan: | ||||||
|  | 		ret = reflect.ChanOf(t.ChanDir(), t.Elem()) | ||||||
|  | 	case reflect.Map: | ||||||
|  | 		ret = reflect.MapOf(t.Key(), t.Elem()) | ||||||
|  | 	case reflect.Func: | ||||||
|  | 		nIn := t.NumIn() | ||||||
|  | 		nOut := t.NumOut() | ||||||
|  | 		in := make([]reflect.Type, nIn) | ||||||
|  | 		out := make([]reflect.Type, nOut) | ||||||
|  | 		for i := 0; i < nIn; i++ { | ||||||
|  | 			in[i] = t.In(i) | ||||||
|  | 		} | ||||||
|  | 		for i := 0; i < nOut; i++ { | ||||||
|  | 			out[i] = t.Out(i) | ||||||
|  | 		} | ||||||
|  | 		ret = reflect.FuncOf(in, out, t.IsVariadic()) | ||||||
|  | 	case reflect.Interface: | ||||||
|  | 		// not supported | ||||||
|  | 	case reflect.Ptr: | ||||||
|  | 		ret = reflect.PtrTo(t.Elem()) | ||||||
|  | 	case reflect.Slice: | ||||||
|  | 		ret = reflect.SliceOf(t.Elem()) | ||||||
|  | 	case reflect.Struct: | ||||||
|  | 		// only partially supported: embedded fields | ||||||
|  | 		// and unexported fields may cause panic in reflect.StructOf() | ||||||
|  | 		defer func() { | ||||||
|  | 			// if a panic happens, return t unmodified | ||||||
|  | 			if recover() != nil && ret == nil { | ||||||
|  | 				ret = t | ||||||
|  | 			} | ||||||
|  | 		}() | ||||||
|  | 		n := t.NumField() | ||||||
|  | 		fields := make([]reflect.StructField, n) | ||||||
|  | 		for i := 0; i < n; i++ { | ||||||
|  | 			fields[i] = t.Field(i) | ||||||
|  | 		} | ||||||
|  | 		ret = reflect.StructOf(fields) | ||||||
|  | 	} | ||||||
|  | 	return ret | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // TryCast works similar to `v2, ok := v.(T)` | ||||||
|  | // Except it works through type alias' | ||||||
|  | func TryCast[T any](v any) (T, bool) { | ||||||
|  |  | ||||||
|  | 	underlying := Underlying(reflect.TypeOf(v)) | ||||||
|  |  | ||||||
|  | 	def := *new(T) | ||||||
|  |  | ||||||
|  | 	if underlying != Underlying(reflect.TypeOf(def)) { | ||||||
|  | 		return def, false | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	r1 := reflect.ValueOf(v) | ||||||
|  |  | ||||||
|  | 	if !r1.CanConvert(underlying) { | ||||||
|  | 		return def, false | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	r2 := r1.Convert(underlying) | ||||||
|  |  | ||||||
|  | 	r3 := r2.Interface() | ||||||
|  |  | ||||||
|  | 	r4, ok := r3.(T) | ||||||
|  | 	if !ok { | ||||||
|  | 		return def, false | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return r4, true | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func TryCastType(v any, dest reflect.Type) (any, bool) { | ||||||
|  |  | ||||||
|  | 	underlying := Underlying(reflect.TypeOf(v)) | ||||||
|  |  | ||||||
|  | 	if underlying != Underlying(dest) { | ||||||
|  | 		return nil, false | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	r1 := reflect.ValueOf(v) | ||||||
|  |  | ||||||
|  | 	if !r1.CanConvert(underlying) { | ||||||
|  | 		return nil, false | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	r2 := r1.Convert(underlying) | ||||||
|  |  | ||||||
|  | 	if !r2.CanConvert(dest) { | ||||||
|  | 		return nil, false | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	r4 := r2.Convert(dest) | ||||||
|  |  | ||||||
|  | 	return r4.Interface(), true | ||||||
|  | } | ||||||
							
								
								
									
										136
									
								
								reflectext/primStrSer.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										136
									
								
								reflectext/primStrSer.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,136 @@ | |||||||
|  | package reflectext | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"errors" | ||||||
|  | 	"fmt" | ||||||
|  | 	"go.mongodb.org/mongo-driver/bson/primitive" | ||||||
|  | 	"gogs.mikescher.com/BlackForestBytes/goext/langext" | ||||||
|  | 	"reflect" | ||||||
|  | 	"strconv" | ||||||
|  | 	"strings" | ||||||
|  | 	"time" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | var primitiveSerializer = map[reflect.Type]genSerializer{ | ||||||
|  |  | ||||||
|  | 	reflect.TypeOf(""): newGenSerializer(serStringToString, serStringToString), | ||||||
|  |  | ||||||
|  | 	reflect.TypeOf(int(0)):   newGenSerializer(serIntNumToString[int], serStringToSIntNum[int]), | ||||||
|  | 	reflect.TypeOf(int32(0)): newGenSerializer(serIntNumToString[int32], serStringToSIntNum[int32]), | ||||||
|  | 	reflect.TypeOf(int64(0)): newGenSerializer(serIntNumToString[int64], serStringToSIntNum[int64]), | ||||||
|  |  | ||||||
|  | 	reflect.TypeOf(uint(0)):   newGenSerializer(serIntNumToString[uint], serStringToUIntNum[uint]), | ||||||
|  | 	reflect.TypeOf(uint32(0)): newGenSerializer(serIntNumToString[uint32], serStringToUIntNum[uint32]), | ||||||
|  | 	reflect.TypeOf(uint64(0)): newGenSerializer(serIntNumToString[uint64], serStringToUIntNum[uint64]), | ||||||
|  |  | ||||||
|  | 	reflect.TypeOf(float32(0)): newGenSerializer(serFloatNumToString[float32], serStringToFloatNum[float32]), | ||||||
|  | 	reflect.TypeOf(float64(0)): newGenSerializer(serFloatNumToString[float64], serStringToFloatNum[float64]), | ||||||
|  |  | ||||||
|  | 	reflect.TypeOf(true): newGenSerializer(serBoolToString, serStringToBool), | ||||||
|  |  | ||||||
|  | 	reflect.TypeOf(primitive.ObjectID{}): newGenSerializer(serObjectIDToString, serStringToObjectID), | ||||||
|  |  | ||||||
|  | 	reflect.TypeOf(time.Time{}): newGenSerializer(serTimeToString, serStringToTime), | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type genSerializer struct { | ||||||
|  | 	ToString   func(v any) (string, error) | ||||||
|  | 	FromString func(v string) (any, error) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func newGenSerializer[TData any](tostr func(v TData) (string, error), fromstr func(v string) (TData, error)) genSerializer { | ||||||
|  | 	return genSerializer{ | ||||||
|  | 		ToString: func(v any) (string, error) { | ||||||
|  | 			if tdv, ok := v.(TData); ok { | ||||||
|  | 				rv, err := tostr(tdv) | ||||||
|  | 				if err != nil { | ||||||
|  | 					return "", err | ||||||
|  | 				} | ||||||
|  | 				return rv, nil | ||||||
|  | 			} else { | ||||||
|  | 				return "", errors.New(fmt.Sprintf("cannot convert type %T to TData (%T)", v, *new(TData))) | ||||||
|  | 			} | ||||||
|  | 		}, | ||||||
|  | 		FromString: func(v string) (any, error) { | ||||||
|  | 			nv, err := fromstr(v) | ||||||
|  | 			if err != nil { | ||||||
|  | 				return "", err | ||||||
|  | 			} | ||||||
|  | 			return nv, nil | ||||||
|  | 		}, | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func serStringToString(v string) (string, error) { | ||||||
|  | 	return v, nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func serIntNumToString[TNum langext.IntegerConstraint](v TNum) (string, error) { | ||||||
|  | 	return strconv.FormatInt(int64(v), 10), nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func serStringToSIntNum[TNum langext.SignedConstraint](v string) (TNum, error) { | ||||||
|  | 	r, err := strconv.ParseInt(v, 10, 64) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return 0, err | ||||||
|  | 	} | ||||||
|  | 	return TNum(r), nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func serStringToUIntNum[TNum langext.UnsignedConstraint](v string) (TNum, error) { | ||||||
|  | 	r, err := strconv.ParseUint(v, 10, 64) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return 0, err | ||||||
|  | 	} | ||||||
|  | 	return TNum(r), nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func serFloatNumToString[TNum langext.FloatConstraint](v TNum) (string, error) { | ||||||
|  | 	return strconv.FormatFloat(float64(v), 'f', -1, 64), nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func serStringToFloatNum[TNum langext.FloatConstraint](v string) (TNum, error) { | ||||||
|  | 	r, err := strconv.ParseFloat(v, 64) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return 0, err | ||||||
|  | 	} | ||||||
|  | 	return TNum(r), nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func serBoolToString(v bool) (string, error) { | ||||||
|  | 	return langext.Conditional(v, "true", "false"), nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func serStringToBool(v string) (bool, error) { | ||||||
|  | 	if strings.ToLower(v) == "true" { | ||||||
|  | 		return true, nil | ||||||
|  | 	} | ||||||
|  | 	if strings.ToLower(v) == "false" { | ||||||
|  | 		return true, nil | ||||||
|  | 	} | ||||||
|  | 	return false, errors.New(fmt.Sprintf("invalid boolean value '%s'", v)) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func serObjectIDToString(v primitive.ObjectID) (string, error) { | ||||||
|  | 	return v.Hex(), nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func serStringToObjectID(v string) (primitive.ObjectID, error) { | ||||||
|  | 	if rv, err := primitive.ObjectIDFromHex(v); err == nil { | ||||||
|  | 		return rv, nil | ||||||
|  | 	} else { | ||||||
|  | 		return primitive.ObjectID{}, err | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func serTimeToString(v time.Time) (string, error) { | ||||||
|  | 	return v.Format(time.RFC3339Nano), nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func serStringToTime(v string) (time.Time, error) { | ||||||
|  | 	if rv, err := time.Parse(time.RFC3339Nano, v); err == nil { | ||||||
|  | 		return rv, nil | ||||||
|  | 	} else { | ||||||
|  | 		return time.Time{}, err | ||||||
|  | 	} | ||||||
|  | } | ||||||
							
								
								
									
										92
									
								
								reflectext/primitiveStringSerializer.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										92
									
								
								reflectext/primitiveStringSerializer.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,92 @@ | |||||||
|  | package reflectext | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"errors" | ||||||
|  | 	"fmt" | ||||||
|  | 	"gogs.mikescher.com/BlackForestBytes/goext/langext" | ||||||
|  | 	"reflect" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | // PrimitiveStringSerializer is used to serialize primitive types (and a few more) from and to string | ||||||
|  | // This is not really intended to be user facing, and more as a simple building block for other mechanisms | ||||||
|  | // supports: | ||||||
|  | //   - golang primitives (ints, uints, floats, bool, string) | ||||||
|  | //   - type aliases | ||||||
|  | //   - time.Time | ||||||
|  | //   - primitive.ObjectID | ||||||
|  | type PrimitiveStringSerializer struct{} | ||||||
|  |  | ||||||
|  | func (pss PrimitiveStringSerializer) ValueToString(v any) (string, error) { | ||||||
|  |  | ||||||
|  | 	inType := reflect.TypeOf(v) | ||||||
|  |  | ||||||
|  | 	if inType.Kind() == reflect.Ptr && langext.IsNil(v) { | ||||||
|  | 		return "", nil | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	if inType.Kind() == reflect.Ptr { | ||||||
|  | 		rval1 := reflect.ValueOf(v) | ||||||
|  | 		rval2 := rval1.Elem() | ||||||
|  | 		rval3 := rval2.Interface() | ||||||
|  | 		return pss.ValueToString(rval3) | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	if conv, ok := primitiveSerializer[inType]; ok { | ||||||
|  | 		return conv.ToString(v) | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	for convType, conv := range primitiveSerializer { | ||||||
|  | 		if castV, ok := TryCastType(v, convType); ok { | ||||||
|  | 			return conv.ToString(castV) | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return "", errors.New(fmt.Sprintf("failed to find a matching generic <toString> conversion fo type %T", v)) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (pss PrimitiveStringSerializer) ValueFromString(str string, outType reflect.Type) (any, error) { | ||||||
|  |  | ||||||
|  | 	if outType.Kind() == reflect.Ptr && str == "" { | ||||||
|  | 		return reflect.Zero(outType).Interface(), nil // = nil.(outType), nil | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	if str == "" { | ||||||
|  | 		return reflect.Zero(outType).Interface(), nil // = <default>(outType), nil | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	if outType.Kind() == reflect.Ptr { | ||||||
|  |  | ||||||
|  | 		innerValue, err := pss.ValueFromString(str, outType.Elem()) | ||||||
|  | 		if err != nil { | ||||||
|  | 			return nil, err | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		// this weird piece of shit converts innerValue to &innerValue  (while keeping types) | ||||||
|  |  | ||||||
|  | 		rval1 := reflect.ValueOf(innerValue) | ||||||
|  | 		rval2 := rval1.Convert(outType.Elem()) | ||||||
|  | 		rval3 := reflect.New(outType.Elem()) | ||||||
|  | 		rval3.Elem().Set(rval2) | ||||||
|  | 		rval4 := rval3.Interface() | ||||||
|  |  | ||||||
|  | 		return rval4, nil | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	if conv, ok := primitiveSerializer[outType]; ok { | ||||||
|  | 		return conv.FromString(str) | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	emptyResultVal := reflect.Zero(outType).Interface() | ||||||
|  |  | ||||||
|  | 	for convType, conv := range primitiveSerializer { | ||||||
|  | 		if _, ok := TryCastType(emptyResultVal, convType); ok { | ||||||
|  | 			if convVal, err := conv.FromString(str); err == nil { | ||||||
|  | 				if resVal, ok := TryCastType(convVal, outType); ok { | ||||||
|  | 					return resVal, nil | ||||||
|  | 				} | ||||||
|  | 			} | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return "", errors.New(fmt.Sprintf("failed to find a matching generic <toString> conversion fo type %s", outType.String())) | ||||||
|  | } | ||||||
							
								
								
									
										240
									
								
								rfctime/date.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										240
									
								
								rfctime/date.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,240 @@ | |||||||
|  | package rfctime | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"encoding/json" | ||||||
|  | 	"errors" | ||||||
|  | 	"fmt" | ||||||
|  | 	"go.mongodb.org/mongo-driver/bson" | ||||||
|  | 	"go.mongodb.org/mongo-driver/bson/bsoncodec" | ||||||
|  | 	"go.mongodb.org/mongo-driver/bson/bsonrw" | ||||||
|  | 	"go.mongodb.org/mongo-driver/bson/bsontype" | ||||||
|  | 	"reflect" | ||||||
|  | 	"time" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | type Date struct { | ||||||
|  | 	Year  int | ||||||
|  | 	Month int | ||||||
|  | 	Day   int | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (t Date) Time(loc *time.Location) time.Time { | ||||||
|  | 	return time.Date(t.Year, time.Month(t.Month), t.Day, 0, 0, 0, 0, loc) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (t Date) TimeUTC() time.Time { | ||||||
|  | 	return time.Date(t.Year, time.Month(t.Month), t.Day, 0, 0, 0, 0, time.UTC) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (t Date) TimeLocal() time.Time { | ||||||
|  | 	return time.Date(t.Year, time.Month(t.Month), t.Day, 0, 0, 0, 0, time.Local) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (t Date) MarshalBinary() ([]byte, error) { | ||||||
|  | 	return t.TimeUTC().MarshalBinary() | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (t *Date) UnmarshalBinary(data []byte) error { | ||||||
|  | 	nt := time.Time{} | ||||||
|  | 	if err := nt.UnmarshalBinary(data); err != nil { | ||||||
|  | 		return err | ||||||
|  | 	} | ||||||
|  | 	t.Year = nt.Year() | ||||||
|  | 	t.Month = int(nt.Month()) | ||||||
|  | 	t.Day = nt.Day() | ||||||
|  | 	return nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (t Date) GobEncode() ([]byte, error) { | ||||||
|  | 	return t.TimeUTC().GobEncode() | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (t *Date) GobDecode(data []byte) error { | ||||||
|  | 	nt := time.Time{} | ||||||
|  | 	if err := nt.GobDecode(data); err != nil { | ||||||
|  | 		return err | ||||||
|  | 	} | ||||||
|  | 	t.Year = nt.Year() | ||||||
|  | 	t.Month = int(nt.Month()) | ||||||
|  | 	t.Day = nt.Day() | ||||||
|  | 	return nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (t *Date) UnmarshalJSON(data []byte) error { | ||||||
|  | 	str := "" | ||||||
|  | 	if err := json.Unmarshal(data, &str); err != nil { | ||||||
|  | 		return err | ||||||
|  | 	} | ||||||
|  | 	t0, err := time.Parse(t.FormatStr(), str) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return err | ||||||
|  | 	} | ||||||
|  | 	t.Year = t0.Year() | ||||||
|  | 	t.Month = int(t0.Month()) | ||||||
|  | 	t.Day = t0.Day() | ||||||
|  | 	return nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (t Date) MarshalJSON() ([]byte, error) { | ||||||
|  | 	str := t.TimeUTC().Format(t.FormatStr()) | ||||||
|  | 	return json.Marshal(str) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (t Date) MarshalText() ([]byte, error) { | ||||||
|  | 	b := make([]byte, 0, len(t.FormatStr())) | ||||||
|  | 	return t.TimeUTC().AppendFormat(b, t.FormatStr()), nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (t *Date) UnmarshalText(data []byte) error { | ||||||
|  | 	var err error | ||||||
|  | 	v, err := time.Parse(t.FormatStr(), string(data)) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return err | ||||||
|  | 	} | ||||||
|  | 	t.Year = v.Year() | ||||||
|  | 	t.Month = int(v.Month()) | ||||||
|  | 	t.Day = v.Day() | ||||||
|  | 	return nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (t *Date) UnmarshalBSONValue(bt bsontype.Type, data []byte) error { | ||||||
|  | 	if bt == bsontype.Null { | ||||||
|  | 		// we can't set nil in UnmarshalBSONValue (so we use default(struct)) | ||||||
|  | 		// Use mongoext.CreateGoExtBsonRegistry if you need to unmarsh pointer values | ||||||
|  | 		// https://stackoverflow.com/questions/75167597 | ||||||
|  | 		// https://jira.mongodb.org/browse/GODRIVER-2252 | ||||||
|  | 		*t = Date{} | ||||||
|  | 		return nil | ||||||
|  | 	} | ||||||
|  | 	if bt != bsontype.String { | ||||||
|  | 		return errors.New(fmt.Sprintf("cannot unmarshal %v into Date", bt)) | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	var tt string | ||||||
|  | 	err := bson.RawValue{Type: bt, Value: data}.Unmarshal(&tt) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	v, err := time.Parse(t.FormatStr(), tt) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return err | ||||||
|  | 	} | ||||||
|  | 	t.Year = v.Year() | ||||||
|  | 	t.Month = int(v.Month()) | ||||||
|  | 	t.Day = v.Day() | ||||||
|  |  | ||||||
|  | 	return nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (t Date) MarshalBSONValue() (bsontype.Type, []byte, error) { | ||||||
|  | 	return bson.MarshalValue(t.TimeUTC().Format(t.FormatStr())) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (t Date) DecodeValue(dc bsoncodec.DecodeContext, vr bsonrw.ValueReader, val reflect.Value) error { | ||||||
|  | 	if val.Kind() == reflect.Ptr && val.IsNil() { | ||||||
|  | 		if !val.CanSet() { | ||||||
|  | 			return errors.New("ValueUnmarshalerDecodeValue") | ||||||
|  | 		} | ||||||
|  | 		val.Set(reflect.New(val.Type().Elem())) | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	tp, src, err := bsonrw.Copier{}.CopyValueToBytes(vr) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	if val.Kind() == reflect.Ptr && len(src) == 0 { | ||||||
|  | 		val.Set(reflect.Zero(val.Type())) | ||||||
|  | 		return nil | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	err = t.UnmarshalBSONValue(tp, src) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	if val.Kind() == reflect.Ptr { | ||||||
|  | 		val.Set(reflect.ValueOf(&t)) | ||||||
|  | 	} else { | ||||||
|  | 		val.Set(reflect.ValueOf(t)) | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (t Date) Serialize() string { | ||||||
|  | 	return t.TimeUTC().Format(t.FormatStr()) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (t Date) FormatStr() string { | ||||||
|  | 	return "2006-01-02" | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (t Date) Date() (year int, month time.Month, day int) { | ||||||
|  | 	return t.TimeUTC().Date() | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (t Date) Weekday() time.Weekday { | ||||||
|  | 	return t.TimeUTC().Weekday() | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (t Date) ISOWeek() (year, week int) { | ||||||
|  | 	return t.TimeUTC().ISOWeek() | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (t Date) YearDay() int { | ||||||
|  | 	return t.TimeUTC().YearDay() | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (t Date) AddDate(years int, months int, days int) Date { | ||||||
|  | 	return NewDate(t.TimeUTC().AddDate(years, months, days)) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (t Date) Unix() int64 { | ||||||
|  | 	return t.TimeUTC().Unix() | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (t Date) UnixMilli() int64 { | ||||||
|  | 	return t.TimeUTC().UnixMilli() | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (t Date) UnixMicro() int64 { | ||||||
|  | 	return t.TimeUTC().UnixMicro() | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (t Date) UnixNano() int64 { | ||||||
|  | 	return t.TimeUTC().UnixNano() | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (t Date) Format(layout string) string { | ||||||
|  | 	return t.TimeUTC().Format(layout) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (t Date) GoString() string { | ||||||
|  | 	return t.TimeUTC().GoString() | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (t Date) String() string { | ||||||
|  | 	return t.TimeUTC().String() | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func NewDate(t time.Time) Date { | ||||||
|  | 	return Date{ | ||||||
|  | 		Year:  t.Year(), | ||||||
|  | 		Month: int(t.Month()), | ||||||
|  | 		Day:   t.Day(), | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func NowDate(loc *time.Location) Date { | ||||||
|  | 	return NewDate(time.Now().In(loc)) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func NowDateLoc() Date { | ||||||
|  | 	return NewDate(time.Now().In(time.UTC)) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func NowDateUTC() Date { | ||||||
|  | 	return NewDate(time.Now().In(time.Local)) | ||||||
|  | } | ||||||
| @@ -1,6 +1,7 @@ | |||||||
| package rfctime | package rfctime | ||||||
|  |  | ||||||
| import ( | import ( | ||||||
|  | 	"gogs.mikescher.com/BlackForestBytes/goext/tst" | ||||||
| 	"testing" | 	"testing" | ||||||
| 	"time" | 	"time" | ||||||
| ) | ) | ||||||
|   | |||||||
| @@ -5,7 +5,10 @@ import ( | |||||||
| 	"errors" | 	"errors" | ||||||
| 	"fmt" | 	"fmt" | ||||||
| 	"go.mongodb.org/mongo-driver/bson" | 	"go.mongodb.org/mongo-driver/bson" | ||||||
|  | 	"go.mongodb.org/mongo-driver/bson/bsoncodec" | ||||||
|  | 	"go.mongodb.org/mongo-driver/bson/bsonrw" | ||||||
| 	"go.mongodb.org/mongo-driver/bson/bsontype" | 	"go.mongodb.org/mongo-driver/bson/bsontype" | ||||||
|  | 	"reflect" | ||||||
| 	"time" | 	"time" | ||||||
| ) | ) | ||||||
|  |  | ||||||
| @@ -66,11 +69,19 @@ func (t *RFC3339Time) UnmarshalText(data []byte) error { | |||||||
| } | } | ||||||
|  |  | ||||||
| func (t *RFC3339Time) UnmarshalBSONValue(bt bsontype.Type, data []byte) error { | func (t *RFC3339Time) UnmarshalBSONValue(bt bsontype.Type, data []byte) error { | ||||||
|  | 	if bt == bsontype.Null { | ||||||
|  | 		// we can't set nil in UnmarshalBSONValue (so we use default(struct)) | ||||||
|  | 		// Use mongoext.CreateGoExtBsonRegistry if you need to unmarsh pointer values | ||||||
|  | 		// https://stackoverflow.com/questions/75167597 | ||||||
|  | 		// https://jira.mongodb.org/browse/GODRIVER-2252 | ||||||
|  | 		*t = RFC3339Time{} | ||||||
|  | 		return nil | ||||||
|  | 	} | ||||||
| 	if bt != bsontype.DateTime { | 	if bt != bsontype.DateTime { | ||||||
| 		return errors.New(fmt.Sprintf("cannot unmarshal %v into RFC3339Time", bt)) | 		return errors.New(fmt.Sprintf("cannot unmarshal %v into RFC3339Time", bt)) | ||||||
| 	} | 	} | ||||||
| 	var tt time.Time | 	var tt time.Time | ||||||
| 	err := bson.Unmarshal(data, &tt) | 	err := bson.RawValue{Type: bt, Value: data}.Unmarshal(&tt) | ||||||
| 	if err != nil { | 	if err != nil { | ||||||
| 		return err | 		return err | ||||||
| 	} | 	} | ||||||
| @@ -82,6 +93,38 @@ func (t RFC3339Time) MarshalBSONValue() (bsontype.Type, []byte, error) { | |||||||
| 	return bson.MarshalValue(time.Time(t)) | 	return bson.MarshalValue(time.Time(t)) | ||||||
| } | } | ||||||
|  |  | ||||||
|  | func (t RFC3339Time) DecodeValue(dc bsoncodec.DecodeContext, vr bsonrw.ValueReader, val reflect.Value) error { | ||||||
|  | 	if val.Kind() == reflect.Ptr && val.IsNil() { | ||||||
|  | 		if !val.CanSet() { | ||||||
|  | 			return errors.New("ValueUnmarshalerDecodeValue") | ||||||
|  | 		} | ||||||
|  | 		val.Set(reflect.New(val.Type().Elem())) | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	tp, src, err := bsonrw.Copier{}.CopyValueToBytes(vr) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	if val.Kind() == reflect.Ptr && len(src) == 0 { | ||||||
|  | 		val.Set(reflect.Zero(val.Type())) | ||||||
|  | 		return nil | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	err = t.UnmarshalBSONValue(tp, src) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	if val.Kind() == reflect.Ptr { | ||||||
|  | 		val.Set(reflect.ValueOf(&t)) | ||||||
|  | 	} else { | ||||||
|  | 		val.Set(reflect.ValueOf(t)) | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return nil | ||||||
|  | } | ||||||
|  |  | ||||||
| func (t RFC3339Time) Serialize() string { | func (t RFC3339Time) Serialize() string { | ||||||
| 	return t.Time().Format(t.FormatStr()) | 	return t.Time().Format(t.FormatStr()) | ||||||
| } | } | ||||||
|   | |||||||
| @@ -5,7 +5,10 @@ import ( | |||||||
| 	"errors" | 	"errors" | ||||||
| 	"fmt" | 	"fmt" | ||||||
| 	"go.mongodb.org/mongo-driver/bson" | 	"go.mongodb.org/mongo-driver/bson" | ||||||
|  | 	"go.mongodb.org/mongo-driver/bson/bsoncodec" | ||||||
|  | 	"go.mongodb.org/mongo-driver/bson/bsonrw" | ||||||
| 	"go.mongodb.org/mongo-driver/bson/bsontype" | 	"go.mongodb.org/mongo-driver/bson/bsontype" | ||||||
|  | 	"reflect" | ||||||
| 	"time" | 	"time" | ||||||
| ) | ) | ||||||
|  |  | ||||||
| @@ -66,6 +69,14 @@ func (t *RFC3339NanoTime) UnmarshalText(data []byte) error { | |||||||
| } | } | ||||||
|  |  | ||||||
| func (t *RFC3339NanoTime) UnmarshalBSONValue(bt bsontype.Type, data []byte) error { | func (t *RFC3339NanoTime) UnmarshalBSONValue(bt bsontype.Type, data []byte) error { | ||||||
|  | 	if bt == bsontype.Null { | ||||||
|  | 		// we can't set nil in UnmarshalBSONValue (so we use default(struct)) | ||||||
|  | 		// Use mongoext.CreateGoExtBsonRegistry if you need to unmarsh pointer values | ||||||
|  | 		// https://stackoverflow.com/questions/75167597 | ||||||
|  | 		// https://jira.mongodb.org/browse/GODRIVER-2252 | ||||||
|  | 		*t = RFC3339NanoTime{} | ||||||
|  | 		return nil | ||||||
|  | 	} | ||||||
| 	if bt != bsontype.DateTime { | 	if bt != bsontype.DateTime { | ||||||
| 		return errors.New(fmt.Sprintf("cannot unmarshal %v into RFC3339NanoTime", bt)) | 		return errors.New(fmt.Sprintf("cannot unmarshal %v into RFC3339NanoTime", bt)) | ||||||
| 	} | 	} | ||||||
| @@ -82,6 +93,38 @@ func (t RFC3339NanoTime) MarshalBSONValue() (bsontype.Type, []byte, error) { | |||||||
| 	return bson.MarshalValue(time.Time(t)) | 	return bson.MarshalValue(time.Time(t)) | ||||||
| } | } | ||||||
|  |  | ||||||
|  | func (t RFC3339NanoTime) DecodeValue(dc bsoncodec.DecodeContext, vr bsonrw.ValueReader, val reflect.Value) error { | ||||||
|  | 	if val.Kind() == reflect.Ptr && val.IsNil() { | ||||||
|  | 		if !val.CanSet() { | ||||||
|  | 			return errors.New("ValueUnmarshalerDecodeValue") | ||||||
|  | 		} | ||||||
|  | 		val.Set(reflect.New(val.Type().Elem())) | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	tp, src, err := bsonrw.Copier{}.CopyValueToBytes(vr) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	if val.Kind() == reflect.Ptr && len(src) == 0 { | ||||||
|  | 		val.Set(reflect.Zero(val.Type())) | ||||||
|  | 		return nil | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	err = t.UnmarshalBSONValue(tp, src) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	if val.Kind() == reflect.Ptr { | ||||||
|  | 		val.Set(reflect.ValueOf(&t)) | ||||||
|  | 	} else { | ||||||
|  | 		val.Set(reflect.ValueOf(t)) | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return nil | ||||||
|  | } | ||||||
|  |  | ||||||
| func (t RFC3339NanoTime) Serialize() string { | func (t RFC3339NanoTime) Serialize() string { | ||||||
| 	return t.Time().Format(t.FormatStr()) | 	return t.Time().Format(t.FormatStr()) | ||||||
| } | } | ||||||
|   | |||||||
							
								
								
									
										91
									
								
								sq/converter.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										91
									
								
								sq/converter.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,91 @@ | |||||||
|  | package sq | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"errors" | ||||||
|  | 	"fmt" | ||||||
|  | 	"gogs.mikescher.com/BlackForestBytes/goext/langext" | ||||||
|  | 	"time" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | //TODO UNFINISHED | ||||||
|  | // this is not finished | ||||||
|  | // idea was that we can register converter in the database struct | ||||||
|  | // they get inherited from the transactions | ||||||
|  | // and when marshallingunmarshaling (sq.Query | sq.QueryAll) | ||||||
|  | // or marshaling (sq.InsertSingle) | ||||||
|  | // the types get converter automatically... | ||||||
|  |  | ||||||
|  | type DBTypeConverter interface { | ||||||
|  | 	ModelTypeString() string | ||||||
|  | 	DBTypeString() string | ||||||
|  | 	ModelToDB(v any) (any, error) | ||||||
|  | 	DBToModel(v any) (any, error) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | var ConverterBoolToBit = NewDBTypeConverter[bool, int](func(v bool) (int, error) { | ||||||
|  | 	return langext.Conditional(v, 1, 0), nil | ||||||
|  | }, func(v int) (bool, error) { | ||||||
|  | 	if v == 0 { | ||||||
|  | 		return false, nil | ||||||
|  | 	} | ||||||
|  | 	if v == 1 { | ||||||
|  | 		return true, nil | ||||||
|  | 	} | ||||||
|  | 	return false, errors.New(fmt.Sprintf("invalid valud for boolean: '%d'", v)) | ||||||
|  | }) | ||||||
|  |  | ||||||
|  | var ConverterTimeToUnixMillis = NewDBTypeConverter[time.Time, int64](func(v time.Time) (int64, error) { | ||||||
|  | 	return v.UnixMilli(), nil | ||||||
|  | }, func(v int64) (time.Time, error) { | ||||||
|  | 	return time.UnixMilli(v), nil | ||||||
|  | }) | ||||||
|  |  | ||||||
|  | var ConverterOptTimeToUnixMillis = NewDBTypeConverter[*time.Time, *int64](func(v *time.Time) (*int64, error) { | ||||||
|  | 	if v == nil { | ||||||
|  | 		return nil, nil | ||||||
|  | 	} | ||||||
|  | 	return langext.Ptr(v.UnixMilli()), nil | ||||||
|  | }, func(v *int64) (*time.Time, error) { | ||||||
|  | 	if v == nil { | ||||||
|  | 		return nil, nil | ||||||
|  | 	} | ||||||
|  | 	return langext.Ptr(time.UnixMilli(*v)), nil | ||||||
|  | }) | ||||||
|  |  | ||||||
|  | type dbTypeConverterImpl[TModelData any, TDBData any] struct { | ||||||
|  | 	dbTypeString    string | ||||||
|  | 	modelTypeString string | ||||||
|  | 	todb            func(v TModelData) (TDBData, error) | ||||||
|  | 	tomodel         func(v TDBData) (TModelData, error) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (t *dbTypeConverterImpl[TModelData, TDBData]) ModelTypeString() string { | ||||||
|  | 	return t.modelTypeString | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (t *dbTypeConverterImpl[TModelData, TDBData]) DBTypeString() string { | ||||||
|  | 	return t.dbTypeString | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (t *dbTypeConverterImpl[TModelData, TDBData]) ModelToDB(v any) (any, error) { | ||||||
|  | 	if vv, ok := v.(TModelData); ok { | ||||||
|  | 		return t.todb(vv) | ||||||
|  | 	} | ||||||
|  | 	return nil, errors.New(fmt.Sprintf("Unexpected value in DBTypeConverter, expected '%s', found '%T'", t.modelTypeString, v)) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (t *dbTypeConverterImpl[TModelData, TDBData]) DBToModel(v any) (any, error) { | ||||||
|  | 	if vv, ok := v.(TDBData); ok { | ||||||
|  | 		return t.tomodel(vv) | ||||||
|  | 	} | ||||||
|  | 	return nil, errors.New(fmt.Sprintf("Unexpected value in DBTypeConverter, expected '%s', found '%T'", t.dbTypeString, v)) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func NewDBTypeConverter[TModelData any, TDBData any](todb func(v TModelData) (TDBData, error), tomodel func(v TDBData) (TModelData, error)) DBTypeConverter { | ||||||
|  | 	return &dbTypeConverterImpl[TModelData, TDBData]{ | ||||||
|  | 		dbTypeString:    fmt.Sprintf("%T", *new(TDBData)), | ||||||
|  | 		modelTypeString: fmt.Sprintf("%T", *new(TModelData)), | ||||||
|  | 		todb:            todb, | ||||||
|  | 		tomodel:         tomodel, | ||||||
|  | 	} | ||||||
|  | } | ||||||
							
								
								
									
										199
									
								
								sq/hasher.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										199
									
								
								sq/hasher.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,199 @@ | |||||||
|  | package sq | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"context" | ||||||
|  | 	"crypto/sha256" | ||||||
|  | 	"encoding/hex" | ||||||
|  | 	"encoding/json" | ||||||
|  | 	"fmt" | ||||||
|  | 	"github.com/jmoiron/sqlx" | ||||||
|  | 	"gogs.mikescher.com/BlackForestBytes/goext/langext" | ||||||
|  | 	"os" | ||||||
|  | 	"path/filepath" | ||||||
|  | 	"strings" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | func HashSqliteSchema(ctx context.Context, schemaStr string) (string, error) { | ||||||
|  | 	dbdir := os.TempDir() | ||||||
|  | 	dbfile1 := filepath.Join(dbdir, langext.MustHexUUID()+".sqlite3") | ||||||
|  |  | ||||||
|  | 	err := os.MkdirAll(dbdir, os.ModePerm) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return "", err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	url := fmt.Sprintf("file:%s?_journal=%s&_timeout=%d&_fk=%s&_busy_timeout=%d", dbfile1, "DELETE", 1000, "true", 1000) | ||||||
|  |  | ||||||
|  | 	xdb, err := sqlx.Open("sqlite3", url) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return "", err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	db := NewDB(xdb) | ||||||
|  |  | ||||||
|  | 	_, err = db.Exec(ctx, schemaStr, PP{}) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return "", err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return HashSqliteDatabase(ctx, db) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func HashSqliteDatabase(ctx context.Context, db DB) (string, error) { | ||||||
|  | 	ss, err := CreateSqliteDatabaseSchemaString(ctx, db) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return "", err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	cs := sha256.Sum256([]byte(ss)) | ||||||
|  |  | ||||||
|  | 	return hex.EncodeToString(cs[:]), nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func CreateSqliteDatabaseSchemaString(ctx context.Context, db DB) (string, error) { | ||||||
|  |  | ||||||
|  | 	type colInfo struct { | ||||||
|  | 		Name       string  `db:"name"` | ||||||
|  | 		Type       string  `db:"type"` | ||||||
|  | 		NotNull    string  `db:"notnull"` | ||||||
|  | 		Default    *string `db:"dflt_value"` | ||||||
|  | 		PrimaryKey *string `db:"pk"` | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	type idxInfo struct { | ||||||
|  | 		Name   string `json:"name"       db:"name"` | ||||||
|  | 		Unique int    `json:"unique"     db:"unique"` | ||||||
|  | 		Origin string `json:"origin"     db:"origin"` | ||||||
|  | 		Patial int    `json:"partial"    db:"partial"` | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	type fkyInfo struct { | ||||||
|  | 		TableDest string `json:"table_dest"  db:"table"` | ||||||
|  | 		From      string `json:"from"        db:"from"` | ||||||
|  | 		To        string `json:"to"          db:"to"` | ||||||
|  | 		OnUpdate  string `json:"on_update"   db:"on_update"` | ||||||
|  | 		OnDelete  string `json:"on_delete"   db:"on_delete"` | ||||||
|  | 		Match     string `json:"match"       db:"match"` | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	type tabInfo struct { | ||||||
|  | 		Name   string `json:"name"    db:"name"` | ||||||
|  | 		Type   string `json:"type"    db:"type"` | ||||||
|  | 		NumCol int    `json:"ncol"    db:"ncol"` | ||||||
|  | 		Strict int    `json:"strict"  db:"strict"` | ||||||
|  |  | ||||||
|  | 		ColumnInfo []colInfo `json:"-"` | ||||||
|  | 		IndexInfo  []idxInfo `json:"-"` | ||||||
|  | 		FKeyInfo   []fkyInfo `json:"-"` | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	rowsTableList, err := db.Query(ctx, "PRAGMA table_list;", PP{}) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return "", err | ||||||
|  | 	} | ||||||
|  | 	tableList, err := ScanAll[tabInfo](rowsTableList, SModeFast, Unsafe, true) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return "", err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	langext.SortBy(tableList, func(v tabInfo) string { return v.Name }) | ||||||
|  |  | ||||||
|  | 	result := make([]tabInfo, 0) | ||||||
|  |  | ||||||
|  | 	for i, tab := range tableList { | ||||||
|  |  | ||||||
|  | 		if strings.HasPrefix(tab.Name, "sqlite_") { | ||||||
|  | 			continue | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		{ | ||||||
|  |  | ||||||
|  | 			rowsColumnList, err := db.Query(ctx, fmt.Sprintf("PRAGMA table_info(\"%s\");", tab.Name), PP{}) | ||||||
|  | 			if err != nil { | ||||||
|  | 				return "", err | ||||||
|  | 			} | ||||||
|  |  | ||||||
|  | 			columnList, err := ScanAll[colInfo](rowsColumnList, SModeFast, Unsafe, true) | ||||||
|  | 			if err != nil { | ||||||
|  | 				return "", err | ||||||
|  | 			} | ||||||
|  |  | ||||||
|  | 			langext.SortBy(columnList, func(v colInfo) string { return v.Name }) | ||||||
|  |  | ||||||
|  | 			tableList[i].ColumnInfo = columnList | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		{ | ||||||
|  | 			rowsIdxList, err := db.Query(ctx, fmt.Sprintf("PRAGMA index_list(\"%s\");", tab.Name), PP{}) | ||||||
|  | 			if err != nil { | ||||||
|  | 				return "", err | ||||||
|  | 			} | ||||||
|  | 			idxList, err := ScanAll[idxInfo](rowsIdxList, SModeFast, Unsafe, true) | ||||||
|  | 			if err != nil { | ||||||
|  | 				return "", err | ||||||
|  | 			} | ||||||
|  |  | ||||||
|  | 			langext.SortBy(idxList, func(v idxInfo) string { return v.Name }) | ||||||
|  |  | ||||||
|  | 			tableList[i].IndexInfo = idxList | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		{ | ||||||
|  | 			rowsIdxList, err := db.Query(ctx, fmt.Sprintf("PRAGMA foreign_key_list(\"%s\");", tab.Name), PP{}) | ||||||
|  | 			if err != nil { | ||||||
|  | 				return "", err | ||||||
|  | 			} | ||||||
|  | 			fkyList, err := ScanAll[fkyInfo](rowsIdxList, SModeFast, Unsafe, true) | ||||||
|  | 			if err != nil { | ||||||
|  | 				return "", err | ||||||
|  | 			} | ||||||
|  |  | ||||||
|  | 			langext.SortBy(fkyList, func(v fkyInfo) string { return v.From }) | ||||||
|  |  | ||||||
|  | 			tableList[i].FKeyInfo = fkyList | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		result = append(result, tableList[i]) | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	strBuilderResult := "" | ||||||
|  | 	for _, vTab := range result { | ||||||
|  | 		jbinTable, err := json.Marshal(vTab) | ||||||
|  | 		if err != nil { | ||||||
|  | 			return "", err | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		strBuilderResult += fmt.Sprintf("#TABLE: %s\n{\n", string(jbinTable)) | ||||||
|  |  | ||||||
|  | 		for _, vCol := range vTab.ColumnInfo { | ||||||
|  | 			jbinColumn, err := json.Marshal(vCol) | ||||||
|  | 			if err != nil { | ||||||
|  | 				return "", err | ||||||
|  | 			} | ||||||
|  |  | ||||||
|  | 			strBuilderResult += fmt.Sprintf("    COLUMN: %s\n", string(jbinColumn)) | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		for _, vIdx := range vTab.IndexInfo { | ||||||
|  | 			jbinIndex, err := json.Marshal(vIdx) | ||||||
|  | 			if err != nil { | ||||||
|  | 				return "", err | ||||||
|  | 			} | ||||||
|  |  | ||||||
|  | 			strBuilderResult += fmt.Sprintf("    INDEX:  %s\n", string(jbinIndex)) | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		for _, vFky := range vTab.FKeyInfo { | ||||||
|  | 			jbinFKey, err := json.Marshal(vFky) | ||||||
|  | 			if err != nil { | ||||||
|  | 				return "", err | ||||||
|  | 			} | ||||||
|  |  | ||||||
|  | 			strBuilderResult += fmt.Sprintf("    FKEY:   %s\n", string(jbinFKey)) | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		strBuilderResult += "}\n\n" | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return strBuilderResult, nil | ||||||
|  | } | ||||||
| @@ -1,9 +1,13 @@ | |||||||
| package sq | package sq | ||||||
|  |  | ||||||
| import ( | import ( | ||||||
|  | 	"context" | ||||||
| 	"database/sql" | 	"database/sql" | ||||||
| 	"errors" | 	"errors" | ||||||
|  | 	"fmt" | ||||||
| 	"github.com/jmoiron/sqlx" | 	"github.com/jmoiron/sqlx" | ||||||
|  | 	"reflect" | ||||||
|  | 	"strings" | ||||||
| ) | ) | ||||||
|  |  | ||||||
| type StructScanMode string | type StructScanMode string | ||||||
| @@ -16,10 +20,79 @@ const ( | |||||||
| type StructScanSafety string | type StructScanSafety string | ||||||
|  |  | ||||||
| const ( | const ( | ||||||
| 	Safe   StructScanSafety = "SAFE" | 	Safe   StructScanSafety = "SAFE"   // return error for missing fields | ||||||
| 	Unsafe StructScanSafety = "UNSAFE" | 	Unsafe StructScanSafety = "UNSAFE" // ignore missing fields | ||||||
| ) | ) | ||||||
|  |  | ||||||
|  | func InsertSingle[TData any](ctx context.Context, q Queryable, tableName string, v TData) (sql.Result, error) { | ||||||
|  |  | ||||||
|  | 	rval := reflect.ValueOf(v) | ||||||
|  | 	rtyp := rval.Type() | ||||||
|  |  | ||||||
|  | 	columns := make([]string, 0) | ||||||
|  | 	params := make([]string, 0) | ||||||
|  | 	pp := PP{} | ||||||
|  |  | ||||||
|  | 	for i := 0; i < rtyp.NumField(); i++ { | ||||||
|  |  | ||||||
|  | 		rsfield := rtyp.Field(i) | ||||||
|  | 		rvfield := rval.Field(i) | ||||||
|  |  | ||||||
|  | 		if !rsfield.IsExported() { | ||||||
|  | 			continue | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		columnName := rsfield.Tag.Get("db") | ||||||
|  | 		if columnName == "" || columnName == "-" { | ||||||
|  | 			continue | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		paramkey := fmt.Sprintf("_%s", columnName) | ||||||
|  |  | ||||||
|  | 		columns = append(columns, "\""+columnName+"\"") | ||||||
|  | 		params = append(params, ":"+paramkey) | ||||||
|  | 		pp[paramkey] = rvfield.Interface() | ||||||
|  |  | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	sqlstr := fmt.Sprintf("INSERT"+" INTO \"%s\" (%s) VALUES (%s)", tableName, strings.Join(columns, ", "), strings.Join(params, ", ")) | ||||||
|  |  | ||||||
|  | 	sqlr, err := q.Exec(ctx, sqlstr, pp) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return nil, err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return sqlr, nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func QuerySingle[TData any](ctx context.Context, q Queryable, sql string, pp PP, mode StructScanMode, sec StructScanSafety) (TData, error) { | ||||||
|  | 	rows, err := q.Query(ctx, sql, pp) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return *new(TData), err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	data, err := ScanSingle[TData](rows, mode, sec, true) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return *new(TData), err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return data, nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func QueryAll[TData any](ctx context.Context, q Queryable, sql string, pp PP, mode StructScanMode, sec StructScanSafety) ([]TData, error) { | ||||||
|  | 	rows, err := q.Query(ctx, sql, pp) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return nil, err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	data, err := ScanAll[TData](rows, mode, sec, true) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return nil, err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return data, nil | ||||||
|  | } | ||||||
|  |  | ||||||
| func ScanSingle[TData any](rows *sqlx.Rows, mode StructScanMode, sec StructScanSafety, close bool) (TData, error) { | func ScanSingle[TData any](rows *sqlx.Rows, mode StructScanMode, sec StructScanSafety, close bool) (TData, error) { | ||||||
| 	if rows.Next() { | 	if rows.Next() { | ||||||
| 		var strscan *StructScanner | 		var strscan *StructScanner | ||||||
|   | |||||||
| @@ -2,6 +2,7 @@ package tst | |||||||
|  |  | ||||||
| import ( | import ( | ||||||
| 	"encoding/hex" | 	"encoding/hex" | ||||||
|  | 	"runtime/debug" | ||||||
| 	"testing" | 	"testing" | ||||||
| ) | ) | ||||||
|  |  | ||||||
| @@ -54,12 +55,18 @@ func AssertHexEqual(t *testing.T, expected string, actual []byte) { | |||||||
|  |  | ||||||
| func AssertTrue(t *testing.T, value bool) { | func AssertTrue(t *testing.T, value bool) { | ||||||
| 	if !value { | 	if !value { | ||||||
| 		t.Error("value should be true") | 		t.Error("value should be true\n" + string(debug.Stack())) | ||||||
| 	} | 	} | ||||||
| } | } | ||||||
|  |  | ||||||
| func AssertFalse(t *testing.T, value bool) { | func AssertFalse(t *testing.T, value bool) { | ||||||
| 	if value { | 	if value { | ||||||
| 		t.Error("value should be false") | 		t.Error("value should be false\n" + string(debug.Stack())) | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func AssertNoErr(t *testing.T, anerr error) { | ||||||
|  | 	if anerr != nil { | ||||||
|  | 		t.Error("Function returned an error: " + anerr.Error() + "\n" + string(debug.Stack())) | ||||||
| 	} | 	} | ||||||
| } | } | ||||||
|   | |||||||
							
								
								
									
										95
									
								
								wmo/collection.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										95
									
								
								wmo/collection.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,95 @@ | |||||||
|  | package wmo | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"context" | ||||||
|  | 	"go.mongodb.org/mongo-driver/bson/bsontype" | ||||||
|  | 	"go.mongodb.org/mongo-driver/mongo" | ||||||
|  | 	ct "gogs.mikescher.com/BlackForestBytes/goext/cursortoken" | ||||||
|  | 	"gogs.mikescher.com/BlackForestBytes/goext/langext" | ||||||
|  | 	"reflect" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | type EntityID interface { | ||||||
|  | 	MarshalBSONValue() (bsontype.Type, []byte, error) | ||||||
|  | 	String() string | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type Decodable interface { | ||||||
|  | 	Decode(v any) error | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type Cursorable interface { | ||||||
|  | 	Decode(v any) error | ||||||
|  | 	Err() error | ||||||
|  | 	Close(ctx context.Context) error | ||||||
|  | 	All(ctx context.Context, results any) error | ||||||
|  | 	RemainingBatchLength() int | ||||||
|  | 	Next(ctx context.Context) bool | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type fullTypeRef struct { | ||||||
|  | 	IsPointer      bool | ||||||
|  | 	Kind           reflect.Kind | ||||||
|  | 	RealType       reflect.Type | ||||||
|  | 	Type           reflect.Type | ||||||
|  | 	UnderlyingType reflect.Type | ||||||
|  | 	Name           string | ||||||
|  | 	Index          []int | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type Coll[TData any] struct { | ||||||
|  | 	coll                *mongo.Collection                                        // internal mongo collection, access via Collection() | ||||||
|  | 	dataTypeMap         map[string]fullTypeRef                                   // list of TData fields (only if TData is not an interface) | ||||||
|  | 	implDataTypeMap     map[reflect.Type]map[string]fullTypeRef                  // dynamic list of fields of TData implementations (only if TData is an interface) | ||||||
|  | 	customDecoder       *func(ctx context.Context, dec Decodable) (TData, error) // custom decoding function (useful if TData is an interface) | ||||||
|  | 	isInterfaceDataType bool                                                     // true if TData is an interface (not a struct) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (c *Coll[TData]) Collection() *mongo.Collection { | ||||||
|  | 	return c.coll | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (c *Coll[TData]) Name() string { | ||||||
|  | 	return c.coll.Name() | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (c *Coll[TData]) WithDecodeFunc(cdf func(ctx context.Context, dec Decodable) (TData, error), example TData) *Coll[TData] { | ||||||
|  |  | ||||||
|  | 	c.EnsureInitializedReflection(example) | ||||||
|  |  | ||||||
|  | 	c.customDecoder = langext.Ptr(cdf) | ||||||
|  | 	return c | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (c *Coll[TData]) Indexes() mongo.IndexView { | ||||||
|  | 	return c.coll.Indexes() | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (c *Coll[TData]) Drop(ctx context.Context) error { | ||||||
|  | 	return c.coll.Drop(ctx) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (c *Coll[TData]) createToken(fieldPrimary string, dirPrimary ct.SortDirection, fieldSecondary *string, dirSecondary *ct.SortDirection, lastEntity TData, pageSize *int) (ct.CursorToken, error) { | ||||||
|  |  | ||||||
|  | 	valuePrimary, err := c.getFieldValueAsTokenString(lastEntity, fieldPrimary) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return ct.CursorToken{}, err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	valueSeconary := "" | ||||||
|  | 	if fieldSecondary != nil && dirSecondary != nil { | ||||||
|  | 		valueSeconary, err = c.getFieldValueAsTokenString(lastEntity, *fieldSecondary) | ||||||
|  | 		if err != nil { | ||||||
|  | 			return ct.CursorToken{}, err | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return ct.CursorToken{ | ||||||
|  | 		Mode:           ct.CTMNormal, | ||||||
|  | 		ValuePrimary:   valuePrimary, | ||||||
|  | 		ValueSecondary: valueSeconary, | ||||||
|  | 		Direction:      dirPrimary, | ||||||
|  | 		PageSize:       langext.Coalesce(pageSize, 0), | ||||||
|  | 		Extra:          ct.Extra{}, | ||||||
|  | 	}, nil | ||||||
|  | } | ||||||
							
								
								
									
										54
									
								
								wmo/decoding.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										54
									
								
								wmo/decoding.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,54 @@ | |||||||
|  | package wmo | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"context" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | func (c *Coll[TData]) decodeSingle(ctx context.Context, dec Decodable) (TData, error) { | ||||||
|  | 	if c.customDecoder != nil { | ||||||
|  |  | ||||||
|  | 		return (*c.customDecoder)(ctx, dec) | ||||||
|  |  | ||||||
|  | 	} else { | ||||||
|  |  | ||||||
|  | 		var res TData | ||||||
|  |  | ||||||
|  | 		err := dec.Decode(&res) | ||||||
|  | 		if err != nil { | ||||||
|  | 			return *new(TData), err | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		return res, nil | ||||||
|  |  | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (c *Coll[TData]) decodeAll(ctx context.Context, cursor Cursorable) ([]TData, error) { | ||||||
|  | 	if c.customDecoder != nil { | ||||||
|  |  | ||||||
|  | 		res := make([]TData, 0, cursor.RemainingBatchLength()) | ||||||
|  |  | ||||||
|  | 		for cursor.Next(ctx) { | ||||||
|  | 			entry, err := (*c.customDecoder)(ctx, cursor) | ||||||
|  | 			if err != nil { | ||||||
|  | 				return nil, err | ||||||
|  | 			} | ||||||
|  | 			res = append(res, entry) | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		return res, nil | ||||||
|  |  | ||||||
|  | 	} else { | ||||||
|  |  | ||||||
|  | 		res := make([]TData, 0, cursor.RemainingBatchLength()) | ||||||
|  |  | ||||||
|  | 		err := cursor.All(ctx, &res) | ||||||
|  | 		if err != nil { | ||||||
|  | 			return nil, err | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		return res, nil | ||||||
|  |  | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | } | ||||||
							
								
								
									
										11
									
								
								wmo/mongo.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										11
									
								
								wmo/mongo.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,11 @@ | |||||||
|  | package wmo | ||||||
|  |  | ||||||
|  | import "go.mongodb.org/mongo-driver/mongo" | ||||||
|  |  | ||||||
|  | func W[TData any](collection *mongo.Collection) *Coll[TData] { | ||||||
|  | 	c := Coll[TData]{coll: collection} | ||||||
|  |  | ||||||
|  | 	c.init() | ||||||
|  |  | ||||||
|  | 	return &c | ||||||
|  | } | ||||||
							
								
								
									
										87
									
								
								wmo/pagination.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										87
									
								
								wmo/pagination.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,87 @@ | |||||||
|  | package wmo | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"errors" | ||||||
|  | 	"go.mongodb.org/mongo-driver/bson" | ||||||
|  | 	ct "gogs.mikescher.com/BlackForestBytes/goext/cursortoken" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | func CreatePagination[TData any](coll *Coll[TData], token ct.CursorToken, fieldPrimary string, sortPrimary ct.SortDirection, fieldSecondary *string, sortSecondary *ct.SortDirection, pageSize *int) ([]bson.D, error) { | ||||||
|  |  | ||||||
|  | 	cond := bson.A{} | ||||||
|  | 	sort := bson.D{} | ||||||
|  |  | ||||||
|  | 	valuePrimary, err := coll.getTokenValueAsMongoType(token.ValuePrimary, fieldPrimary) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return nil, err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	if sortPrimary == ct.SortASC { | ||||||
|  | 		// We sort ASC on <field> - so we want all entries newer ($gt) than the $primary | ||||||
|  | 		cond = append(cond, bson.M{fieldPrimary: bson.M{"$gt": valuePrimary}}) | ||||||
|  | 		sort = append(sort, bson.E{Key: fieldPrimary, Value: +1}) | ||||||
|  | 	} else if sortPrimary == ct.SortDESC { | ||||||
|  | 		// We sort DESC on <field> - so we want all entries older ($lt) than the $primary | ||||||
|  | 		cond = append(cond, bson.M{fieldPrimary: bson.M{"$lt": valuePrimary}}) | ||||||
|  | 		sort = append(sort, bson.E{Key: fieldPrimary, Value: -1}) | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	if fieldSecondary != nil && sortSecondary != nil && *fieldSecondary != fieldPrimary { | ||||||
|  |  | ||||||
|  | 		valueSecondary, err := coll.getTokenValueAsMongoType(token.ValueSecondary, *fieldSecondary) | ||||||
|  | 		if err != nil { | ||||||
|  | 			return nil, err | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		if *sortSecondary == ct.SortASC { | ||||||
|  |  | ||||||
|  | 			// the conflict-resolution condition, for entries with the _same_ <field> as the $primary we take the ones with a greater $secondary (= newer) | ||||||
|  | 			cond = append(cond, bson.M{"$and": bson.A{ | ||||||
|  | 				bson.M{fieldPrimary: valuePrimary}, | ||||||
|  | 				bson.M{*fieldSecondary: bson.M{"$gt": valueSecondary}}, | ||||||
|  | 			}}) | ||||||
|  |  | ||||||
|  | 			sort = append(sort, bson.E{Key: fieldPrimary, Value: +1}) | ||||||
|  |  | ||||||
|  | 		} else if *sortSecondary == ct.SortDESC { | ||||||
|  |  | ||||||
|  | 			// the conflict-resolution condition, for entries with the _same_ <field> as the $primary we take the ones with a smaller $secondary (= older) | ||||||
|  | 			cond = append(cond, bson.M{"$and": bson.A{ | ||||||
|  | 				bson.M{fieldPrimary: valuePrimary}, | ||||||
|  | 				bson.M{*fieldSecondary: bson.M{"$lt": valueSecondary}}, | ||||||
|  | 			}}) | ||||||
|  |  | ||||||
|  | 			sort = append(sort, bson.E{Key: fieldPrimary, Value: -1}) | ||||||
|  |  | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	pipeline := make([]bson.D, 0, 3) | ||||||
|  |  | ||||||
|  | 	if token.Mode == ct.CTMStart { | ||||||
|  |  | ||||||
|  | 		// no gt/lt condition | ||||||
|  |  | ||||||
|  | 	} else if token.Mode == ct.CTMNormal { | ||||||
|  |  | ||||||
|  | 		pipeline = append(pipeline, bson.D{{Key: "$match", Value: bson.M{"$or": cond}}}) | ||||||
|  |  | ||||||
|  | 	} else if token.Mode == ct.CTMEnd { | ||||||
|  |  | ||||||
|  | 		// false | ||||||
|  | 		pipeline = append(pipeline, bson.D{{Key: "$match", Value: bson.M{"$expr": bson.M{"$eq": bson.A{"1", "0"}}}}}) | ||||||
|  |  | ||||||
|  | 	} else { | ||||||
|  |  | ||||||
|  | 		return nil, errors.New("unknown ct mode: " + string(token.Mode)) | ||||||
|  |  | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	pipeline = append(pipeline, bson.D{{Key: "$sort", Value: sort}}) | ||||||
|  |  | ||||||
|  | 	if pageSize != nil { | ||||||
|  | 		pipeline = append(pipeline, bson.D{{Key: "$limit", Value: int64(*pageSize + 1)}}) | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return pipeline, nil | ||||||
|  | } | ||||||
							
								
								
									
										56
									
								
								wmo/queryAggregate.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										56
									
								
								wmo/queryAggregate.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,56 @@ | |||||||
|  | package wmo | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"context" | ||||||
|  | 	"errors" | ||||||
|  | 	"go.mongodb.org/mongo-driver/mongo" | ||||||
|  | 	"go.mongodb.org/mongo-driver/mongo/options" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | func (c *Coll[TData]) Aggregate(ctx context.Context, pipeline mongo.Pipeline, opts ...*options.AggregateOptions) ([]TData, error) { | ||||||
|  | 	cursor, err := c.coll.Aggregate(ctx, pipeline, opts...) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return nil, err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	res, err := c.decodeAll(ctx, cursor) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return nil, err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return res, nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (c *Coll[TData]) AggregateOneOpt(ctx context.Context, pipeline mongo.Pipeline, opts ...*options.AggregateOptions) (*TData, error) { | ||||||
|  | 	cursor, err := c.coll.Aggregate(ctx, pipeline, opts...) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return nil, err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	if cursor.Next(ctx) { | ||||||
|  | 		v, err := c.decodeSingle(ctx, cursor) | ||||||
|  | 		if err != nil { | ||||||
|  | 			return nil, err | ||||||
|  | 		} | ||||||
|  | 		return &v, nil | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return nil, nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (c *Coll[TData]) AggregateOne(ctx context.Context, pipeline mongo.Pipeline, opts ...*options.AggregateOptions) (TData, error) { | ||||||
|  | 	cursor, err := c.coll.Aggregate(ctx, pipeline, opts...) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return *new(TData), err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	if cursor.Next(ctx) { | ||||||
|  | 		v, err := c.decodeSingle(ctx, cursor) | ||||||
|  | 		if err != nil { | ||||||
|  | 			return *new(TData), err | ||||||
|  | 		} | ||||||
|  | 		return v, nil | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return *new(TData), errors.New("no document in result") | ||||||
|  | } | ||||||
							
								
								
									
										34
									
								
								wmo/queryDelete.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										34
									
								
								wmo/queryDelete.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,34 @@ | |||||||
|  | package wmo | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"context" | ||||||
|  | 	"go.mongodb.org/mongo-driver/bson" | ||||||
|  | 	"go.mongodb.org/mongo-driver/mongo" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | func (c *Coll[TData]) DeleteOneByID(ctx context.Context, id EntityID) error { | ||||||
|  | 	_, err := c.coll.DeleteOne(ctx, bson.M{"_id": id}) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (c *Coll[TData]) DeleteOne(ctx context.Context, filterQuery bson.M) error { | ||||||
|  | 	_, err := c.coll.DeleteOne(ctx, filterQuery) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (c *Coll[TData]) DeleteMany(ctx context.Context, filterQuery bson.M) (*mongo.DeleteResult, error) { | ||||||
|  | 	res, err := c.coll.DeleteMany(ctx, filterQuery) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return nil, err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return res, nil | ||||||
|  | } | ||||||
							
								
								
									
										62
									
								
								wmo/queryFind.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										62
									
								
								wmo/queryFind.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,62 @@ | |||||||
|  | package wmo | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"context" | ||||||
|  | 	"go.mongodb.org/mongo-driver/bson" | ||||||
|  | 	"go.mongodb.org/mongo-driver/mongo" | ||||||
|  | 	"go.mongodb.org/mongo-driver/mongo/options" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | func (c *Coll[TData]) FindOne(ctx context.Context, filter bson.M) (TData, error) { | ||||||
|  | 	mongoRes := c.coll.FindOne(ctx, filter) | ||||||
|  |  | ||||||
|  | 	return c.decodeSingle(ctx, mongoRes) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (c *Coll[TData]) FindOneOpt(ctx context.Context, filter bson.M) (*TData, error) { | ||||||
|  | 	mongoRes := c.coll.FindOne(ctx, filter) | ||||||
|  |  | ||||||
|  | 	res, err := c.decodeSingle(ctx, mongoRes) | ||||||
|  | 	if err == mongo.ErrNoDocuments { | ||||||
|  | 		return nil, nil | ||||||
|  | 	} | ||||||
|  | 	if err != nil { | ||||||
|  | 		return nil, err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return &res, nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (c *Coll[TData]) FindOneByID(ctx context.Context, id EntityID) (TData, error) { | ||||||
|  | 	mongoRes := c.coll.FindOne(ctx, bson.M{"_id": id}) | ||||||
|  |  | ||||||
|  | 	return c.decodeSingle(ctx, mongoRes) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (c *Coll[TData]) FindOneOptByID(ctx context.Context, id EntityID) (*TData, error) { | ||||||
|  | 	mongoRes := c.coll.FindOne(ctx, bson.M{"_id": id}) | ||||||
|  |  | ||||||
|  | 	res, err := c.decodeSingle(ctx, mongoRes) | ||||||
|  | 	if err == mongo.ErrNoDocuments { | ||||||
|  | 		return nil, nil | ||||||
|  | 	} | ||||||
|  | 	if err != nil { | ||||||
|  | 		return nil, err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return &res, nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (c *Coll[TData]) Find(ctx context.Context, filter bson.M, opts ...*options.FindOptions) ([]TData, error) { | ||||||
|  | 	cursor, err := c.coll.Find(ctx, filter, opts...) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return nil, err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	res, err := c.decodeAll(ctx, cursor) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return nil, err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return res, nil | ||||||
|  | } | ||||||
							
								
								
									
										17
									
								
								wmo/queryInsert.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										17
									
								
								wmo/queryInsert.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,17 @@ | |||||||
|  | package wmo | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"context" | ||||||
|  | 	"go.mongodb.org/mongo-driver/bson" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | func (c *Coll[TData]) InsertOne(ctx context.Context, valueIn TData) (TData, error) { | ||||||
|  | 	insRes, err := c.coll.InsertOne(ctx, valueIn) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return *new(TData), err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	mongoRes := c.coll.FindOne(ctx, bson.M{"_id": insRes.InsertedID}) | ||||||
|  |  | ||||||
|  | 	return c.decodeSingle(ctx, mongoRes) | ||||||
|  | } | ||||||
							
								
								
									
										107
									
								
								wmo/queryList.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										107
									
								
								wmo/queryList.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,107 @@ | |||||||
|  | package wmo | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"context" | ||||||
|  | 	"go.mongodb.org/mongo-driver/bson" | ||||||
|  | 	"go.mongodb.org/mongo-driver/mongo" | ||||||
|  | 	ct "gogs.mikescher.com/BlackForestBytes/goext/cursortoken" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | func (c *Coll[TData]) List(ctx context.Context, filter ct.Filter, pageSize *int, inTok ct.CursorToken) ([]TData, ct.CursorToken, error) { | ||||||
|  | 	if inTok.Mode == ct.CTMEnd { | ||||||
|  | 		return make([]TData, 0), ct.End(), nil | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	pipeline := mongo.Pipeline{} | ||||||
|  | 	pf1 := "_id" | ||||||
|  | 	pd1 := ct.SortASC | ||||||
|  | 	pf2 := "_id" | ||||||
|  | 	pd2 := ct.SortASC | ||||||
|  |  | ||||||
|  | 	if filter != nil { | ||||||
|  | 		pipeline = filter.FilterQuery() | ||||||
|  | 		pf1, pd1, pf2, pd2 = filter.Pagination() | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	sortPrimary := pf1 | ||||||
|  | 	sortDirPrimary := pd1 | ||||||
|  | 	sortSecondary := &pf2 | ||||||
|  | 	sortDirSecondary := &pd2 | ||||||
|  |  | ||||||
|  | 	if pf1 == pf2 { | ||||||
|  | 		sortSecondary = nil | ||||||
|  | 		sortDirSecondary = nil | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	paginationPipeline, err := CreatePagination(c, inTok, sortPrimary, sortDirPrimary, sortSecondary, sortDirSecondary, pageSize) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return nil, ct.CursorToken{}, err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	pipeline = append(pipeline, paginationPipeline...) | ||||||
|  |  | ||||||
|  | 	cursor, err := c.coll.Aggregate(ctx, pipeline) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return nil, ct.CursorToken{}, err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	// fast branch | ||||||
|  | 	if pageSize == nil { | ||||||
|  | 		entries, err := c.decodeAll(ctx, cursor) | ||||||
|  | 		if err != nil { | ||||||
|  | 			return nil, ct.CursorToken{}, err | ||||||
|  | 		} | ||||||
|  | 		return entries, ct.End(), nil | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	entities := make([]TData, 0, cursor.RemainingBatchLength()) | ||||||
|  | 	for (pageSize == nil || len(entities) != *pageSize) && cursor.Next(ctx) { | ||||||
|  | 		var entry TData | ||||||
|  | 		entry, err = c.decodeSingle(ctx, cursor) | ||||||
|  | 		if err != nil { | ||||||
|  | 			return nil, ct.CursorToken{}, err | ||||||
|  | 		} | ||||||
|  | 		entities = append(entities, entry) | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	if pageSize == nil || len(entities) < *pageSize || !cursor.TryNext(ctx) { | ||||||
|  | 		return entities, ct.End(), nil | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	last := entities[len(entities)-1] | ||||||
|  |  | ||||||
|  | 	c.EnsureInitializedReflection(last) | ||||||
|  |  | ||||||
|  | 	nextToken, err := c.createToken(sortPrimary, sortDirPrimary, sortSecondary, sortDirSecondary, last, pageSize) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return nil, ct.CursorToken{}, err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return entities, nextToken, nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type countRes struct { | ||||||
|  | 	Count int64 `bson:"c"` | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (c *Coll[TData]) Count(ctx context.Context, filter ct.Filter) (int64, error) { | ||||||
|  | 	pipeline := filter.FilterQuery() | ||||||
|  |  | ||||||
|  | 	pipeline = append(pipeline, bson.D{{Key: "$count", Value: "c"}}) | ||||||
|  |  | ||||||
|  | 	cursor, err := c.coll.Aggregate(ctx, pipeline) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return 0, err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	if cursor.Next(ctx) { | ||||||
|  | 		v := countRes{} | ||||||
|  | 		err = cursor.Decode(&v) | ||||||
|  | 		if err != nil { | ||||||
|  | 			return 0, err | ||||||
|  | 		} | ||||||
|  | 		return v.Count, nil | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return 0, nil | ||||||
|  | } | ||||||
							
								
								
									
										56
									
								
								wmo/queryUpdate.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										56
									
								
								wmo/queryUpdate.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,56 @@ | |||||||
|  | package wmo | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"context" | ||||||
|  | 	"go.mongodb.org/mongo-driver/bson" | ||||||
|  | 	"go.mongodb.org/mongo-driver/mongo" | ||||||
|  | 	"go.mongodb.org/mongo-driver/mongo/options" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | func (c *Coll[TData]) FindOneAndUpdate(ctx context.Context, filterQuery bson.M, updateQuery bson.M) (TData, error) { | ||||||
|  | 	mongoRes := c.coll.FindOneAndUpdate(ctx, filterQuery, updateQuery, options.FindOneAndUpdate().SetReturnDocument(options.After)) | ||||||
|  |  | ||||||
|  | 	return c.decodeSingle(ctx, mongoRes) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (c *Coll[TData]) UpdateOne(ctx context.Context, filterQuery bson.M, updateQuery bson.M) error { | ||||||
|  | 	_, err := c.coll.UpdateOne(ctx, filterQuery, updateQuery) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (c *Coll[TData]) UpdateOneByID(ctx context.Context, id EntityID, updateQuery bson.M) error { | ||||||
|  | 	_, err := c.coll.UpdateOne(ctx, bson.M{"_id": id}, updateQuery) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (c *Coll[TData]) UpdateMany(ctx context.Context, filterQuery bson.M, updateQuery bson.M) (*mongo.UpdateResult, error) { | ||||||
|  | 	res, err := c.coll.UpdateMany(ctx, filterQuery, updateQuery) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return nil, err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return res, nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (c *Coll[TData]) ReplaceOne(ctx context.Context, filterQuery bson.M, value TData) error { | ||||||
|  | 	_, err := c.coll.UpdateOne(ctx, filterQuery, bson.M{"$set": value}) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	return nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (c *Coll[TData]) FindOneAndReplace(ctx context.Context, filterQuery bson.M, value TData) (TData, error) { | ||||||
|  | 	mongoRes := c.coll.FindOneAndUpdate(ctx, filterQuery, bson.M{"$set": value}, options.FindOneAndUpdate().SetReturnDocument(options.After)) | ||||||
|  |  | ||||||
|  | 	return c.decodeSingle(ctx, mongoRes) | ||||||
|  | } | ||||||
							
								
								
									
										215
									
								
								wmo/reflection.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										215
									
								
								wmo/reflection.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,215 @@ | |||||||
|  | package wmo | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"errors" | ||||||
|  | 	"gogs.mikescher.com/BlackForestBytes/goext/langext" | ||||||
|  | 	"gogs.mikescher.com/BlackForestBytes/goext/reflectext" | ||||||
|  | 	"reflect" | ||||||
|  | 	"strings" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | func (c *Coll[TData]) EnsureInitializedReflection(v TData) { | ||||||
|  |  | ||||||
|  | 	if !c.isInterfaceDataType { | ||||||
|  | 		return // only dynamically load dataTypeMap on interface TData | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	rval := reflect.ValueOf(v) | ||||||
|  | 	for rval.Type().Kind() == reflect.Pointer { | ||||||
|  | 		rval = rval.Elem() | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	if _, ok := c.implDataTypeMap[rval.Type()]; ok { | ||||||
|  | 		return // already loaded | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	m := make(map[string]fullTypeRef) | ||||||
|  |  | ||||||
|  | 	c.initFields("", rval, m, make([]int, 0)) | ||||||
|  |  | ||||||
|  | 	c.implDataTypeMap[rval.Type()] = m | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (c *Coll[TData]) init() { | ||||||
|  |  | ||||||
|  | 	example := *new(TData) | ||||||
|  |  | ||||||
|  | 	datatype := reflect.TypeOf(&example).Elem() | ||||||
|  |  | ||||||
|  | 	if datatype.Kind() == reflect.Interface { | ||||||
|  |  | ||||||
|  | 		c.isInterfaceDataType = true | ||||||
|  |  | ||||||
|  | 		c.dataTypeMap = make(map[string]fullTypeRef) | ||||||
|  | 		c.implDataTypeMap = make(map[reflect.Type]map[string]fullTypeRef) | ||||||
|  | 	} else { | ||||||
|  |  | ||||||
|  | 		c.isInterfaceDataType = false | ||||||
|  |  | ||||||
|  | 		c.dataTypeMap = make(map[string]fullTypeRef) | ||||||
|  | 		c.implDataTypeMap = make(map[reflect.Type]map[string]fullTypeRef) | ||||||
|  |  | ||||||
|  | 		v := reflect.ValueOf(example) | ||||||
|  | 		c.initFields("", v, c.dataTypeMap, make([]int, 0)) | ||||||
|  |  | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (c *Coll[TData]) initFields(prefix string, rval reflect.Value, m map[string]fullTypeRef, idxarr []int) { | ||||||
|  |  | ||||||
|  | 	rtyp := rval.Type() | ||||||
|  |  | ||||||
|  | 	for i := 0; i < rtyp.NumField(); i++ { | ||||||
|  |  | ||||||
|  | 		rsfield := rtyp.Field(i) | ||||||
|  | 		rvfield := rval.Field(i) | ||||||
|  |  | ||||||
|  | 		if !rsfield.IsExported() { | ||||||
|  | 			continue | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		bsontags := make([]string, 0) | ||||||
|  | 		bsonkey, found := rsfield.Tag.Lookup("bson") | ||||||
|  | 		if !found { | ||||||
|  | 			continue | ||||||
|  | 		} | ||||||
|  | 		if strings.Contains(bsonkey, ",") { | ||||||
|  | 			bsontags = strings.Split(bsonkey[strings.Index(bsonkey, ",")+1:], ",") | ||||||
|  | 			bsonkey = bsonkey[:strings.Index(bsonkey, ",")] | ||||||
|  | 		} | ||||||
|  | 		if bsonkey == "-" { | ||||||
|  | 			continue | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		if bsonkey == "" { | ||||||
|  | 			bsonkey = rsfield.Name | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		fullKey := prefix + bsonkey | ||||||
|  |  | ||||||
|  | 		newIdxArr := langext.ArrCopy(idxarr) | ||||||
|  | 		newIdxArr = append(newIdxArr, i) | ||||||
|  |  | ||||||
|  | 		if langext.InArray("inline", bsontags) && rvfield.Kind() == reflect.Struct { | ||||||
|  |  | ||||||
|  | 			// pass-through field | ||||||
|  | 			c.initFields(prefix, rvfield, m, newIdxArr) | ||||||
|  |  | ||||||
|  | 		} else { | ||||||
|  |  | ||||||
|  | 			if rvfield.Type().Kind() == reflect.Pointer { | ||||||
|  |  | ||||||
|  | 				m[fullKey] = fullTypeRef{ | ||||||
|  | 					IsPointer:      true, | ||||||
|  | 					RealType:       rvfield.Type(), | ||||||
|  | 					Kind:           rvfield.Type().Elem().Kind(), | ||||||
|  | 					Type:           rvfield.Type().Elem(), | ||||||
|  | 					UnderlyingType: reflectext.Underlying(rvfield.Type().Elem()), | ||||||
|  | 					Name:           rsfield.Name, | ||||||
|  | 					Index:          newIdxArr, | ||||||
|  | 				} | ||||||
|  |  | ||||||
|  | 			} else { | ||||||
|  |  | ||||||
|  | 				m[fullKey] = fullTypeRef{ | ||||||
|  | 					IsPointer:      false, | ||||||
|  | 					RealType:       rvfield.Type(), | ||||||
|  | 					Kind:           rvfield.Type().Kind(), | ||||||
|  | 					Type:           rvfield.Type(), | ||||||
|  | 					UnderlyingType: reflectext.Underlying(rvfield.Type()), | ||||||
|  | 					Name:           rsfield.Name, | ||||||
|  | 					Index:          newIdxArr, | ||||||
|  | 				} | ||||||
|  |  | ||||||
|  | 			} | ||||||
|  |  | ||||||
|  | 			if rvfield.Kind() == reflect.Struct { | ||||||
|  | 				c.initFields(fullKey+".", rvfield, m, newIdxArr) | ||||||
|  | 			} | ||||||
|  |  | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (c *Coll[TData]) getTokenValueAsMongoType(value string, fieldName string) (any, error) { | ||||||
|  |  | ||||||
|  | 	fref, err := c.getFieldType(fieldName) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return nil, err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	pss := reflectext.PrimitiveStringSerializer{} | ||||||
|  |  | ||||||
|  | 	return pss.ValueFromString(value, fref.RealType) | ||||||
|  |  | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (c *Coll[TData]) getFieldValueAsTokenString(entity TData, fieldName string) (string, error) { | ||||||
|  |  | ||||||
|  | 	realValue, err := c.getFieldValue(entity, fieldName) | ||||||
|  | 	if err != nil { | ||||||
|  | 		return "", err | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	pss := reflectext.PrimitiveStringSerializer{} | ||||||
|  |  | ||||||
|  | 	return pss.ValueToString(realValue) | ||||||
|  |  | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (c *Coll[TData]) getFieldType(fieldName string) (fullTypeRef, error) { | ||||||
|  | 	if c.isInterfaceDataType { | ||||||
|  |  | ||||||
|  | 		for _, m := range c.implDataTypeMap { | ||||||
|  | 			if r, ok := m[fieldName]; ok { | ||||||
|  | 				return r, nil | ||||||
|  | 			} | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		return fullTypeRef{}, errors.New("unknown field: '" + fieldName + "' (in any impl)") | ||||||
|  |  | ||||||
|  | 	} else { | ||||||
|  |  | ||||||
|  | 		if r, ok := c.dataTypeMap[fieldName]; ok { | ||||||
|  | 			return r, nil | ||||||
|  | 		} else { | ||||||
|  | 			return fullTypeRef{}, errors.New("unknown field: '" + fieldName + "'") | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func (c *Coll[TData]) getFieldValue(data TData, fieldName string) (any, error) { | ||||||
|  | 	if c.isInterfaceDataType { | ||||||
|  |  | ||||||
|  | 		rval := reflect.ValueOf(data) | ||||||
|  | 		for rval.Type().Kind() == reflect.Pointer { | ||||||
|  | 			rval = rval.Elem() | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		if m, ok := c.implDataTypeMap[rval.Type()]; ok { | ||||||
|  | 			if fref, ok := m[fieldName]; ok { | ||||||
|  | 				rval := reflect.ValueOf(data) | ||||||
|  | 				return rval.FieldByIndex(fref.Index).Interface(), nil | ||||||
|  | 			} else { | ||||||
|  | 				return nil, errors.New("unknown bson field '" + fieldName + "' in type '" + rval.Type().String() + "'") | ||||||
|  | 			} | ||||||
|  | 		} else { | ||||||
|  | 			return nil, errors.New("unknown TData type: '" + rval.Type().String() + "'") | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 	} else { | ||||||
|  |  | ||||||
|  | 		if fref, ok := c.dataTypeMap[fieldName]; ok { | ||||||
|  | 			rval := reflect.ValueOf(data) | ||||||
|  | 			return rval.FieldByIndex(fref.Index).Interface(), nil | ||||||
|  | 		} else { | ||||||
|  | 			return nil, errors.New("unknown bson field '" + fieldName + "'") | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 	} | ||||||
|  | } | ||||||
							
								
								
									
										226
									
								
								wmo/reflection_test.go
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										226
									
								
								wmo/reflection_test.go
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,226 @@ | |||||||
|  | package wmo | ||||||
|  |  | ||||||
|  | import ( | ||||||
|  | 	"context" | ||||||
|  | 	"go.mongodb.org/mongo-driver/bson/primitive" | ||||||
|  | 	"go.mongodb.org/mongo-driver/mongo" | ||||||
|  | 	"gogs.mikescher.com/BlackForestBytes/goext/langext" | ||||||
|  | 	"gogs.mikescher.com/BlackForestBytes/goext/rfctime" | ||||||
|  | 	"gogs.mikescher.com/BlackForestBytes/goext/timeext" | ||||||
|  | 	"gogs.mikescher.com/BlackForestBytes/goext/tst" | ||||||
|  | 	"reflect" | ||||||
|  | 	"testing" | ||||||
|  | 	"time" | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | func TestReflectionGetFieldType(t *testing.T) { | ||||||
|  |  | ||||||
|  | 	type IDType string | ||||||
|  |  | ||||||
|  | 	type TestData struct { | ||||||
|  | 		ID    IDType    `bson:"_id"` | ||||||
|  | 		CDate time.Time `bson:"cdate"` | ||||||
|  | 		Sub   struct { | ||||||
|  | 			A string `bson:"a"` | ||||||
|  | 		} `bson:"sub"` | ||||||
|  | 		Str   string                  `bson:"str"` | ||||||
|  | 		Ptr   *int                    `bson:"ptr"` | ||||||
|  | 		MDate rfctime.RFC3339NanoTime `bson:"mdate"` | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	coll := W[TestData](&mongo.Collection{}) | ||||||
|  |  | ||||||
|  | 	coll.init() | ||||||
|  |  | ||||||
|  | 	t0 := time.Now() | ||||||
|  | 	t1 := rfctime.NewRFC3339Nano(t0) | ||||||
|  |  | ||||||
|  | 	d := TestData{ | ||||||
|  | 		ID:    "1", | ||||||
|  | 		CDate: t0, | ||||||
|  | 		Sub: struct { | ||||||
|  | 			A string `bson:"a"` | ||||||
|  | 		}{ | ||||||
|  | 			A: "2", | ||||||
|  | 		}, | ||||||
|  | 		Str:   "3", | ||||||
|  | 		Ptr:   langext.Ptr(4), | ||||||
|  | 		MDate: t1, | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	gft := func(k string) fullTypeRef { | ||||||
|  | 		v, err := coll.getFieldType(k) | ||||||
|  | 		if err != nil { | ||||||
|  | 			t.Errorf("%s: %v", "failed to getFieldType", err) | ||||||
|  | 		} | ||||||
|  | 		return v | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	gfv := func(k string) any { | ||||||
|  | 		v, err := coll.getFieldValue(d, k) | ||||||
|  | 		if err != nil { | ||||||
|  | 			t.Errorf("%s: %v", "failed to getFieldType", err) | ||||||
|  | 		} | ||||||
|  | 		return v | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	tst.AssertEqual(t, gft("_id").Kind.String(), "string") | ||||||
|  | 	tst.AssertEqual(t, gft("_id").Type.String(), "wmo.IDType") | ||||||
|  | 	tst.AssertEqual(t, gft("_id").Name, "ID") | ||||||
|  | 	tst.AssertEqual(t, gft("_id").IsPointer, false) | ||||||
|  | 	tst.AssertEqual(t, gfv("_id").(IDType), "1") | ||||||
|  |  | ||||||
|  | 	tst.AssertEqual(t, gft("cdate").Kind.String(), "struct") | ||||||
|  | 	tst.AssertEqual(t, gft("cdate").Type.String(), "time.Time") | ||||||
|  | 	tst.AssertEqual(t, gft("cdate").Name, "CDate") | ||||||
|  | 	tst.AssertEqual(t, gft("cdate").IsPointer, false) | ||||||
|  | 	tst.AssertEqual(t, gfv("cdate").(time.Time), t0) | ||||||
|  |  | ||||||
|  | 	tst.AssertEqual(t, gft("sub.a").Kind.String(), "string") | ||||||
|  | 	tst.AssertEqual(t, gft("sub.a").Type.String(), "string") | ||||||
|  | 	tst.AssertEqual(t, gft("sub.a").Name, "A") | ||||||
|  | 	tst.AssertEqual(t, gft("sub.a").IsPointer, false) | ||||||
|  | 	tst.AssertEqual(t, gfv("sub.a").(string), "2") | ||||||
|  |  | ||||||
|  | 	tst.AssertEqual(t, gft("str").Kind.String(), "string") | ||||||
|  | 	tst.AssertEqual(t, gft("str").Type.String(), "string") | ||||||
|  | 	tst.AssertEqual(t, gft("str").Name, "Str") | ||||||
|  | 	tst.AssertEqual(t, gft("str").IsPointer, false) | ||||||
|  | 	tst.AssertEqual(t, gfv("str").(string), "3") | ||||||
|  |  | ||||||
|  | 	tst.AssertEqual(t, gft("ptr").Kind.String(), "int") | ||||||
|  | 	tst.AssertEqual(t, gft("ptr").Type.String(), "int") | ||||||
|  | 	tst.AssertEqual(t, gft("ptr").Name, "Ptr") | ||||||
|  | 	tst.AssertEqual(t, gft("ptr").IsPointer, true) | ||||||
|  | 	tst.AssertEqual(t, *gfv("ptr").(*int), 4) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func TestReflectionGetTokenValueAsMongoType(t *testing.T) { | ||||||
|  |  | ||||||
|  | 	type IDType string | ||||||
|  |  | ||||||
|  | 	type TestData struct { | ||||||
|  | 		ID    IDType    `bson:"_id"` | ||||||
|  | 		CDate time.Time `bson:"cdate"` | ||||||
|  | 		Sub   struct { | ||||||
|  | 			A string `bson:"a"` | ||||||
|  | 		} `bson:"sub"` | ||||||
|  | 		Str   string                  `bson:"str"` | ||||||
|  | 		Ptr   *int                    `bson:"ptr"` | ||||||
|  | 		Num   int                     `bson:"num"` | ||||||
|  | 		MDate rfctime.RFC3339NanoTime `bson:"mdate"` | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	coll := W[TestData](&mongo.Collection{}) | ||||||
|  |  | ||||||
|  | 	coll.init() | ||||||
|  |  | ||||||
|  | 	gtvasmt := func(value string, fieldName string) any { | ||||||
|  | 		v, err := coll.getTokenValueAsMongoType(value, fieldName) | ||||||
|  | 		if err != nil { | ||||||
|  | 			t.Errorf("%s", "failed to getTokenValueAsMongoType") | ||||||
|  | 			t.Errorf("%v+", err) | ||||||
|  | 		} | ||||||
|  | 		return v | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	tx, err := time.Parse(time.RFC3339Nano, "2009-11-10T23:00:00Z") | ||||||
|  | 	if err != nil { | ||||||
|  | 		t.Errorf("%v", err) | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	tst.AssertEqual(t, gtvasmt("hello", "str").(string), "hello") | ||||||
|  | 	tst.AssertEqual(t, gtvasmt("4", "num").(int), 4) | ||||||
|  | 	tst.AssertEqual(t, gtvasmt("asdf", "_id").(IDType), "asdf") | ||||||
|  | 	tst.AssertEqual(t, gtvasmt("", "ptr").(*int), nil) | ||||||
|  | 	tst.AssertEqual(t, *(gtvasmt("123", "ptr").(*int)), 123) | ||||||
|  | 	tst.AssertEqual(t, gtvasmt("2009-11-10T23:00:00Z", "cdate").(time.Time), tx) | ||||||
|  | 	tst.AssertEqual(t, gtvasmt("2009-11-10T23:00:00Z", "mdate").(rfctime.RFC3339NanoTime), rfctime.NewRFC3339Nano(tx)) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func TestReflectionGetFieldValueAsTokenString(t *testing.T) { | ||||||
|  |  | ||||||
|  | 	type IDType string | ||||||
|  |  | ||||||
|  | 	type TestData struct { | ||||||
|  | 		ID    IDType    `bson:"_id"` | ||||||
|  | 		CDate time.Time `bson:"cdate"` | ||||||
|  | 		Sub   struct { | ||||||
|  | 			A string `bson:"a"` | ||||||
|  | 		} `bson:"sub"` | ||||||
|  | 		Str   string                  `bson:"str"` | ||||||
|  | 		Ptr   *int                    `bson:"ptr"` | ||||||
|  | 		Num   int                     `bson:"num"` | ||||||
|  | 		Ptr2  *int                    `bson:"ptr2"` | ||||||
|  | 		FFF   float64                 `bson:"fff"` | ||||||
|  | 		MDate rfctime.RFC3339NanoTime `bson:"mdate"` | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	coll := W[TestData](&mongo.Collection{}) | ||||||
|  |  | ||||||
|  | 	coll.init() | ||||||
|  |  | ||||||
|  | 	t0 := time.Date(2000, 1, 1, 12, 0, 0, 0, timeext.TimezoneBerlin) | ||||||
|  | 	t1 := rfctime.NewRFC3339Nano(t0) | ||||||
|  |  | ||||||
|  | 	d := TestData{ | ||||||
|  | 		ID:    "1", | ||||||
|  | 		CDate: t0, | ||||||
|  | 		MDate: t1, | ||||||
|  | 		Sub: struct { | ||||||
|  | 			A string `bson:"a"` | ||||||
|  | 		}{ | ||||||
|  | 			A: "2", | ||||||
|  | 		}, | ||||||
|  | 		Str:  "3", | ||||||
|  | 		Ptr:  langext.Ptr(4), | ||||||
|  | 		Num:  22, | ||||||
|  | 		FFF:  22.5, | ||||||
|  | 		Ptr2: nil, | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	gfvats := func(value TestData, fieldName string) string { | ||||||
|  | 		v, err := coll.getFieldValueAsTokenString(value, fieldName) | ||||||
|  | 		if err != nil { | ||||||
|  | 			t.Errorf("%s: %v", "failed to getTokenValueAsMongoType", err) | ||||||
|  | 		} | ||||||
|  | 		return v | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	tst.AssertEqual(t, gfvats(d, "str"), "3") | ||||||
|  | 	tst.AssertEqual(t, gfvats(d, "num"), "22") | ||||||
|  | 	tst.AssertEqual(t, gfvats(d, "_id"), "1") | ||||||
|  | 	tst.AssertEqual(t, gfvats(d, "ptr"), "4") | ||||||
|  | 	tst.AssertEqual(t, gfvats(d, "ptr2"), "") | ||||||
|  | 	tst.AssertEqual(t, gfvats(d, "fff"), "22.5") | ||||||
|  | 	tst.AssertEqual(t, gfvats(d, "cdate"), t0.Format(time.RFC3339Nano)) | ||||||
|  | 	tst.AssertEqual(t, gfvats(d, "mdate"), t0.Format(time.RFC3339Nano)) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func TestReflectionWithInterface(t *testing.T) { | ||||||
|  |  | ||||||
|  | 	type TestData struct { | ||||||
|  | 		ID    primitive.ObjectID `bson:"_id"` | ||||||
|  | 		CDate time.Time          `bson:"cdate"` | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	type TestInterface interface { | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	coll1 := W[TestInterface](&mongo.Collection{}) | ||||||
|  |  | ||||||
|  | 	tst.AssertTrue(t, coll1.coll != nil) | ||||||
|  | 	tst.AssertEqual(t, 0, len(coll1.implDataTypeMap)) | ||||||
|  |  | ||||||
|  | 	df := func(ctx context.Context, dec Decodable) (TestInterface, error) { | ||||||
|  | 		return TestData{}, nil | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	coll2 := W[TestInterface](&mongo.Collection{}).WithDecodeFunc(df, TestData{}) | ||||||
|  |  | ||||||
|  | 	tst.AssertTrue(t, coll2.coll != nil) | ||||||
|  | 	tst.AssertEqual(t, 1, len(coll2.implDataTypeMap)) | ||||||
|  |  | ||||||
|  | 	tst.AssertEqual(t, "ID", coll2.implDataTypeMap[reflect.TypeOf(TestData{})]["_id"].Name) | ||||||
|  | 	tst.AssertEqual(t, "CDate", coll2.implDataTypeMap[reflect.TypeOf(TestData{})]["cdate"].Name) | ||||||
|  | } | ||||||
		Reference in New Issue
	
	Block a user