Compare commits
74 Commits
Author | SHA1 | Date | |
---|---|---|---|
2f01a1d50f
|
|||
ffc57b7e89
|
|||
d88cd3c22b
|
|||
ac5ad640bd
|
|||
21d241f9b1
|
|||
2569c165f8
|
|||
ee262a94fb
|
|||
7977c0e59c
|
|||
ceff0161c6
|
|||
a30da61419
|
|||
b613b122e3
|
|||
d017530444
|
|||
8de83cc290
|
|||
603ec82b83
|
|||
93c4cf31a8
|
|||
dc2d8a9103
|
|||
6589e8d5cd
|
|||
0006c6859d
|
|||
827b3fc1b7
|
|||
f7dce4a102
|
|||
45d4fd7101
|
|||
c7df9d2264
|
|||
d0954bf133
|
|||
8affa81bb9
|
|||
fe9ebf0bab
|
|||
a4b5f33d15
|
|||
e89e2c18f2
|
|||
b16d5152c7
|
|||
5fb2f8a312
|
|||
2ad820be8d
|
|||
555096102a
|
|||
d76d7b5cb9
|
|||
6622c9003d
|
|||
b02e1d2e85
|
|||
c338d23070
|
|||
1fbae343a4
|
|||
31418bf0e6
|
|||
6d45f6f667
|
|||
f610a2202c
|
|||
2807299d46
|
|||
e872dbccec
|
|||
9daf71e2ed
|
|||
fe278f7772
|
|||
8ebda6fb3a
|
|||
b0d3ce8c1c
|
|||
021465e524
|
|||
cf9c73aa4a
|
|||
0652bf22dc
|
|||
b196adffc7
|
|||
717065e62d
|
|||
e7b2b040b2
|
|||
05d0f9e469
|
|||
ccd03e50c8
|
|||
1c77c2b8e8
|
|||
9f6f967299
|
|||
18c83f0f76
|
|||
a64f336e24
|
|||
14bbd205f8
|
|||
cecfb0d788
|
|||
a445e6f623
|
|||
0aa6310971
|
|||
2f66ab1cf0
|
|||
304e779470
|
|||
5e295d65c5
|
|||
ef3705937c
|
|||
d780c7965f
|
|||
c13db6802e
|
|||
c5e23ab451
|
|||
c266d9204b
|
|||
2550691e2e
|
|||
ca24e1d5bf
|
|||
b156052e6f
|
|||
dda2418255
|
|||
8e40deae6a
|
6
.idea/goext.iml
generated
6
.idea/goext.iml
generated
@@ -1,6 +1,10 @@
|
|||||||
<?xml version="1.0" encoding="UTF-8"?>
|
<?xml version="1.0" encoding="UTF-8"?>
|
||||||
<module type="WEB_MODULE" version="4">
|
<module type="WEB_MODULE" version="4">
|
||||||
<component name="Go" enabled="true" />
|
<component name="Go" enabled="true">
|
||||||
|
<buildTags>
|
||||||
|
<option name="goVersion" value="1.19" />
|
||||||
|
</buildTags>
|
||||||
|
</component>
|
||||||
<component name="NewModuleRootManager">
|
<component name="NewModuleRootManager">
|
||||||
<content url="file://$MODULE_DIR$" />
|
<content url="file://$MODULE_DIR$" />
|
||||||
<orderEntry type="inheritedJdk" />
|
<orderEntry type="inheritedJdk" />
|
||||||
|
4
Makefile
4
Makefile
@@ -3,7 +3,9 @@ run:
|
|||||||
echo "This is a library - can't be run" && false
|
echo "This is a library - can't be run" && false
|
||||||
|
|
||||||
test:
|
test:
|
||||||
go test ./...
|
# go test ./...
|
||||||
|
which gotestsum || go install gotest.tools/gotestsum@latest
|
||||||
|
gotestsum --format "testname" -- -tags="timetzdata sqlite_fts5 sqlite_foreign_keys" "./test"
|
||||||
|
|
||||||
version:
|
version:
|
||||||
_data/version.sh
|
_data/version.sh
|
35
README.md
35
README.md
@@ -5,4 +5,37 @@ A collection of general & useful library methods
|
|||||||
|
|
||||||
This should not have any heavy dependencies (gin, mongo, etc) and add missing basic language features...
|
This should not have any heavy dependencies (gin, mongo, etc) and add missing basic language features...
|
||||||
|
|
||||||
Potentially needs `export GOPRIVATE="gogs.mikescher.com"`
|
Potentially needs `export GOPRIVATE="gogs.mikescher.com"`
|
||||||
|
|
||||||
|
|
||||||
|
### Packages:
|
||||||
|
|
||||||
|
| Name | Maintainer | Description |
|
||||||
|
|--------------|------------|---------------------------------------------------------------------------------------------------------------|
|
||||||
|
| langext | Mike | General uttility/helper functions, (everything thats missing from go standard library) |
|
||||||
|
| mathext | Mike | Utility/Helper functions for math |
|
||||||
|
| cryptext | Mike | Utility/Helper functions for encryption |
|
||||||
|
| syncext | Mike | Utility/Helper funtions for multi-threading / mutex / channels |
|
||||||
|
| dataext | Mike | Various useful data structures |
|
||||||
|
| zipext | Mike | Utility for zip/gzip/tar etc |
|
||||||
|
| reflectext | Mike | Utility for golagn reflection |
|
||||||
|
| | | |
|
||||||
|
| mongoext | Mike | Utility/Helper functions for mongodb |
|
||||||
|
| cursortoken | Mike | MongoDB cursortoken implementation |
|
||||||
|
| | | |
|
||||||
|
| totpext | Mike | Implementation of TOTP (2-Factor-Auth) |
|
||||||
|
| termext | Mike | Utilities for terminals (mostly color output) |
|
||||||
|
| confext | Mike | Parses environment configuration into structs |
|
||||||
|
| cmdext | Mike | Runner for external commands/processes |
|
||||||
|
| | | |
|
||||||
|
| sq | Mike | Utility functions for sql based databases |
|
||||||
|
| tst | Mike | Utility functions for unit tests |
|
||||||
|
| | | |
|
||||||
|
| rfctime | Mike | Classes for time seriallization, with different marshallign method for mongo and json |
|
||||||
|
| gojson | Mike | Same interface for marshalling/unmarshalling as go/json, except with proper serialization of null arrays/maps |
|
||||||
|
| | | |
|
||||||
|
| bfcodegen | Mike | Various codegen tools (run via go generate) |
|
||||||
|
| | | |
|
||||||
|
| rext | Mike | Regex Wrapper, wraps regexp with a better interface |
|
||||||
|
| wmo | Mike | Mongo Wrapper, wraps mongodb with a better interface |
|
||||||
|
| | | |
|
13
TODO.md
Normal file
13
TODO.md
Normal file
@@ -0,0 +1,13 @@
|
|||||||
|
|
||||||
|
|
||||||
|
- cronext
|
||||||
|
|
||||||
|
- cursortoken
|
||||||
|
|
||||||
|
- typed/geenric mongo wrapper
|
||||||
|
|
||||||
|
- error package
|
||||||
|
|
||||||
|
- rfctime.DateOnly
|
||||||
|
- rfctime.HMSTimeOnly
|
||||||
|
- rfctime.NanoTimeOnly
|
@@ -21,6 +21,10 @@ if [ "$( git rev-parse --abbrev-ref HEAD )" != "master" ]; then
|
|||||||
exit 1
|
exit 1
|
||||||
fi
|
fi
|
||||||
|
|
||||||
|
git pull --ff
|
||||||
|
|
||||||
|
go get -u ./...
|
||||||
|
|
||||||
curr_vers=$(git describe --tags --abbrev=0 | sed 's/v//g')
|
curr_vers=$(git describe --tags --abbrev=0 | sed 's/v//g')
|
||||||
|
|
||||||
next_ver=$(echo "$curr_vers" | awk -F. -v OFS=. 'NF==1{print ++$NF}; NF>1{if(length($NF+1)>length($NF))$(NF-1)++; $NF=sprintf("%0*d", length($NF), ($NF+1)%(10^length($NF))); print}')
|
next_ver=$(echo "$curr_vers" | awk -F. -v OFS=. 'NF==1{print ++$NF}; NF>1{if(length($NF+1)>length($NF))$(NF-1)++; $NF=sprintf("%0*d", length($NF), ($NF+1)%(10^length($NF))); print}')
|
||||||
@@ -30,6 +34,8 @@ echo "> Current Version: ${curr_vers}"
|
|||||||
echo "> Next Version: ${next_ver}"
|
echo "> Next Version: ${next_ver}"
|
||||||
echo ""
|
echo ""
|
||||||
|
|
||||||
|
printf "package goext\n\nconst GoextVersion = \"%s\"\n\nconst GoextVersionTimestamp = \"%s\"\n" "${next_ver}" "$( date +"%Y-%m-%dT%H:%M:%S%z" )" > "goextVersion.go"
|
||||||
|
|
||||||
git add --verbose .
|
git add --verbose .
|
||||||
|
|
||||||
msg="v${next_ver}"
|
msg="v${next_ver}"
|
||||||
|
364
bfcodegen/enum-generate.go
Normal file
364
bfcodegen/enum-generate.go
Normal file
@@ -0,0 +1,364 @@
|
|||||||
|
package bfcodegen
|
||||||
|
|
||||||
|
import (
|
||||||
|
"errors"
|
||||||
|
"fmt"
|
||||||
|
"gogs.mikescher.com/BlackForestBytes/goext"
|
||||||
|
"gogs.mikescher.com/BlackForestBytes/goext/cmdext"
|
||||||
|
"gogs.mikescher.com/BlackForestBytes/goext/cryptext"
|
||||||
|
"gogs.mikescher.com/BlackForestBytes/goext/langext"
|
||||||
|
"gogs.mikescher.com/BlackForestBytes/goext/rext"
|
||||||
|
"io"
|
||||||
|
"os"
|
||||||
|
"path"
|
||||||
|
"path/filepath"
|
||||||
|
"regexp"
|
||||||
|
"strings"
|
||||||
|
"time"
|
||||||
|
)
|
||||||
|
|
||||||
|
type EnumDefVal struct {
|
||||||
|
VarName string
|
||||||
|
Value string
|
||||||
|
Description *string
|
||||||
|
}
|
||||||
|
|
||||||
|
type EnumDef struct {
|
||||||
|
File string
|
||||||
|
FileRelative string
|
||||||
|
EnumTypeName string
|
||||||
|
Type string
|
||||||
|
Values []EnumDefVal
|
||||||
|
}
|
||||||
|
|
||||||
|
var rexPackage = rext.W(regexp.MustCompile("^package\\s+(?P<name>[A-Za-z0-9_]+)\\s*$"))
|
||||||
|
|
||||||
|
var rexEnumDef = rext.W(regexp.MustCompile("^\\s*type\\s+(?P<name>[A-Za-z0-9_]+)\\s+(?P<type>[A-Za-z0-9_]+)\\s*//\\s*(@enum:type).*$"))
|
||||||
|
|
||||||
|
var rexValueDef = rext.W(regexp.MustCompile("^\\s*(?P<name>[A-Za-z0-9_]+)\\s+(?P<type>[A-Za-z0-9_]+)\\s*=\\s*(?P<value>(\"[A-Za-z0-9_:]+\"|[0-9]+))\\s*(//(?P<descr>.*))?.*$"))
|
||||||
|
|
||||||
|
var rexChecksumConst = rext.W(regexp.MustCompile("const ChecksumGenerator = \"(?P<cs>[A-Za-z0-9_]*)\""))
|
||||||
|
|
||||||
|
func GenerateEnumSpecs(sourceDir string, destFile string) error {
|
||||||
|
|
||||||
|
files, err := os.ReadDir(sourceDir)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
|
||||||
|
oldChecksum := "N/A"
|
||||||
|
if _, err := os.Stat(destFile); !os.IsNotExist(err) {
|
||||||
|
content, err := os.ReadFile(destFile)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
if m, ok := rexChecksumConst.MatchFirst(string(content)); ok {
|
||||||
|
oldChecksum = m.GroupByName("cs").Value()
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
files = langext.ArrFilter(files, func(v os.DirEntry) bool { return v.Name() != path.Base(destFile) })
|
||||||
|
files = langext.ArrFilter(files, func(v os.DirEntry) bool { return strings.HasSuffix(v.Name(), ".go") })
|
||||||
|
langext.SortBy(files, func(v os.DirEntry) string { return v.Name() })
|
||||||
|
|
||||||
|
newChecksumStr := goext.GoextVersion
|
||||||
|
for _, f := range files {
|
||||||
|
content, err := os.ReadFile(path.Join(sourceDir, f.Name()))
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
newChecksumStr += "\n" + f.Name() + "\t" + cryptext.BytesSha256(content)
|
||||||
|
}
|
||||||
|
|
||||||
|
newChecksum := cryptext.BytesSha256([]byte(newChecksumStr))
|
||||||
|
|
||||||
|
if newChecksum != oldChecksum {
|
||||||
|
fmt.Printf("[EnumGenerate] Checksum has changed ( %s -> %s ), will generate new file\n\n", oldChecksum, newChecksum)
|
||||||
|
} else {
|
||||||
|
fmt.Printf("[EnumGenerate] Checksum unchanged ( %s ), nothing to do\n", oldChecksum)
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
|
allEnums := make([]EnumDef, 0)
|
||||||
|
|
||||||
|
pkgname := ""
|
||||||
|
|
||||||
|
for _, f := range files {
|
||||||
|
fmt.Printf("========= %s =========\n\n", f.Name())
|
||||||
|
fileEnums, pn, err := processFile(sourceDir, path.Join(sourceDir, f.Name()))
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
|
||||||
|
fmt.Printf("\n")
|
||||||
|
|
||||||
|
allEnums = append(allEnums, fileEnums...)
|
||||||
|
|
||||||
|
if pn != "" {
|
||||||
|
pkgname = pn
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
if pkgname == "" {
|
||||||
|
return errors.New("no package name found in any file")
|
||||||
|
}
|
||||||
|
|
||||||
|
err = os.WriteFile(destFile, []byte(fmtOutput(newChecksum, allEnums, pkgname)), 0o755)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
|
||||||
|
res, err := cmdext.RunCommand("go", []string{"fmt", destFile}, langext.Ptr(2*time.Second))
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
|
||||||
|
if res.CommandTimedOut {
|
||||||
|
fmt.Println(res.StdCombined)
|
||||||
|
return errors.New("go fmt timed out")
|
||||||
|
}
|
||||||
|
if res.ExitCode != 0 {
|
||||||
|
fmt.Println(res.StdCombined)
|
||||||
|
return errors.New("go fmt did not succeed")
|
||||||
|
}
|
||||||
|
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func processFile(basedir string, fn string) ([]EnumDef, string, error) {
|
||||||
|
file, err := os.Open(fn)
|
||||||
|
if err != nil {
|
||||||
|
return nil, "", err
|
||||||
|
}
|
||||||
|
|
||||||
|
defer func() { _ = file.Close() }()
|
||||||
|
|
||||||
|
bin, err := io.ReadAll(file)
|
||||||
|
if err != nil {
|
||||||
|
return nil, "", err
|
||||||
|
}
|
||||||
|
|
||||||
|
lines := strings.Split(string(bin), "\n")
|
||||||
|
|
||||||
|
enums := make([]EnumDef, 0)
|
||||||
|
|
||||||
|
pkgname := ""
|
||||||
|
|
||||||
|
for i, line := range lines {
|
||||||
|
if i == 0 && strings.HasPrefix(line, "// Code generated by") {
|
||||||
|
break
|
||||||
|
}
|
||||||
|
|
||||||
|
if match, ok := rexPackage.MatchFirst(line); i == 0 && ok {
|
||||||
|
pkgname = match.GroupByName("name").Value()
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
|
||||||
|
if match, ok := rexEnumDef.MatchFirst(line); ok {
|
||||||
|
|
||||||
|
rfp, err := filepath.Rel(basedir, fn)
|
||||||
|
if err != nil {
|
||||||
|
return nil, "", err
|
||||||
|
}
|
||||||
|
|
||||||
|
def := EnumDef{
|
||||||
|
File: fn,
|
||||||
|
FileRelative: rfp,
|
||||||
|
EnumTypeName: match.GroupByName("name").Value(),
|
||||||
|
Type: match.GroupByName("type").Value(),
|
||||||
|
Values: make([]EnumDefVal, 0),
|
||||||
|
}
|
||||||
|
enums = append(enums, def)
|
||||||
|
fmt.Printf("Found enum definition { '%s' -> '%s' }\n", def.EnumTypeName, def.Type)
|
||||||
|
}
|
||||||
|
|
||||||
|
if match, ok := rexValueDef.MatchFirst(line); ok {
|
||||||
|
typename := match.GroupByName("type").Value()
|
||||||
|
def := EnumDefVal{
|
||||||
|
VarName: match.GroupByName("name").Value(),
|
||||||
|
Value: match.GroupByName("value").Value(),
|
||||||
|
Description: match.GroupByNameOrEmpty("descr").ValueOrNil(),
|
||||||
|
}
|
||||||
|
|
||||||
|
found := false
|
||||||
|
for i, v := range enums {
|
||||||
|
if v.EnumTypeName == typename {
|
||||||
|
enums[i].Values = append(enums[i].Values, def)
|
||||||
|
found = true
|
||||||
|
if def.Description != nil {
|
||||||
|
fmt.Printf("Found enum value [%s] for '%s' ('%s')\n", def.Value, def.VarName, *def.Description)
|
||||||
|
} else {
|
||||||
|
fmt.Printf("Found enum value [%s] for '%s'\n", def.Value, def.VarName)
|
||||||
|
}
|
||||||
|
break
|
||||||
|
}
|
||||||
|
}
|
||||||
|
if !found {
|
||||||
|
fmt.Printf("Found non-enum value [%s] for '%s' ( looks like enum value, but no matching @enum:type )\n", def.Value, def.VarName)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
return enums, pkgname, nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func fmtOutput(cs string, enums []EnumDef, pkgname string) string {
|
||||||
|
str := "// Code generated by enum-generate.go DO NOT EDIT.\n"
|
||||||
|
str += "\n"
|
||||||
|
str += "package " + pkgname + "\n"
|
||||||
|
str += "\n"
|
||||||
|
|
||||||
|
str += "import \"gogs.mikescher.com/BlackForestBytes/goext/langext\"" + "\n"
|
||||||
|
str += "\n"
|
||||||
|
|
||||||
|
str += "const ChecksumGenerator = \"" + cs + "\"" + "\n"
|
||||||
|
str += "\n"
|
||||||
|
|
||||||
|
str += "type Enum interface {" + "\n"
|
||||||
|
str += " Valid() bool" + "\n"
|
||||||
|
str += " ValuesAny() []any" + "\n"
|
||||||
|
str += " ValuesMeta() []EnumMetaValue" + "\n"
|
||||||
|
str += " VarName() string" + "\n"
|
||||||
|
str += "}" + "\n"
|
||||||
|
str += "" + "\n"
|
||||||
|
|
||||||
|
str += "type StringEnum interface {" + "\n"
|
||||||
|
str += " Enum" + "\n"
|
||||||
|
str += " String() string" + "\n"
|
||||||
|
str += "}" + "\n"
|
||||||
|
str += "" + "\n"
|
||||||
|
|
||||||
|
str += "type DescriptionEnum interface {" + "\n"
|
||||||
|
str += " Enum" + "\n"
|
||||||
|
str += " Description() string" + "\n"
|
||||||
|
str += "}" + "\n"
|
||||||
|
str += "\n"
|
||||||
|
|
||||||
|
str += "type EnumMetaValue struct {" + "\n"
|
||||||
|
str += " VarName string `json:\"varName\"`" + "\n"
|
||||||
|
str += " Value any `json:\"value\"`" + "\n"
|
||||||
|
str += " Description *string `json:\"description\"`" + "\n"
|
||||||
|
str += "}" + "\n"
|
||||||
|
str += "\n"
|
||||||
|
|
||||||
|
for _, enumdef := range enums {
|
||||||
|
|
||||||
|
hasDescr := langext.ArrAll(enumdef.Values, func(val EnumDefVal) bool { return val.Description != nil })
|
||||||
|
hasStr := enumdef.Type == "string"
|
||||||
|
|
||||||
|
str += "// ================================ " + enumdef.EnumTypeName + " ================================" + "\n"
|
||||||
|
str += "//" + "\n"
|
||||||
|
str += "// File: " + enumdef.FileRelative + "\n"
|
||||||
|
str += "// StringEnum: " + langext.Conditional(hasStr, "true", "false") + "\n"
|
||||||
|
str += "// DescrEnum: " + langext.Conditional(hasDescr, "true", "false") + "\n"
|
||||||
|
str += "//" + "\n"
|
||||||
|
str += "" + "\n"
|
||||||
|
|
||||||
|
str += "var __" + enumdef.EnumTypeName + "Values = []" + enumdef.EnumTypeName + "{" + "\n"
|
||||||
|
for _, v := range enumdef.Values {
|
||||||
|
str += " " + v.VarName + "," + "\n"
|
||||||
|
}
|
||||||
|
str += "}" + "\n"
|
||||||
|
str += "" + "\n"
|
||||||
|
|
||||||
|
if hasDescr {
|
||||||
|
str += "var __" + enumdef.EnumTypeName + "Descriptions = map[" + enumdef.EnumTypeName + "]string{" + "\n"
|
||||||
|
for _, v := range enumdef.Values {
|
||||||
|
str += " " + v.VarName + ": \"" + strings.TrimSpace(*v.Description) + "\"," + "\n"
|
||||||
|
}
|
||||||
|
str += "}" + "\n"
|
||||||
|
str += "" + "\n"
|
||||||
|
}
|
||||||
|
|
||||||
|
str += "var __" + enumdef.EnumTypeName + "Varnames = map[" + enumdef.EnumTypeName + "]string{" + "\n"
|
||||||
|
for _, v := range enumdef.Values {
|
||||||
|
str += " " + v.VarName + ": \"" + v.VarName + "\"," + "\n"
|
||||||
|
}
|
||||||
|
str += "}" + "\n"
|
||||||
|
str += "" + "\n"
|
||||||
|
|
||||||
|
str += "func (e " + enumdef.EnumTypeName + ") Valid() bool {" + "\n"
|
||||||
|
str += " return langext.InArray(e, __" + enumdef.EnumTypeName + "Values)" + "\n"
|
||||||
|
str += "}" + "\n"
|
||||||
|
str += "" + "\n"
|
||||||
|
|
||||||
|
str += "func (e " + enumdef.EnumTypeName + ") Values() []" + enumdef.EnumTypeName + " {" + "\n"
|
||||||
|
str += " return __" + enumdef.EnumTypeName + "Values" + "\n"
|
||||||
|
str += "}" + "\n"
|
||||||
|
str += "" + "\n"
|
||||||
|
|
||||||
|
str += "func (e " + enumdef.EnumTypeName + ") ValuesAny() []any {" + "\n"
|
||||||
|
str += " return langext.ArrCastToAny(__" + enumdef.EnumTypeName + "Values)" + "\n"
|
||||||
|
str += "}" + "\n"
|
||||||
|
str += "" + "\n"
|
||||||
|
|
||||||
|
str += "func (e " + enumdef.EnumTypeName + ") ValuesMeta() []EnumMetaValue {" + "\n"
|
||||||
|
str += " return []EnumMetaValue{" + "\n"
|
||||||
|
for _, v := range enumdef.Values {
|
||||||
|
if hasDescr {
|
||||||
|
str += " " + fmt.Sprintf("EnumMetaValue{VarName: \"%s\", Value: %s, Description: langext.Ptr(\"%s\")},", v.VarName, v.VarName, strings.TrimSpace(*v.Description)) + "\n"
|
||||||
|
} else {
|
||||||
|
str += " " + fmt.Sprintf("EnumMetaValue{VarName: \"%s\", Value: %s, Description: nil},", v.VarName, v.VarName) + "\n"
|
||||||
|
}
|
||||||
|
}
|
||||||
|
str += " }" + "\n"
|
||||||
|
str += "}" + "\n"
|
||||||
|
str += "" + "\n"
|
||||||
|
|
||||||
|
if hasStr {
|
||||||
|
str += "func (e " + enumdef.EnumTypeName + ") String() string {" + "\n"
|
||||||
|
str += " return string(e)" + "\n"
|
||||||
|
str += "}" + "\n"
|
||||||
|
str += "" + "\n"
|
||||||
|
}
|
||||||
|
|
||||||
|
if hasDescr {
|
||||||
|
str += "func (e " + enumdef.EnumTypeName + ") Description() string {" + "\n"
|
||||||
|
str += " if d, ok := __" + enumdef.EnumTypeName + "Descriptions[e]; ok {" + "\n"
|
||||||
|
str += " return d" + "\n"
|
||||||
|
str += " }" + "\n"
|
||||||
|
str += " return \"\"" + "\n"
|
||||||
|
str += "}" + "\n"
|
||||||
|
str += "" + "\n"
|
||||||
|
}
|
||||||
|
|
||||||
|
str += "func (e " + enumdef.EnumTypeName + ") VarName() string {" + "\n"
|
||||||
|
str += " if d, ok := __" + enumdef.EnumTypeName + "Varnames[e]; ok {" + "\n"
|
||||||
|
str += " return d" + "\n"
|
||||||
|
str += " }" + "\n"
|
||||||
|
str += " return \"\"" + "\n"
|
||||||
|
str += "}" + "\n"
|
||||||
|
str += "" + "\n"
|
||||||
|
|
||||||
|
str += "func Parse" + enumdef.EnumTypeName + "(vv string) (" + enumdef.EnumTypeName + ", bool) {" + "\n"
|
||||||
|
str += " for _, ev := range __" + enumdef.EnumTypeName + "Values {" + "\n"
|
||||||
|
str += " if string(ev) == vv {" + "\n"
|
||||||
|
str += " return ev, true" + "\n"
|
||||||
|
str += " }" + "\n"
|
||||||
|
str += " }" + "\n"
|
||||||
|
str += " return \"\", false" + "\n"
|
||||||
|
str += "}" + "\n"
|
||||||
|
str += "" + "\n"
|
||||||
|
|
||||||
|
str += "func " + enumdef.EnumTypeName + "Values() []" + enumdef.EnumTypeName + " {" + "\n"
|
||||||
|
str += " return __" + enumdef.EnumTypeName + "Values" + "\n"
|
||||||
|
str += "}" + "\n"
|
||||||
|
str += "" + "\n"
|
||||||
|
|
||||||
|
str += "func " + enumdef.EnumTypeName + "ValuesMeta() []EnumMetaValue {" + "\n"
|
||||||
|
str += " return []EnumMetaValue{" + "\n"
|
||||||
|
for _, v := range enumdef.Values {
|
||||||
|
if hasDescr {
|
||||||
|
str += " " + fmt.Sprintf("EnumMetaValue{VarName: \"%s\", Value: %s, Description: langext.Ptr(\"%s\")},", v.VarName, v.VarName, strings.TrimSpace(*v.Description)) + "\n"
|
||||||
|
} else {
|
||||||
|
str += " " + fmt.Sprintf("EnumMetaValue{VarName: \"%s\", Value: %s, Description: nil},", v.VarName, v.VarName) + "\n"
|
||||||
|
}
|
||||||
|
}
|
||||||
|
str += " }" + "\n"
|
||||||
|
str += "}" + "\n"
|
||||||
|
str += "" + "\n"
|
||||||
|
|
||||||
|
}
|
||||||
|
|
||||||
|
return str
|
||||||
|
}
|
15
bfcodegen/enum-generate_test.go
Normal file
15
bfcodegen/enum-generate_test.go
Normal file
@@ -0,0 +1,15 @@
|
|||||||
|
package bfcodegen
|
||||||
|
|
||||||
|
import (
|
||||||
|
"testing"
|
||||||
|
)
|
||||||
|
|
||||||
|
func TestApplyEnvOverridesSimple(t *testing.T) {
|
||||||
|
|
||||||
|
err := GenerateEnumSpecs("/home/mike/Code/reiff/badennet/bnet-backend/models", "/home/mike/Code/reiff/badennet/bnet-backend/models/enums_gen.go")
|
||||||
|
if err != nil {
|
||||||
|
t.Error(err)
|
||||||
|
t.Fail()
|
||||||
|
}
|
||||||
|
|
||||||
|
}
|
@@ -8,6 +8,7 @@ import (
|
|||||||
"os"
|
"os"
|
||||||
"reflect"
|
"reflect"
|
||||||
"strconv"
|
"strconv"
|
||||||
|
"strings"
|
||||||
"time"
|
"time"
|
||||||
)
|
)
|
||||||
|
|
||||||
@@ -172,6 +173,20 @@ func parseEnvToValue(envval string, fullEnvKey string, rvtype reflect.Type) (ref
|
|||||||
|
|
||||||
return envcvl, nil
|
return envcvl, nil
|
||||||
|
|
||||||
|
} else if rvtype.ConvertibleTo(reflect.TypeOf(false)) {
|
||||||
|
|
||||||
|
if strings.TrimSpace(strings.ToLower(envval)) == "true" {
|
||||||
|
return reflect.ValueOf(true).Convert(rvtype), nil
|
||||||
|
} else if strings.TrimSpace(strings.ToLower(envval)) == "false" {
|
||||||
|
return reflect.ValueOf(false).Convert(rvtype), nil
|
||||||
|
} else if strings.TrimSpace(strings.ToLower(envval)) == "1" {
|
||||||
|
return reflect.ValueOf(true).Convert(rvtype), nil
|
||||||
|
} else if strings.TrimSpace(strings.ToLower(envval)) == "0" {
|
||||||
|
return reflect.ValueOf(false).Convert(rvtype), nil
|
||||||
|
} else {
|
||||||
|
return reflect.Value{}, errors.New(fmt.Sprintf("Failed to parse env-config variable '%s' to <%s, ,bool> (value := '%s')", rvtype.Name(), fullEnvKey, envval))
|
||||||
|
}
|
||||||
|
|
||||||
} else if rvtype.ConvertibleTo(reflect.TypeOf("")) {
|
} else if rvtype.ConvertibleTo(reflect.TypeOf("")) {
|
||||||
|
|
||||||
envcvl := reflect.ValueOf(envval).Convert(rvtype)
|
envcvl := reflect.ValueOf(envval).Convert(rvtype)
|
||||||
|
@@ -2,6 +2,7 @@ package confext
|
|||||||
|
|
||||||
import (
|
import (
|
||||||
"gogs.mikescher.com/BlackForestBytes/goext/timeext"
|
"gogs.mikescher.com/BlackForestBytes/goext/timeext"
|
||||||
|
"gogs.mikescher.com/BlackForestBytes/goext/tst"
|
||||||
"testing"
|
"testing"
|
||||||
"time"
|
"time"
|
||||||
)
|
)
|
||||||
@@ -41,13 +42,13 @@ func TestApplyEnvOverridesNoop(t *testing.T) {
|
|||||||
|
|
||||||
output := input
|
output := input
|
||||||
|
|
||||||
err := ApplyEnvOverrides(&output, ".")
|
err := ApplyEnvOverrides("", &output, ".")
|
||||||
if err != nil {
|
if err != nil {
|
||||||
t.Errorf("%v", err)
|
t.Errorf("%v", err)
|
||||||
t.FailNow()
|
t.FailNow()
|
||||||
}
|
}
|
||||||
|
|
||||||
assertEqual(t, input, output)
|
tst.AssertEqual(t, input, output)
|
||||||
}
|
}
|
||||||
|
|
||||||
func TestApplyEnvOverridesSimple(t *testing.T) {
|
func TestApplyEnvOverridesSimple(t *testing.T) {
|
||||||
@@ -67,6 +68,7 @@ func TestApplyEnvOverridesSimple(t *testing.T) {
|
|||||||
V7 aliasstring `env:"TEST_V7"`
|
V7 aliasstring `env:"TEST_V7"`
|
||||||
V8 time.Duration `env:"TEST_V8"`
|
V8 time.Duration `env:"TEST_V8"`
|
||||||
V9 time.Time `env:"TEST_V9"`
|
V9 time.Time `env:"TEST_V9"`
|
||||||
|
VA bool `env:"TEST_VA"`
|
||||||
}
|
}
|
||||||
|
|
||||||
data := testdata{
|
data := testdata{
|
||||||
@@ -81,6 +83,7 @@ func TestApplyEnvOverridesSimple(t *testing.T) {
|
|||||||
V7: "7",
|
V7: "7",
|
||||||
V8: 9,
|
V8: 9,
|
||||||
V9: time.Unix(1671102873, 0),
|
V9: time.Unix(1671102873, 0),
|
||||||
|
VA: false,
|
||||||
}
|
}
|
||||||
|
|
||||||
t.Setenv("TEST_V1", "846")
|
t.Setenv("TEST_V1", "846")
|
||||||
@@ -92,22 +95,24 @@ func TestApplyEnvOverridesSimple(t *testing.T) {
|
|||||||
t.Setenv("TEST_V7", "AAAAAA")
|
t.Setenv("TEST_V7", "AAAAAA")
|
||||||
t.Setenv("TEST_V8", "1min4s")
|
t.Setenv("TEST_V8", "1min4s")
|
||||||
t.Setenv("TEST_V9", "2009-11-10T23:00:00Z")
|
t.Setenv("TEST_V9", "2009-11-10T23:00:00Z")
|
||||||
|
t.Setenv("TEST_VA", "true")
|
||||||
|
|
||||||
err := ApplyEnvOverrides(&data, ".")
|
err := ApplyEnvOverrides("", &data, ".")
|
||||||
if err != nil {
|
if err != nil {
|
||||||
t.Errorf("%v", err)
|
t.Errorf("%v", err)
|
||||||
t.FailNow()
|
t.FailNow()
|
||||||
}
|
}
|
||||||
|
|
||||||
assertEqual(t, data.V1, 846)
|
tst.AssertEqual(t, data.V1, 846)
|
||||||
assertEqual(t, data.V2, "hello_world")
|
tst.AssertEqual(t, data.V2, "hello_world")
|
||||||
assertEqual(t, data.V3, 6)
|
tst.AssertEqual(t, data.V3, 6)
|
||||||
assertEqual(t, data.V4, 333)
|
tst.AssertEqual(t, data.V4, 333)
|
||||||
assertEqual(t, data.V5, -937)
|
tst.AssertEqual(t, data.V5, -937)
|
||||||
assertEqual(t, data.V6, 70)
|
tst.AssertEqual(t, data.V6, 70)
|
||||||
assertEqual(t, data.V7, "AAAAAA")
|
tst.AssertEqual(t, data.V7, "AAAAAA")
|
||||||
assertEqual(t, data.V8, time.Second*64)
|
tst.AssertEqual(t, data.V8, time.Second*64)
|
||||||
assertEqual(t, data.V9, time.Unix(1257894000, 0).UTC())
|
tst.AssertEqual(t, data.V9, time.Unix(1257894000, 0).UTC())
|
||||||
|
tst.AssertEqual(t, data.VA, true)
|
||||||
}
|
}
|
||||||
|
|
||||||
func TestApplyEnvOverridesRecursive(t *testing.T) {
|
func TestApplyEnvOverridesRecursive(t *testing.T) {
|
||||||
@@ -182,35 +187,35 @@ func TestApplyEnvOverridesRecursive(t *testing.T) {
|
|||||||
t.Setenv("SUB_V3", "33min")
|
t.Setenv("SUB_V3", "33min")
|
||||||
t.Setenv("SUB_V4", "2044-01-01T00:00:00Z")
|
t.Setenv("SUB_V4", "2044-01-01T00:00:00Z")
|
||||||
|
|
||||||
err := ApplyEnvOverrides(&data, "_")
|
err := ApplyEnvOverrides("", &data, "_")
|
||||||
if err != nil {
|
if err != nil {
|
||||||
t.Errorf("%v", err)
|
t.Errorf("%v", err)
|
||||||
t.FailNow()
|
t.FailNow()
|
||||||
}
|
}
|
||||||
|
|
||||||
assertEqual(t, data.V1, 999)
|
tst.AssertEqual(t, data.V1, 999)
|
||||||
assertEqual(t, data.VX, "2")
|
tst.AssertEqual(t, data.VX, "2")
|
||||||
assertEqual(t, data.V5, "no")
|
tst.AssertEqual(t, data.V5, "no")
|
||||||
assertEqual(t, data.Sub1.V1, 3)
|
tst.AssertEqual(t, data.Sub1.V1, 3)
|
||||||
assertEqual(t, data.Sub1.VX, "4")
|
tst.AssertEqual(t, data.Sub1.VX, "4")
|
||||||
assertEqual(t, data.Sub1.V2, "5")
|
tst.AssertEqual(t, data.Sub1.V2, "5")
|
||||||
assertEqual(t, data.Sub1.V8, time.Second*6)
|
tst.AssertEqual(t, data.Sub1.V8, time.Second*6)
|
||||||
assertEqual(t, data.Sub1.V9, time.Unix(947206861, 0).UTC())
|
tst.AssertEqual(t, data.Sub1.V9, time.Unix(947206861, 0).UTC())
|
||||||
assertEqual(t, data.Sub2.V1, 846)
|
tst.AssertEqual(t, data.Sub2.V1, 846)
|
||||||
assertEqual(t, data.Sub2.VX, "9")
|
tst.AssertEqual(t, data.Sub2.VX, "9")
|
||||||
assertEqual(t, data.Sub2.V2, "222_hello_world")
|
tst.AssertEqual(t, data.Sub2.V2, "222_hello_world")
|
||||||
assertEqual(t, data.Sub2.V8, time.Second*64)
|
tst.AssertEqual(t, data.Sub2.V8, time.Second*64)
|
||||||
assertEqual(t, data.Sub2.V9, time.Unix(1257894000, 0).UTC())
|
tst.AssertEqual(t, data.Sub2.V9, time.Unix(1257894000, 0).UTC())
|
||||||
assertEqual(t, data.Sub3.V1, 33846)
|
tst.AssertEqual(t, data.Sub3.V1, 33846)
|
||||||
assertEqual(t, data.Sub3.VX, "14")
|
tst.AssertEqual(t, data.Sub3.VX, "14")
|
||||||
assertEqual(t, data.Sub3.V2, "33_hello_world")
|
tst.AssertEqual(t, data.Sub3.V2, "33_hello_world")
|
||||||
assertEqual(t, data.Sub3.V8, time.Second*1984)
|
tst.AssertEqual(t, data.Sub3.V8, time.Second*1984)
|
||||||
assertEqual(t, data.Sub3.V9, time.Unix(2015276400, 0).UTC())
|
tst.AssertEqual(t, data.Sub3.V9, time.Unix(2015276400, 0).UTC())
|
||||||
assertEqual(t, data.Sub4.V1, 11)
|
tst.AssertEqual(t, data.Sub4.V1, 11)
|
||||||
assertEqual(t, data.Sub4.VX, "19")
|
tst.AssertEqual(t, data.Sub4.VX, "19")
|
||||||
assertEqual(t, data.Sub4.V2, "22")
|
tst.AssertEqual(t, data.Sub4.V2, "22")
|
||||||
assertEqual(t, data.Sub4.V8, time.Second*1980)
|
tst.AssertEqual(t, data.Sub4.V8, time.Second*1980)
|
||||||
assertEqual(t, data.Sub4.V9, time.Unix(2335219200, 0).UTC())
|
tst.AssertEqual(t, data.Sub4.V9, time.Unix(2335219200, 0).UTC())
|
||||||
}
|
}
|
||||||
|
|
||||||
func TestApplyEnvOverridesPointer(t *testing.T) {
|
func TestApplyEnvOverridesPointer(t *testing.T) {
|
||||||
@@ -244,21 +249,21 @@ func TestApplyEnvOverridesPointer(t *testing.T) {
|
|||||||
t.Setenv("TEST_V8", "1min4s")
|
t.Setenv("TEST_V8", "1min4s")
|
||||||
t.Setenv("TEST_V9", "2009-11-10T23:00:00Z")
|
t.Setenv("TEST_V9", "2009-11-10T23:00:00Z")
|
||||||
|
|
||||||
err := ApplyEnvOverrides(&data, ".")
|
err := ApplyEnvOverrides("", &data, ".")
|
||||||
if err != nil {
|
if err != nil {
|
||||||
t.Errorf("%v", err)
|
t.Errorf("%v", err)
|
||||||
t.FailNow()
|
t.FailNow()
|
||||||
}
|
}
|
||||||
|
|
||||||
assertPtrEqual(t, data.V1, 846)
|
tst.AssertDeRefEqual(t, data.V1, 846)
|
||||||
assertPtrEqual(t, data.V2, "hello_world")
|
tst.AssertDeRefEqual(t, data.V2, "hello_world")
|
||||||
assertPtrEqual(t, data.V3, 6)
|
tst.AssertDeRefEqual(t, data.V3, 6)
|
||||||
assertPtrEqual(t, data.V4, 333)
|
tst.AssertDeRefEqual(t, data.V4, 333)
|
||||||
assertPtrEqual(t, data.V5, -937)
|
tst.AssertDeRefEqual(t, data.V5, -937)
|
||||||
assertPtrEqual(t, data.V6, 70)
|
tst.AssertDeRefEqual(t, data.V6, 70)
|
||||||
assertPtrEqual(t, data.V7, "AAAAAA")
|
tst.AssertDeRefEqual(t, data.V7, "AAAAAA")
|
||||||
assertPtrEqual(t, data.V8, time.Second*64)
|
tst.AssertDeRefEqual(t, data.V8, time.Second*64)
|
||||||
assertPtrEqual(t, data.V9, time.Unix(1257894000, 0).UTC())
|
tst.AssertDeRefEqual(t, data.V9, time.Unix(1257894000, 0).UTC())
|
||||||
}
|
}
|
||||||
|
|
||||||
func assertEqual[T comparable](t *testing.T, actual T, expected T) {
|
func assertEqual[T comparable](t *testing.T, actual T, expected T) {
|
||||||
|
@@ -2,6 +2,7 @@ package cryptext
|
|||||||
|
|
||||||
import (
|
import (
|
||||||
"fmt"
|
"fmt"
|
||||||
|
"gogs.mikescher.com/BlackForestBytes/goext/tst"
|
||||||
"testing"
|
"testing"
|
||||||
)
|
)
|
||||||
|
|
||||||
@@ -23,13 +24,13 @@ func TestEncryptAESSimple(t *testing.T) {
|
|||||||
panic(err)
|
panic(err)
|
||||||
}
|
}
|
||||||
|
|
||||||
assertEqual(t, string(str1), string(str3))
|
tst.AssertEqual(t, string(str1), string(str3))
|
||||||
|
|
||||||
str4, err := EncryptAESSimple(pw, str3, 512)
|
str4, err := EncryptAESSimple(pw, str3, 512)
|
||||||
if err != nil {
|
if err != nil {
|
||||||
panic(err)
|
panic(err)
|
||||||
}
|
}
|
||||||
|
|
||||||
assertNotEqual(t, string(str2), string(str4))
|
tst.AssertNotEqual(t, string(str2), string(str4))
|
||||||
|
|
||||||
}
|
}
|
||||||
|
@@ -1,31 +1,20 @@
|
|||||||
package cryptext
|
package cryptext
|
||||||
|
|
||||||
import (
|
import (
|
||||||
|
"gogs.mikescher.com/BlackForestBytes/goext/tst"
|
||||||
"testing"
|
"testing"
|
||||||
)
|
)
|
||||||
|
|
||||||
func TestStrSha256(t *testing.T) {
|
func TestStrSha256(t *testing.T) {
|
||||||
assertEqual(t, StrSha256(""), "e3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855")
|
tst.AssertEqual(t, StrSha256(""), "e3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855")
|
||||||
assertEqual(t, StrSha256("0"), "5feceb66ffc86f38d952786c6d696c79c2dbc239dd4e91b46729d73a27fb57e9")
|
tst.AssertEqual(t, StrSha256("0"), "5feceb66ffc86f38d952786c6d696c79c2dbc239dd4e91b46729d73a27fb57e9")
|
||||||
assertEqual(t, StrSha256("80085"), "b3786e141d65638ad8a98173e26b5f6a53c927737b23ff31fb1843937250f44b")
|
tst.AssertEqual(t, StrSha256("80085"), "b3786e141d65638ad8a98173e26b5f6a53c927737b23ff31fb1843937250f44b")
|
||||||
assertEqual(t, StrSha256("Hello World"), "a591a6d40bf420404a011733cfb7b190d62c65bf0bcda32b57b277d9ad9f146e")
|
tst.AssertEqual(t, StrSha256("Hello World"), "a591a6d40bf420404a011733cfb7b190d62c65bf0bcda32b57b277d9ad9f146e")
|
||||||
}
|
}
|
||||||
|
|
||||||
func TestBytesSha256(t *testing.T) {
|
func TestBytesSha256(t *testing.T) {
|
||||||
assertEqual(t, BytesSha256([]byte{}), "e3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855")
|
tst.AssertEqual(t, BytesSha256([]byte{}), "e3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855")
|
||||||
assertEqual(t, BytesSha256([]byte{0}), "6e340b9cffb37a989ca544e6bb780a2c78901d3fb33738768511a30617afa01d")
|
tst.AssertEqual(t, BytesSha256([]byte{0}), "6e340b9cffb37a989ca544e6bb780a2c78901d3fb33738768511a30617afa01d")
|
||||||
assertEqual(t, BytesSha256([]byte{128}), "76be8b528d0075f7aae98d6fa57a6d3c83ae480a8469e668d7b0af968995ac71")
|
tst.AssertEqual(t, BytesSha256([]byte{128}), "76be8b528d0075f7aae98d6fa57a6d3c83ae480a8469e668d7b0af968995ac71")
|
||||||
assertEqual(t, BytesSha256([]byte{0, 1, 2, 4, 8, 16, 32, 64, 128, 255}), "55016a318ba538e00123c736b2a8b6db368d00e7e25727547655b653e5853603")
|
tst.AssertEqual(t, BytesSha256([]byte{0, 1, 2, 4, 8, 16, 32, 64, 128, 255}), "55016a318ba538e00123c736b2a8b6db368d00e7e25727547655b653e5853603")
|
||||||
}
|
|
||||||
|
|
||||||
func assertEqual(t *testing.T, actual string, expected string) {
|
|
||||||
if actual != expected {
|
|
||||||
t.Errorf("values differ: Actual: '%v', Expected: '%v'", actual, expected)
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
func assertNotEqual(t *testing.T, actual string, expected string) {
|
|
||||||
if actual == expected {
|
|
||||||
t.Errorf("values do not differ: Actual: '%v', Expected: '%v'", actual, expected)
|
|
||||||
}
|
|
||||||
}
|
}
|
||||||
|
8
cursortoken/direction.go
Normal file
8
cursortoken/direction.go
Normal file
@@ -0,0 +1,8 @@
|
|||||||
|
package cursortoken
|
||||||
|
|
||||||
|
type SortDirection string //@enum:type
|
||||||
|
|
||||||
|
const (
|
||||||
|
SortASC SortDirection = "ASC"
|
||||||
|
SortDESC SortDirection = "DESC"
|
||||||
|
)
|
10
cursortoken/filter.go
Normal file
10
cursortoken/filter.go
Normal file
@@ -0,0 +1,10 @@
|
|||||||
|
package cursortoken
|
||||||
|
|
||||||
|
import (
|
||||||
|
"go.mongodb.org/mongo-driver/mongo"
|
||||||
|
)
|
||||||
|
|
||||||
|
type Filter interface {
|
||||||
|
FilterQuery() mongo.Pipeline
|
||||||
|
Pagination() (string, SortDirection, string, SortDirection)
|
||||||
|
}
|
184
cursortoken/token.go
Normal file
184
cursortoken/token.go
Normal file
@@ -0,0 +1,184 @@
|
|||||||
|
package cursortoken
|
||||||
|
|
||||||
|
import (
|
||||||
|
"encoding/base32"
|
||||||
|
"encoding/json"
|
||||||
|
"errors"
|
||||||
|
"go.mongodb.org/mongo-driver/bson/primitive"
|
||||||
|
"strings"
|
||||||
|
"time"
|
||||||
|
)
|
||||||
|
|
||||||
|
type Mode string
|
||||||
|
|
||||||
|
const (
|
||||||
|
CTMStart Mode = "START"
|
||||||
|
CTMNormal Mode = "NORMAL"
|
||||||
|
CTMEnd Mode = "END"
|
||||||
|
)
|
||||||
|
|
||||||
|
type Extra struct {
|
||||||
|
Timestamp *time.Time
|
||||||
|
Id *string
|
||||||
|
Page *int
|
||||||
|
PageSize *int
|
||||||
|
}
|
||||||
|
|
||||||
|
type CursorToken struct {
|
||||||
|
Mode Mode
|
||||||
|
ValuePrimary string
|
||||||
|
ValueSecondary string
|
||||||
|
Direction SortDirection
|
||||||
|
DirectionSecondary SortDirection
|
||||||
|
PageSize int
|
||||||
|
Extra Extra
|
||||||
|
}
|
||||||
|
|
||||||
|
type cursorTokenSerialize struct {
|
||||||
|
ValuePrimary *string `json:"v1,omitempty"`
|
||||||
|
ValueSecondary *string `json:"v2,omitempty"`
|
||||||
|
Direction *SortDirection `json:"dir,omitempty"`
|
||||||
|
DirectionSecondary *SortDirection `json:"dir2,omitempty"`
|
||||||
|
PageSize *int `json:"size,omitempty"`
|
||||||
|
|
||||||
|
ExtraTimestamp *time.Time `json:"ts,omitempty"`
|
||||||
|
ExtraId *string `json:"id,omitempty"`
|
||||||
|
ExtraPage *int `json:"pg,omitempty"`
|
||||||
|
ExtraPageSize *int `json:"sz,omitempty"`
|
||||||
|
}
|
||||||
|
|
||||||
|
func Start() CursorToken {
|
||||||
|
return CursorToken{
|
||||||
|
Mode: CTMStart,
|
||||||
|
ValuePrimary: "",
|
||||||
|
ValueSecondary: "",
|
||||||
|
Direction: "",
|
||||||
|
DirectionSecondary: "",
|
||||||
|
PageSize: 0,
|
||||||
|
Extra: Extra{},
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
func End() CursorToken {
|
||||||
|
return CursorToken{
|
||||||
|
Mode: CTMEnd,
|
||||||
|
ValuePrimary: "",
|
||||||
|
ValueSecondary: "",
|
||||||
|
Direction: "",
|
||||||
|
DirectionSecondary: "",
|
||||||
|
PageSize: 0,
|
||||||
|
Extra: Extra{},
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
func (c *CursorToken) Token() string {
|
||||||
|
if c.Mode == CTMStart {
|
||||||
|
return "@start"
|
||||||
|
}
|
||||||
|
if c.Mode == CTMEnd {
|
||||||
|
return "@end"
|
||||||
|
}
|
||||||
|
|
||||||
|
// We kinda manually implement omitempty for the CursorToken here
|
||||||
|
// because omitempty does not work for time.Time and otherwise we would always
|
||||||
|
// get weird time values when decoding a token that initially didn't have an Timestamp set
|
||||||
|
// For this usecase we treat Unix=0 as an empty timestamp
|
||||||
|
|
||||||
|
sertok := cursorTokenSerialize{}
|
||||||
|
|
||||||
|
if c.ValuePrimary != "" {
|
||||||
|
sertok.ValuePrimary = &c.ValuePrimary
|
||||||
|
}
|
||||||
|
if c.ValueSecondary != "" {
|
||||||
|
sertok.ValueSecondary = &c.ValueSecondary
|
||||||
|
}
|
||||||
|
if c.Direction != "" {
|
||||||
|
sertok.Direction = &c.Direction
|
||||||
|
}
|
||||||
|
if c.DirectionSecondary != "" {
|
||||||
|
sertok.DirectionSecondary = &c.DirectionSecondary
|
||||||
|
}
|
||||||
|
if c.PageSize != 0 {
|
||||||
|
sertok.PageSize = &c.PageSize
|
||||||
|
}
|
||||||
|
|
||||||
|
sertok.ExtraTimestamp = c.Extra.Timestamp
|
||||||
|
sertok.ExtraId = c.Extra.Id
|
||||||
|
sertok.ExtraPage = c.Extra.Page
|
||||||
|
sertok.ExtraPageSize = c.Extra.PageSize
|
||||||
|
|
||||||
|
body, err := json.Marshal(sertok)
|
||||||
|
if err != nil {
|
||||||
|
panic(err)
|
||||||
|
}
|
||||||
|
|
||||||
|
return "tok_" + base32.StdEncoding.EncodeToString(body)
|
||||||
|
}
|
||||||
|
|
||||||
|
func Decode(tok string) (CursorToken, error) {
|
||||||
|
if tok == "" {
|
||||||
|
return Start(), nil
|
||||||
|
}
|
||||||
|
if strings.ToLower(tok) == "@start" {
|
||||||
|
return Start(), nil
|
||||||
|
}
|
||||||
|
if strings.ToLower(tok) == "@end" {
|
||||||
|
return End(), nil
|
||||||
|
}
|
||||||
|
|
||||||
|
if !strings.HasPrefix(tok, "tok_") {
|
||||||
|
return CursorToken{}, errors.New("could not decode token, missing prefix")
|
||||||
|
}
|
||||||
|
|
||||||
|
body, err := base32.StdEncoding.DecodeString(tok[len("tok_"):])
|
||||||
|
if err != nil {
|
||||||
|
return CursorToken{}, err
|
||||||
|
}
|
||||||
|
|
||||||
|
var tokenDeserialize cursorTokenSerialize
|
||||||
|
err = json.Unmarshal(body, &tokenDeserialize)
|
||||||
|
if err != nil {
|
||||||
|
return CursorToken{}, err
|
||||||
|
}
|
||||||
|
|
||||||
|
token := CursorToken{Mode: CTMNormal}
|
||||||
|
|
||||||
|
if tokenDeserialize.ValuePrimary != nil {
|
||||||
|
token.ValuePrimary = *tokenDeserialize.ValuePrimary
|
||||||
|
}
|
||||||
|
if tokenDeserialize.ValueSecondary != nil {
|
||||||
|
token.ValueSecondary = *tokenDeserialize.ValueSecondary
|
||||||
|
}
|
||||||
|
if tokenDeserialize.Direction != nil {
|
||||||
|
token.Direction = *tokenDeserialize.Direction
|
||||||
|
}
|
||||||
|
if tokenDeserialize.DirectionSecondary != nil {
|
||||||
|
token.DirectionSecondary = *tokenDeserialize.DirectionSecondary
|
||||||
|
}
|
||||||
|
if tokenDeserialize.PageSize != nil {
|
||||||
|
token.PageSize = *tokenDeserialize.PageSize
|
||||||
|
}
|
||||||
|
|
||||||
|
token.Extra.Timestamp = tokenDeserialize.ExtraTimestamp
|
||||||
|
token.Extra.Id = tokenDeserialize.ExtraId
|
||||||
|
token.Extra.Page = tokenDeserialize.ExtraPage
|
||||||
|
token.Extra.PageSize = tokenDeserialize.ExtraPageSize
|
||||||
|
|
||||||
|
return token, nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func (c *CursorToken) ValuePrimaryObjectId() (primitive.ObjectID, bool) {
|
||||||
|
if oid, err := primitive.ObjectIDFromHex(c.ValuePrimary); err == nil {
|
||||||
|
return oid, true
|
||||||
|
} else {
|
||||||
|
return primitive.ObjectID{}, false
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
func (c *CursorToken) ValueSecondaryObjectId() (primitive.ObjectID, bool) {
|
||||||
|
if oid, err := primitive.ObjectIDFromHex(c.ValueSecondary); err == nil {
|
||||||
|
return oid, true
|
||||||
|
} else {
|
||||||
|
return primitive.ObjectID{}, false
|
||||||
|
}
|
||||||
|
}
|
@@ -2,6 +2,7 @@ package dataext
|
|||||||
|
|
||||||
import (
|
import (
|
||||||
"gogs.mikescher.com/BlackForestBytes/goext/langext"
|
"gogs.mikescher.com/BlackForestBytes/goext/langext"
|
||||||
|
"gogs.mikescher.com/BlackForestBytes/goext/tst"
|
||||||
"testing"
|
"testing"
|
||||||
)
|
)
|
||||||
|
|
||||||
@@ -43,10 +44,10 @@ func TestObjectMerge(t *testing.T) {
|
|||||||
|
|
||||||
valueMerge := ObjectMerge(valueA, valueB)
|
valueMerge := ObjectMerge(valueA, valueB)
|
||||||
|
|
||||||
assertPtrEqual(t, "Field1", valueMerge.Field1, valueB.Field1)
|
tst.AssertIdentPtrEqual(t, "Field1", valueMerge.Field1, valueB.Field1)
|
||||||
assertPtrEqual(t, "Field2", valueMerge.Field2, valueA.Field2)
|
tst.AssertIdentPtrEqual(t, "Field2", valueMerge.Field2, valueA.Field2)
|
||||||
assertPtrEqual(t, "Field3", valueMerge.Field3, valueB.Field3)
|
tst.AssertIdentPtrEqual(t, "Field3", valueMerge.Field3, valueB.Field3)
|
||||||
assertPtrEqual(t, "Field4", valueMerge.Field4, nil)
|
tst.AssertIdentPtrEqual(t, "Field4", valueMerge.Field4, nil)
|
||||||
|
|
||||||
}
|
}
|
||||||
|
|
||||||
|
@@ -1,8 +1,8 @@
|
|||||||
package dataext
|
package dataext
|
||||||
|
|
||||||
import (
|
import (
|
||||||
"encoding/hex"
|
|
||||||
"gogs.mikescher.com/BlackForestBytes/goext/langext"
|
"gogs.mikescher.com/BlackForestBytes/goext/langext"
|
||||||
|
"gogs.mikescher.com/BlackForestBytes/goext/tst"
|
||||||
"testing"
|
"testing"
|
||||||
)
|
)
|
||||||
|
|
||||||
@@ -18,14 +18,14 @@ func noErrStructHash(t *testing.T, dat any, opt ...StructHashOptions) []byte {
|
|||||||
|
|
||||||
func TestStructHashSimple(t *testing.T) {
|
func TestStructHashSimple(t *testing.T) {
|
||||||
|
|
||||||
assertEqual(t, "209bf774af36cc3a045c152d9f1269ef3684ad819c1359ee73ff0283a308fefa", noErrStructHash(t, "Hello"))
|
tst.AssertHexEqual(t, "209bf774af36cc3a045c152d9f1269ef3684ad819c1359ee73ff0283a308fefa", noErrStructHash(t, "Hello"))
|
||||||
assertEqual(t, "c32f3626b981ae2997db656f3acad3f1dc9d30ef6b6d14296c023e391b25f71a", noErrStructHash(t, 0))
|
tst.AssertHexEqual(t, "c32f3626b981ae2997db656f3acad3f1dc9d30ef6b6d14296c023e391b25f71a", noErrStructHash(t, 0))
|
||||||
assertEqual(t, "01b781b03e9586b257d387057dfc70d9f06051e7d3c1e709a57e13cc8daf3e35", noErrStructHash(t, []byte{}))
|
tst.AssertHexEqual(t, "01b781b03e9586b257d387057dfc70d9f06051e7d3c1e709a57e13cc8daf3e35", noErrStructHash(t, []byte{}))
|
||||||
assertEqual(t, "93e1dcd45c732fe0079b0fb3204c7c803f0921835f6bfee2e6ff263e73eed53c", noErrStructHash(t, []int{}))
|
tst.AssertHexEqual(t, "93e1dcd45c732fe0079b0fb3204c7c803f0921835f6bfee2e6ff263e73eed53c", noErrStructHash(t, []int{}))
|
||||||
assertEqual(t, "54f637a376aad55b3160d98ebbcae8099b70d91b9400df23fb3709855d59800a", noErrStructHash(t, []int{1, 2, 3}))
|
tst.AssertHexEqual(t, "54f637a376aad55b3160d98ebbcae8099b70d91b9400df23fb3709855d59800a", noErrStructHash(t, []int{1, 2, 3}))
|
||||||
assertEqual(t, "e3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855", noErrStructHash(t, nil))
|
tst.AssertHexEqual(t, "e3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855", noErrStructHash(t, nil))
|
||||||
assertEqual(t, "349a7db91aa78fd30bbaa7c7f9c7bfb2fcfe72869b4861162a96713a852f60d3", noErrStructHash(t, []any{1, "", nil}))
|
tst.AssertHexEqual(t, "349a7db91aa78fd30bbaa7c7f9c7bfb2fcfe72869b4861162a96713a852f60d3", noErrStructHash(t, []any{1, "", nil}))
|
||||||
assertEqual(t, "ca51aab87808bf0062a4a024de6aac0c2bad54275cc857a4944569f89fd245ad", noErrStructHash(t, struct{}{}))
|
tst.AssertHexEqual(t, "ca51aab87808bf0062a4a024de6aac0c2bad54275cc857a4944569f89fd245ad", noErrStructHash(t, struct{}{}))
|
||||||
|
|
||||||
}
|
}
|
||||||
|
|
||||||
@@ -37,13 +37,13 @@ func TestStructHashSimpleStruct(t *testing.T) {
|
|||||||
F3 *int
|
F3 *int
|
||||||
}
|
}
|
||||||
|
|
||||||
assertEqual(t, "a90bff751c70c738bb5cfc9b108e783fa9c19c0bc9273458e0aaee6e74aa1b92", noErrStructHash(t, t0{
|
tst.AssertHexEqual(t, "a90bff751c70c738bb5cfc9b108e783fa9c19c0bc9273458e0aaee6e74aa1b92", noErrStructHash(t, t0{
|
||||||
F1: 10,
|
F1: 10,
|
||||||
F2: []string{"1", "2", "3"},
|
F2: []string{"1", "2", "3"},
|
||||||
F3: nil,
|
F3: nil,
|
||||||
}))
|
}))
|
||||||
|
|
||||||
assertEqual(t, "5d09090dc34ac59dd645f197a255f653387723de3afa1b614721ea5a081c675f", noErrStructHash(t, t0{
|
tst.AssertHexEqual(t, "5d09090dc34ac59dd645f197a255f653387723de3afa1b614721ea5a081c675f", noErrStructHash(t, t0{
|
||||||
F1: 10,
|
F1: 10,
|
||||||
F2: []string{"1", "2", "3"},
|
F2: []string{"1", "2", "3"},
|
||||||
F3: langext.Ptr(99),
|
F3: langext.Ptr(99),
|
||||||
@@ -64,7 +64,7 @@ func TestStructHashLayeredStruct(t *testing.T) {
|
|||||||
SV3 t1_1
|
SV3 t1_1
|
||||||
}
|
}
|
||||||
|
|
||||||
assertEqual(t, "fd4ca071fb40a288fee4b7a3dfdaab577b30cb8f80f81ec511e7afd72dc3b469", noErrStructHash(t, t1_2{
|
tst.AssertHexEqual(t, "fd4ca071fb40a288fee4b7a3dfdaab577b30cb8f80f81ec511e7afd72dc3b469", noErrStructHash(t, t1_2{
|
||||||
SV1: nil,
|
SV1: nil,
|
||||||
SV2: nil,
|
SV2: nil,
|
||||||
SV3: t1_1{
|
SV3: t1_1{
|
||||||
@@ -73,7 +73,7 @@ func TestStructHashLayeredStruct(t *testing.T) {
|
|||||||
F15: false,
|
F15: false,
|
||||||
},
|
},
|
||||||
}))
|
}))
|
||||||
assertEqual(t, "3fbf7c67d8121deda075cc86319a4e32d71744feb2cebf89b43bc682f072a029", noErrStructHash(t, t1_2{
|
tst.AssertHexEqual(t, "3fbf7c67d8121deda075cc86319a4e32d71744feb2cebf89b43bc682f072a029", noErrStructHash(t, t1_2{
|
||||||
SV1: nil,
|
SV1: nil,
|
||||||
SV2: &t1_1{},
|
SV2: &t1_1{},
|
||||||
SV3: t1_1{
|
SV3: t1_1{
|
||||||
@@ -82,7 +82,7 @@ func TestStructHashLayeredStruct(t *testing.T) {
|
|||||||
F15: true,
|
F15: true,
|
||||||
},
|
},
|
||||||
}))
|
}))
|
||||||
assertEqual(t, "b1791ccd1b346c3ede5bbffda85555adcd8216b93ffca23f14fe175ec47c5104", noErrStructHash(t, t1_2{
|
tst.AssertHexEqual(t, "b1791ccd1b346c3ede5bbffda85555adcd8216b93ffca23f14fe175ec47c5104", noErrStructHash(t, t1_2{
|
||||||
SV1: &t1_1{},
|
SV1: &t1_1{},
|
||||||
SV2: &t1_1{},
|
SV2: &t1_1{},
|
||||||
SV3: t1_1{
|
SV3: t1_1{
|
||||||
@@ -101,7 +101,7 @@ func TestStructHashMap(t *testing.T) {
|
|||||||
F2 map[string]int
|
F2 map[string]int
|
||||||
}
|
}
|
||||||
|
|
||||||
assertEqual(t, "d50c53ad1fafb448c33fddd5aca01a86a2edf669ce2ecab07ba6fe877951d824", noErrStructHash(t, t0{
|
tst.AssertHexEqual(t, "d50c53ad1fafb448c33fddd5aca01a86a2edf669ce2ecab07ba6fe877951d824", noErrStructHash(t, t0{
|
||||||
F1: 10,
|
F1: 10,
|
||||||
F2: map[string]int{
|
F2: map[string]int{
|
||||||
"x": 1,
|
"x": 1,
|
||||||
@@ -110,7 +110,7 @@ func TestStructHashMap(t *testing.T) {
|
|||||||
},
|
},
|
||||||
}))
|
}))
|
||||||
|
|
||||||
assertEqual(t, "d50c53ad1fafb448c33fddd5aca01a86a2edf669ce2ecab07ba6fe877951d824", noErrStructHash(t, t0{
|
tst.AssertHexEqual(t, "d50c53ad1fafb448c33fddd5aca01a86a2edf669ce2ecab07ba6fe877951d824", noErrStructHash(t, t0{
|
||||||
F1: 10,
|
F1: 10,
|
||||||
F2: map[string]int{
|
F2: map[string]int{
|
||||||
"a": 99,
|
"a": 99,
|
||||||
@@ -128,16 +128,9 @@ func TestStructHashMap(t *testing.T) {
|
|||||||
m3["x"] = 1
|
m3["x"] = 1
|
||||||
m3["a"] = 2
|
m3["a"] = 2
|
||||||
|
|
||||||
assertEqual(t, "d50c53ad1fafb448c33fddd5aca01a86a2edf669ce2ecab07ba6fe877951d824", noErrStructHash(t, t0{
|
tst.AssertHexEqual(t, "d50c53ad1fafb448c33fddd5aca01a86a2edf669ce2ecab07ba6fe877951d824", noErrStructHash(t, t0{
|
||||||
F1: 10,
|
F1: 10,
|
||||||
F2: m3,
|
F2: m3,
|
||||||
}))
|
}))
|
||||||
|
|
||||||
}
|
}
|
||||||
|
|
||||||
func assertEqual(t *testing.T, expected string, actual []byte) {
|
|
||||||
actualStr := hex.EncodeToString(actual)
|
|
||||||
if actualStr != expected {
|
|
||||||
t.Errorf("values differ: Actual: '%v', Expected: '%v'", actualStr, expected)
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
20
go.mod
20
go.mod
@@ -3,12 +3,22 @@ module gogs.mikescher.com/BlackForestBytes/goext
|
|||||||
go 1.19
|
go 1.19
|
||||||
|
|
||||||
require (
|
require (
|
||||||
golang.org/x/sys v0.3.0
|
github.com/jmoiron/sqlx v1.3.5
|
||||||
golang.org/x/term v0.3.0
|
go.mongodb.org/mongo-driver v1.12.0
|
||||||
|
golang.org/x/crypto v0.11.0
|
||||||
|
golang.org/x/sys v0.10.0
|
||||||
|
golang.org/x/term v0.10.0
|
||||||
)
|
)
|
||||||
|
|
||||||
require (
|
require (
|
||||||
github.com/jmoiron/sqlx v1.3.5 // indirect
|
github.com/golang/snappy v0.0.4 // indirect
|
||||||
go.mongodb.org/mongo-driver v1.11.1 // indirect
|
github.com/klauspost/compress v1.16.7 // indirect
|
||||||
golang.org/x/crypto v0.4.0 // indirect
|
github.com/montanaflynn/stats v0.7.1 // indirect
|
||||||
|
github.com/pkg/errors v0.9.1 // indirect
|
||||||
|
github.com/xdg-go/pbkdf2 v1.0.0 // indirect
|
||||||
|
github.com/xdg-go/scram v1.1.2 // indirect
|
||||||
|
github.com/xdg-go/stringprep v1.0.4 // indirect
|
||||||
|
github.com/youmark/pkcs8 v0.0.0-20201027041543-1326539a0a0a // indirect
|
||||||
|
golang.org/x/sync v0.3.0 // indirect
|
||||||
|
golang.org/x/text v0.11.0 // indirect
|
||||||
)
|
)
|
||||||
|
98
go.sum
98
go.sum
@@ -1,50 +1,140 @@
|
|||||||
github.com/davecgh/go-spew v1.1.0/go.mod h1:J7Y8YcW2NihsgmVo/mv3lAwl/skON4iLHjSsI+c5H38=
|
github.com/davecgh/go-spew v1.1.0/go.mod h1:J7Y8YcW2NihsgmVo/mv3lAwl/skON4iLHjSsI+c5H38=
|
||||||
|
github.com/davecgh/go-spew v1.1.1 h1:vj9j/u1bqnvCEfJOwUhtlOARqs3+rkHYY13jYWTU97c=
|
||||||
github.com/davecgh/go-spew v1.1.1/go.mod h1:J7Y8YcW2NihsgmVo/mv3lAwl/skON4iLHjSsI+c5H38=
|
github.com/davecgh/go-spew v1.1.1/go.mod h1:J7Y8YcW2NihsgmVo/mv3lAwl/skON4iLHjSsI+c5H38=
|
||||||
|
github.com/go-sql-driver/mysql v1.6.0 h1:BCTh4TKNUYmOmMUcQ3IipzF5prigylS7XXjEkfCHuOE=
|
||||||
github.com/go-sql-driver/mysql v1.6.0/go.mod h1:DCzpHaOWr8IXmIStZouvnhqoel9Qv2LBy8hT2VhHyBg=
|
github.com/go-sql-driver/mysql v1.6.0/go.mod h1:DCzpHaOWr8IXmIStZouvnhqoel9Qv2LBy8hT2VhHyBg=
|
||||||
|
github.com/golang/snappy v0.0.1 h1:Qgr9rKW7uDUkrbSmQeiDsGa8SjGyCOGtuasMWwvp2P4=
|
||||||
github.com/golang/snappy v0.0.1/go.mod h1:/XxbfmMg8lxefKM7IXC3fBNl/7bRcc72aCRzEWrmP2Q=
|
github.com/golang/snappy v0.0.1/go.mod h1:/XxbfmMg8lxefKM7IXC3fBNl/7bRcc72aCRzEWrmP2Q=
|
||||||
|
github.com/golang/snappy v0.0.4 h1:yAGX7huGHXlcLOEtBnF4w7FQwA26wojNCwOYAEhLjQM=
|
||||||
|
github.com/golang/snappy v0.0.4/go.mod h1:/XxbfmMg8lxefKM7IXC3fBNl/7bRcc72aCRzEWrmP2Q=
|
||||||
|
github.com/google/go-cmp v0.5.2 h1:X2ev0eStA3AbceY54o37/0PQ/UWqKEiiO2dKL5OPaFM=
|
||||||
github.com/google/go-cmp v0.5.2/go.mod h1:v8dTdLbMG2kIc/vJvl+f65V22dbkXbowE6jgT/gNBxE=
|
github.com/google/go-cmp v0.5.2/go.mod h1:v8dTdLbMG2kIc/vJvl+f65V22dbkXbowE6jgT/gNBxE=
|
||||||
github.com/jmoiron/sqlx v1.3.5 h1:vFFPA71p1o5gAeqtEAwLU4dnX2napprKtHr7PYIcN3g=
|
github.com/jmoiron/sqlx v1.3.5 h1:vFFPA71p1o5gAeqtEAwLU4dnX2napprKtHr7PYIcN3g=
|
||||||
github.com/jmoiron/sqlx v1.3.5/go.mod h1:nRVWtLre0KfCLJvgxzCsLVMogSvQ1zNJtpYr2Ccp0mQ=
|
github.com/jmoiron/sqlx v1.3.5/go.mod h1:nRVWtLre0KfCLJvgxzCsLVMogSvQ1zNJtpYr2Ccp0mQ=
|
||||||
|
github.com/klauspost/compress v1.13.6 h1:P76CopJELS0TiO2mebmnzgWaajssP/EszplttgQxcgc=
|
||||||
github.com/klauspost/compress v1.13.6/go.mod h1:/3/Vjq9QcHkK5uEr5lBEmyoZ1iFhe47etQ6QUkpK6sk=
|
github.com/klauspost/compress v1.13.6/go.mod h1:/3/Vjq9QcHkK5uEr5lBEmyoZ1iFhe47etQ6QUkpK6sk=
|
||||||
|
github.com/klauspost/compress v1.16.5 h1:IFV2oUNUzZaz+XyusxpLzpzS8Pt5rh0Z16For/djlyI=
|
||||||
|
github.com/klauspost/compress v1.16.5/go.mod h1:ntbaceVETuRiXiv4DpjP66DpAtAGkEQskQzEyD//IeE=
|
||||||
|
github.com/klauspost/compress v1.16.6 h1:91SKEy4K37vkp255cJ8QesJhjyRO0hn9i9G0GoUwLsk=
|
||||||
|
github.com/klauspost/compress v1.16.6/go.mod h1:ntbaceVETuRiXiv4DpjP66DpAtAGkEQskQzEyD//IeE=
|
||||||
|
github.com/klauspost/compress v1.16.7 h1:2mk3MPGNzKyxErAw8YaohYh69+pa4sIQSC0fPGCFR9I=
|
||||||
|
github.com/klauspost/compress v1.16.7/go.mod h1:ntbaceVETuRiXiv4DpjP66DpAtAGkEQskQzEyD//IeE=
|
||||||
|
github.com/kr/pretty v0.1.0 h1:L/CwN0zerZDmRFUapSPitk6f+Q3+0za1rQkzVuMiMFI=
|
||||||
github.com/kr/pretty v0.1.0/go.mod h1:dAy3ld7l9f0ibDNOQOHHMYYIIbhfbHSm3C4ZsoJORNo=
|
github.com/kr/pretty v0.1.0/go.mod h1:dAy3ld7l9f0ibDNOQOHHMYYIIbhfbHSm3C4ZsoJORNo=
|
||||||
github.com/kr/pty v1.1.1/go.mod h1:pFQYn66WHrOpPYNljwOMqo10TkYh1fy3cYio2l3bCsQ=
|
github.com/kr/pty v1.1.1/go.mod h1:pFQYn66WHrOpPYNljwOMqo10TkYh1fy3cYio2l3bCsQ=
|
||||||
|
github.com/kr/text v0.1.0 h1:45sCR5RtlFHMR4UwH9sdQ5TC8v0qDQCHnXt+kaKSTVE=
|
||||||
github.com/kr/text v0.1.0/go.mod h1:4Jbv+DJW3UT/LiOwJeYQe1efqtUx/iVham/4vfdArNI=
|
github.com/kr/text v0.1.0/go.mod h1:4Jbv+DJW3UT/LiOwJeYQe1efqtUx/iVham/4vfdArNI=
|
||||||
|
github.com/lib/pq v1.2.0 h1:LXpIM/LZ5xGFhOpXAQUIMM1HdyqzVYM13zNdjCEEcA0=
|
||||||
github.com/lib/pq v1.2.0/go.mod h1:5WUZQaWbwv1U+lTReE5YruASi9Al49XbQIvNi/34Woo=
|
github.com/lib/pq v1.2.0/go.mod h1:5WUZQaWbwv1U+lTReE5YruASi9Al49XbQIvNi/34Woo=
|
||||||
|
github.com/mattn/go-sqlite3 v1.14.6 h1:dNPt6NO46WmLVt2DLNpwczCmdV5boIZ6g/tlDrlRUbg=
|
||||||
github.com/mattn/go-sqlite3 v1.14.6/go.mod h1:NyWgC/yNuGj7Q9rpYnZvas74GogHl5/Z4A/KQRfk6bU=
|
github.com/mattn/go-sqlite3 v1.14.6/go.mod h1:NyWgC/yNuGj7Q9rpYnZvas74GogHl5/Z4A/KQRfk6bU=
|
||||||
|
github.com/montanaflynn/stats v0.0.0-20171201202039-1bf9dbcd8cbe h1:iruDEfMl2E6fbMZ9s0scYfZQ84/6SPL6zC8ACM2oIL0=
|
||||||
github.com/montanaflynn/stats v0.0.0-20171201202039-1bf9dbcd8cbe/go.mod h1:wL8QJuTMNUDYhXwkmfOly8iTdp5TEcJFWZD2D7SIkUc=
|
github.com/montanaflynn/stats v0.0.0-20171201202039-1bf9dbcd8cbe/go.mod h1:wL8QJuTMNUDYhXwkmfOly8iTdp5TEcJFWZD2D7SIkUc=
|
||||||
|
github.com/montanaflynn/stats v0.7.1 h1:etflOAAHORrCC44V+aR6Ftzort912ZU+YLiSTuV8eaE=
|
||||||
|
github.com/montanaflynn/stats v0.7.1/go.mod h1:etXPPgVO6n31NxCd9KQUMvCM+ve0ruNzt6R8Bnaayow=
|
||||||
|
github.com/pkg/errors v0.9.1 h1:FEBLx1zS214owpjy7qsBeixbURkuhQAwrK5UwLGTwt4=
|
||||||
github.com/pkg/errors v0.9.1/go.mod h1:bwawxfHBFNV+L2hUp1rHADufV3IMtnDRdf1r5NINEl0=
|
github.com/pkg/errors v0.9.1/go.mod h1:bwawxfHBFNV+L2hUp1rHADufV3IMtnDRdf1r5NINEl0=
|
||||||
|
github.com/pmezard/go-difflib v1.0.0 h1:4DBwDE0NGyQoBHbLQYPwSUPoCMWR5BEzIk/f1lZbAQM=
|
||||||
github.com/pmezard/go-difflib v1.0.0/go.mod h1:iKH77koFhYxTK1pcRnkKkqfTogsbg7gZNVY4sRDYZ/4=
|
github.com/pmezard/go-difflib v1.0.0/go.mod h1:iKH77koFhYxTK1pcRnkKkqfTogsbg7gZNVY4sRDYZ/4=
|
||||||
github.com/stretchr/objx v0.1.0/go.mod h1:HFkY916IF+rwdDfMAkV7OtwuqBVzrE8GR6GFx+wExME=
|
github.com/stretchr/objx v0.1.0/go.mod h1:HFkY916IF+rwdDfMAkV7OtwuqBVzrE8GR6GFx+wExME=
|
||||||
|
github.com/stretchr/testify v1.6.1 h1:hDPOHmpOpP40lSULcqw7IrRb/u7w6RpDC9399XyoNd0=
|
||||||
github.com/stretchr/testify v1.6.1/go.mod h1:6Fq8oRcR53rry900zMqJjRRixrwX3KX962/h/Wwjteg=
|
github.com/stretchr/testify v1.6.1/go.mod h1:6Fq8oRcR53rry900zMqJjRRixrwX3KX962/h/Wwjteg=
|
||||||
|
github.com/tidwall/pretty v1.0.0 h1:HsD+QiTn7sK6flMKIvNmpqz1qrpP3Ps6jOKIKMooyg4=
|
||||||
github.com/tidwall/pretty v1.0.0/go.mod h1:XNkn88O1ChpSDQmQeStsy+sBenx6DDtFZJxhVysOjyk=
|
github.com/tidwall/pretty v1.0.0/go.mod h1:XNkn88O1ChpSDQmQeStsy+sBenx6DDtFZJxhVysOjyk=
|
||||||
|
github.com/xdg-go/pbkdf2 v1.0.0 h1:Su7DPu48wXMwC3bs7MCNG+z4FhcyEuz5dlvchbq0B0c=
|
||||||
github.com/xdg-go/pbkdf2 v1.0.0/go.mod h1:jrpuAogTd400dnrH08LKmI/xc1MbPOebTwRqcT5RDeI=
|
github.com/xdg-go/pbkdf2 v1.0.0/go.mod h1:jrpuAogTd400dnrH08LKmI/xc1MbPOebTwRqcT5RDeI=
|
||||||
|
github.com/xdg-go/scram v1.1.1 h1:VOMT+81stJgXW3CpHyqHN3AXDYIMsx56mEFrB37Mb/E=
|
||||||
github.com/xdg-go/scram v1.1.1/go.mod h1:RaEWvsqvNKKvBPvcKeFjrG2cJqOkHTiyTpzz23ni57g=
|
github.com/xdg-go/scram v1.1.1/go.mod h1:RaEWvsqvNKKvBPvcKeFjrG2cJqOkHTiyTpzz23ni57g=
|
||||||
|
github.com/xdg-go/scram v1.1.2 h1:FHX5I5B4i4hKRVRBCFRxq1iQRej7WO3hhBuJf+UUySY=
|
||||||
|
github.com/xdg-go/scram v1.1.2/go.mod h1:RT/sEzTbU5y00aCK8UOx6R7YryM0iF1N2MOmC3kKLN4=
|
||||||
|
github.com/xdg-go/stringprep v1.0.3 h1:kdwGpVNwPFtjs98xCGkHjQtGKh86rDcRZN17QEMCOIs=
|
||||||
github.com/xdg-go/stringprep v1.0.3/go.mod h1:W3f5j4i+9rC0kuIEJL0ky1VpHXQU3ocBgklLGvcBnW8=
|
github.com/xdg-go/stringprep v1.0.3/go.mod h1:W3f5j4i+9rC0kuIEJL0ky1VpHXQU3ocBgklLGvcBnW8=
|
||||||
|
github.com/xdg-go/stringprep v1.0.4 h1:XLI/Ng3O1Atzq0oBs3TWm+5ZVgkq2aqdlvP9JtoZ6c8=
|
||||||
|
github.com/xdg-go/stringprep v1.0.4/go.mod h1:mPGuuIYwz7CmR2bT9j4GbQqutWS1zV24gijq1dTyGkM=
|
||||||
|
github.com/youmark/pkcs8 v0.0.0-20181117223130-1be2e3e5546d h1:splanxYIlg+5LfHAM6xpdFEAYOk8iySO56hMFq6uLyA=
|
||||||
github.com/youmark/pkcs8 v0.0.0-20181117223130-1be2e3e5546d/go.mod h1:rHwXgn7JulP+udvsHwJoVG1YGAP6VLg4y9I5dyZdqmA=
|
github.com/youmark/pkcs8 v0.0.0-20181117223130-1be2e3e5546d/go.mod h1:rHwXgn7JulP+udvsHwJoVG1YGAP6VLg4y9I5dyZdqmA=
|
||||||
|
github.com/youmark/pkcs8 v0.0.0-20201027041543-1326539a0a0a h1:fZHgsYlfvtyqToslyjUt3VOPF4J7aK/3MPcK7xp3PDk=
|
||||||
|
github.com/youmark/pkcs8 v0.0.0-20201027041543-1326539a0a0a/go.mod h1:ul22v+Nro/R083muKhosV54bj5niojjWZvU8xrevuH4=
|
||||||
|
github.com/yuin/goldmark v1.4.13/go.mod h1:6yULJ656Px+3vBD8DxQVa3kxgyrAnzto9xy5taEt/CY=
|
||||||
go.mongodb.org/mongo-driver v1.11.1 h1:QP0znIRTuL0jf1oBQoAoM0C6ZJfBK4kx0Uumtv1A7w8=
|
go.mongodb.org/mongo-driver v1.11.1 h1:QP0znIRTuL0jf1oBQoAoM0C6ZJfBK4kx0Uumtv1A7w8=
|
||||||
go.mongodb.org/mongo-driver v1.11.1/go.mod h1:s7p5vEtfbeR1gYi6pnj3c3/urpbLv2T5Sfd6Rp2HBB8=
|
go.mongodb.org/mongo-driver v1.11.1/go.mod h1:s7p5vEtfbeR1gYi6pnj3c3/urpbLv2T5Sfd6Rp2HBB8=
|
||||||
|
go.mongodb.org/mongo-driver v1.11.7 h1:LIwYxASDLGUg/8wOhgOOZhX8tQa/9tgZPgzZoVqJvcs=
|
||||||
|
go.mongodb.org/mongo-driver v1.11.7/go.mod h1:G9TgswdsWjX4tmDA5zfs2+6AEPpYJwqblyjsfuh8oXY=
|
||||||
|
go.mongodb.org/mongo-driver v1.12.0 h1:aPx33jmn/rQuJXPQLZQ8NtfPQG8CaqgLThFtqRb0PiE=
|
||||||
|
go.mongodb.org/mongo-driver v1.12.0/go.mod h1:AZkxhPnFJUoH7kZlFkVKucV20K387miPfm7oimrSmK0=
|
||||||
|
golang.org/x/crypto v0.0.0-20190308221718-c2843e01d9a2/go.mod h1:djNgcEr1/C05ACkg1iLfiJU5Ep61QUkGW8qpdssI0+w=
|
||||||
|
golang.org/x/crypto v0.0.0-20200302210943-78000ba7a073/go.mod h1:LzIPMQfyMNhhGPhUkYOs5KpL4U8rLKemX1yGLhDgUto=
|
||||||
|
golang.org/x/crypto v0.0.0-20210921155107-089bfa567519/go.mod h1:GvvjBRRGRdwPK5ydBHafDWAxML/pGHZbMvKqRZ5+Abc=
|
||||||
golang.org/x/crypto v0.0.0-20220622213112-05595931fe9d/go.mod h1:IxCIyHEi3zRg3s0A5j5BB6A9Jmi73HwBIUl50j+osU4=
|
golang.org/x/crypto v0.0.0-20220622213112-05595931fe9d/go.mod h1:IxCIyHEi3zRg3s0A5j5BB6A9Jmi73HwBIUl50j+osU4=
|
||||||
golang.org/x/crypto v0.4.0 h1:UVQgzMY87xqpKNgb+kDsll2Igd33HszWHFLmpaRMq/8=
|
golang.org/x/crypto v0.4.0 h1:UVQgzMY87xqpKNgb+kDsll2Igd33HszWHFLmpaRMq/8=
|
||||||
golang.org/x/crypto v0.4.0/go.mod h1:3quD/ATkf6oY+rnes5c3ExXTbLc8mueNue5/DoinL80=
|
golang.org/x/crypto v0.4.0/go.mod h1:3quD/ATkf6oY+rnes5c3ExXTbLc8mueNue5/DoinL80=
|
||||||
|
golang.org/x/crypto v0.9.0 h1:LF6fAI+IutBocDJ2OT0Q1g8plpYljMZ4+lty+dsqw3g=
|
||||||
|
golang.org/x/crypto v0.9.0/go.mod h1:yrmDGqONDYtNj3tH8X9dzUun2m2lzPa9ngI6/RUPGR0=
|
||||||
|
golang.org/x/crypto v0.10.0 h1:LKqV2xt9+kDzSTfOhx4FrkEBcMrAgHSYgzywV9zcGmM=
|
||||||
|
golang.org/x/crypto v0.10.0/go.mod h1:o4eNf7Ede1fv+hwOwZsTHl9EsPFO6q6ZvYR8vYfY45I=
|
||||||
|
golang.org/x/crypto v0.11.0 h1:6Ewdq3tDic1mg5xRO4milcWCfMVQhI4NkqWWvqejpuA=
|
||||||
|
golang.org/x/crypto v0.11.0/go.mod h1:xgJhtzW8F9jGdVFWZESrid1U1bjeNy4zgy5cRr/CIio=
|
||||||
|
golang.org/x/mod v0.6.0-dev.0.20220419223038-86c51ed26bb4/go.mod h1:jJ57K6gSWd91VN4djpZkiMVwK6gcyfeH4XE8wZrZaV4=
|
||||||
|
golang.org/x/net v0.0.0-20190404232315-eb5bcb51f2a3/go.mod h1:t9HGtf8HONx5eT2rtn7q6eTqICYqUVnKs3thJo3Qplg=
|
||||||
|
golang.org/x/net v0.0.0-20190620200207-3b0461eec859/go.mod h1:z5CRVTTTmAJ677TzLLGU+0bjPO0LkuOLi4/5GtJWs/s=
|
||||||
|
golang.org/x/net v0.0.0-20210226172049-e18ecbb05110/go.mod h1:m0MpNAwzfU5UDzcl9v0D8zg8gWTRqZa9RBIspLL5mdg=
|
||||||
golang.org/x/net v0.0.0-20211112202133-69e39bad7dc2/go.mod h1:9nx3DQGgdP8bBQD5qxJ1jj9UTztislL4KSBs9R2vV5Y=
|
golang.org/x/net v0.0.0-20211112202133-69e39bad7dc2/go.mod h1:9nx3DQGgdP8bBQD5qxJ1jj9UTztislL4KSBs9R2vV5Y=
|
||||||
|
golang.org/x/net v0.0.0-20220722155237-a158d28d115b/go.mod h1:XRhObCWvk6IyKnWLug+ECip1KBveYUHfp+8e9klMJ9c=
|
||||||
|
golang.org/x/sync v0.0.0-20190423024810-112230192c58/go.mod h1:RxMgew5VJxzue5/jJTE5uejpjVlOe/izrB70Jof72aM=
|
||||||
|
golang.org/x/sync v0.0.0-20210220032951-036812b2e83c h1:5KslGYwFpkhGh+Q16bwMP3cOontH8FOep7tGV86Y7SQ=
|
||||||
golang.org/x/sync v0.0.0-20210220032951-036812b2e83c/go.mod h1:RxMgew5VJxzue5/jJTE5uejpjVlOe/izrB70Jof72aM=
|
golang.org/x/sync v0.0.0-20210220032951-036812b2e83c/go.mod h1:RxMgew5VJxzue5/jJTE5uejpjVlOe/izrB70Jof72aM=
|
||||||
|
golang.org/x/sync v0.0.0-20220722155255-886fb9371eb4/go.mod h1:RxMgew5VJxzue5/jJTE5uejpjVlOe/izrB70Jof72aM=
|
||||||
|
golang.org/x/sync v0.2.0 h1:PUR+T4wwASmuSTYdKjYHI5TD22Wy5ogLU5qZCOLxBrI=
|
||||||
|
golang.org/x/sync v0.2.0/go.mod h1:RxMgew5VJxzue5/jJTE5uejpjVlOe/izrB70Jof72aM=
|
||||||
|
golang.org/x/sync v0.3.0 h1:ftCYgMx6zT/asHUrPw8BLLscYtGznsLAnjq5RH9P66E=
|
||||||
|
golang.org/x/sync v0.3.0/go.mod h1:FU7BRWz2tNW+3quACPkgCx/L+uEAv1htQ0V83Z9Rj+Y=
|
||||||
|
golang.org/x/sys v0.0.0-20190215142949-d0b11bdaac8a/go.mod h1:STP8DvDyc/dI5b8T5hshtkjS+E42TnysNCUPdjciGhY=
|
||||||
|
golang.org/x/sys v0.0.0-20190412213103-97732733099d/go.mod h1:h1NjWce9XRLGQEsW7wpKNCjG9DtNlClVuFLEZdDNbEs=
|
||||||
golang.org/x/sys v0.0.0-20201119102817-f84b799fce68/go.mod h1:h1NjWce9XRLGQEsW7wpKNCjG9DtNlClVuFLEZdDNbEs=
|
golang.org/x/sys v0.0.0-20201119102817-f84b799fce68/go.mod h1:h1NjWce9XRLGQEsW7wpKNCjG9DtNlClVuFLEZdDNbEs=
|
||||||
golang.org/x/sys v0.0.0-20210423082822-04245dca01da/go.mod h1:h1NjWce9XRLGQEsW7wpKNCjG9DtNlClVuFLEZdDNbEs=
|
golang.org/x/sys v0.0.0-20210423082822-04245dca01da/go.mod h1:h1NjWce9XRLGQEsW7wpKNCjG9DtNlClVuFLEZdDNbEs=
|
||||||
golang.org/x/sys v0.0.0-20210615035016-665e8c7367d1/go.mod h1:oPkhp1MJrh7nUepCBck5+mAzfO9JrbApNNgaTdGDITg=
|
golang.org/x/sys v0.0.0-20210615035016-665e8c7367d1/go.mod h1:oPkhp1MJrh7nUepCBck5+mAzfO9JrbApNNgaTdGDITg=
|
||||||
golang.org/x/sys v0.1.0 h1:kunALQeHf1/185U1i0GOB/fy1IPRDDpuoOOqRReG57U=
|
golang.org/x/sys v0.0.0-20220520151302-bc2c85ada10a/go.mod h1:oPkhp1MJrh7nUepCBck5+mAzfO9JrbApNNgaTdGDITg=
|
||||||
golang.org/x/sys v0.1.0/go.mod h1:oPkhp1MJrh7nUepCBck5+mAzfO9JrbApNNgaTdGDITg=
|
golang.org/x/sys v0.0.0-20220722155257-8c9f86f7a55f/go.mod h1:oPkhp1MJrh7nUepCBck5+mAzfO9JrbApNNgaTdGDITg=
|
||||||
golang.org/x/sys v0.3.0 h1:w8ZOecv6NaNa/zC8944JTU3vz4u6Lagfk4RPQxv92NQ=
|
golang.org/x/sys v0.3.0 h1:w8ZOecv6NaNa/zC8944JTU3vz4u6Lagfk4RPQxv92NQ=
|
||||||
golang.org/x/sys v0.3.0/go.mod h1:oPkhp1MJrh7nUepCBck5+mAzfO9JrbApNNgaTdGDITg=
|
golang.org/x/sys v0.3.0/go.mod h1:oPkhp1MJrh7nUepCBck5+mAzfO9JrbApNNgaTdGDITg=
|
||||||
|
golang.org/x/sys v0.8.0 h1:EBmGv8NaZBZTWvrbjNoL6HVt+IVy3QDQpJs7VRIw3tU=
|
||||||
|
golang.org/x/sys v0.8.0/go.mod h1:oPkhp1MJrh7nUepCBck5+mAzfO9JrbApNNgaTdGDITg=
|
||||||
|
golang.org/x/sys v0.9.0 h1:KS/R3tvhPqvJvwcKfnBHJwwthS11LRhmM5D59eEXa0s=
|
||||||
|
golang.org/x/sys v0.9.0/go.mod h1:oPkhp1MJrh7nUepCBck5+mAzfO9JrbApNNgaTdGDITg=
|
||||||
|
golang.org/x/sys v0.10.0 h1:SqMFp9UcQJZa+pmYuAKjd9xq1f0j5rLcDIk0mj4qAsA=
|
||||||
|
golang.org/x/sys v0.10.0/go.mod h1:oPkhp1MJrh7nUepCBck5+mAzfO9JrbApNNgaTdGDITg=
|
||||||
golang.org/x/term v0.0.0-20201126162022-7de9c90e9dd1/go.mod h1:bj7SfCRtBDWHUb9snDiAeCFNEtKQo2Wmx5Cou7ajbmo=
|
golang.org/x/term v0.0.0-20201126162022-7de9c90e9dd1/go.mod h1:bj7SfCRtBDWHUb9snDiAeCFNEtKQo2Wmx5Cou7ajbmo=
|
||||||
golang.org/x/term v0.1.0 h1:g6Z6vPFA9dYBAF7DWcH6sCcOntplXsDKcliusYijMlw=
|
golang.org/x/term v0.0.0-20210927222741-03fcf44c2211/go.mod h1:jbD1KX2456YbFQfuXm/mYQcufACuNUgVhRMnK/tPxf8=
|
||||||
golang.org/x/term v0.1.0/go.mod h1:jbD1KX2456YbFQfuXm/mYQcufACuNUgVhRMnK/tPxf8=
|
|
||||||
golang.org/x/term v0.3.0 h1:qoo4akIqOcDME5bhc/NgxUdovd6BSS2uMsVjB56q1xI=
|
golang.org/x/term v0.3.0 h1:qoo4akIqOcDME5bhc/NgxUdovd6BSS2uMsVjB56q1xI=
|
||||||
golang.org/x/term v0.3.0/go.mod h1:q750SLmJuPmVoN1blW3UFBPREJfb1KmY3vwxfr+nFDA=
|
golang.org/x/term v0.3.0/go.mod h1:q750SLmJuPmVoN1blW3UFBPREJfb1KmY3vwxfr+nFDA=
|
||||||
|
golang.org/x/term v0.8.0 h1:n5xxQn2i3PC0yLAbjTpNT85q/Kgzcr2gIoX9OrJUols=
|
||||||
|
golang.org/x/term v0.8.0/go.mod h1:xPskH00ivmX89bAKVGSKKtLOWNx2+17Eiy94tnKShWo=
|
||||||
|
golang.org/x/term v0.9.0 h1:GRRCnKYhdQrD8kfRAdQ6Zcw1P0OcELxGLKJvtjVMZ28=
|
||||||
|
golang.org/x/term v0.9.0/go.mod h1:M6DEAAIenWoTxdKrOltXcmDY3rSplQUkrvaDU5FcQyo=
|
||||||
|
golang.org/x/term v0.10.0 h1:3R7pNqamzBraeqj/Tj8qt1aQ2HpmlC+Cx/qL/7hn4/c=
|
||||||
|
golang.org/x/term v0.10.0/go.mod h1:lpqdcUyK/oCiQxvxVrppt5ggO2KCZ5QblwqPnfZ6d5o=
|
||||||
|
golang.org/x/text v0.3.0/go.mod h1:NqM8EUOU14njkJ3fqMW+pc6Ldnwhi/IjpwHt7yyuwOQ=
|
||||||
|
golang.org/x/text v0.3.3/go.mod h1:5Zoc/QRtKVWzQhOtBMvqHzDpF6irO9z98xDceosuGiQ=
|
||||||
golang.org/x/text v0.3.6/go.mod h1:5Zoc/QRtKVWzQhOtBMvqHzDpF6irO9z98xDceosuGiQ=
|
golang.org/x/text v0.3.6/go.mod h1:5Zoc/QRtKVWzQhOtBMvqHzDpF6irO9z98xDceosuGiQ=
|
||||||
golang.org/x/text v0.3.7/go.mod h1:u+2+/6zg+i71rQMx5EYifcz6MCKuco9NR6JIITiCfzQ=
|
golang.org/x/text v0.3.7/go.mod h1:u+2+/6zg+i71rQMx5EYifcz6MCKuco9NR6JIITiCfzQ=
|
||||||
|
golang.org/x/text v0.3.8/go.mod h1:E6s5w1FMmriuDzIBO73fBruAKo1PCIq6d2Q6DHfQ8WQ=
|
||||||
|
golang.org/x/text v0.5.0 h1:OLmvp0KP+FVG99Ct/qFiL/Fhk4zp4QQnZ7b2U+5piUM=
|
||||||
|
golang.org/x/text v0.5.0/go.mod h1:mrYo+phRRbMaCq/xk9113O4dZlRixOauAjOtrjsXDZ8=
|
||||||
|
golang.org/x/text v0.7.0/go.mod h1:mrYo+phRRbMaCq/xk9113O4dZlRixOauAjOtrjsXDZ8=
|
||||||
|
golang.org/x/text v0.9.0 h1:2sjJmO8cDvYveuX97RDLsxlyUxLl+GHoLxBiRdHllBE=
|
||||||
|
golang.org/x/text v0.9.0/go.mod h1:e1OnstbJyHTd6l/uOt8jFFHp6TRDWZR/bV3emEE/zU8=
|
||||||
|
golang.org/x/text v0.10.0 h1:UpjohKhiEgNc0CSauXmwYftY1+LlaC75SJwh0SgCX58=
|
||||||
|
golang.org/x/text v0.10.0/go.mod h1:TvPlkZtksWOMsz7fbANvkp4WM8x/WCo/om8BMLbz+aE=
|
||||||
|
golang.org/x/text v0.11.0 h1:LAntKIrcmeSKERyiOh0XMV39LXS8IE9UL2yP7+f5ij4=
|
||||||
|
golang.org/x/text v0.11.0/go.mod h1:TvPlkZtksWOMsz7fbANvkp4WM8x/WCo/om8BMLbz+aE=
|
||||||
golang.org/x/tools v0.0.0-20180917221912-90fa682c2a6e/go.mod h1:n7NCudcB/nEzxVGmLbDWY5pfWTLqBcC2KZ6jyYvM4mQ=
|
golang.org/x/tools v0.0.0-20180917221912-90fa682c2a6e/go.mod h1:n7NCudcB/nEzxVGmLbDWY5pfWTLqBcC2KZ6jyYvM4mQ=
|
||||||
|
golang.org/x/tools v0.0.0-20191119224855-298f0cb1881e/go.mod h1:b+2E5dAYhXwXZwtnZ6UAqBI28+e2cm9otk0dWdXHAEo=
|
||||||
|
golang.org/x/tools v0.1.12/go.mod h1:hNGJHUnrk76NpqgfD5Aqm5Crs+Hm0VOH/i9J2+nxYbc=
|
||||||
|
golang.org/x/xerrors v0.0.0-20190717185122-a985d3407aa7/go.mod h1:I/5z698sn9Ka8TeJc9MKroUUfqBBauWjQqLJ2OPfmY0=
|
||||||
|
golang.org/x/xerrors v0.0.0-20191204190536-9bdfabe68543 h1:E7g+9GITq07hpfrRu66IVDexMakfv52eLZ2CXBWiKr4=
|
||||||
golang.org/x/xerrors v0.0.0-20191204190536-9bdfabe68543/go.mod h1:I/5z698sn9Ka8TeJc9MKroUUfqBBauWjQqLJ2OPfmY0=
|
golang.org/x/xerrors v0.0.0-20191204190536-9bdfabe68543/go.mod h1:I/5z698sn9Ka8TeJc9MKroUUfqBBauWjQqLJ2OPfmY0=
|
||||||
gopkg.in/check.v1 v0.0.0-20161208181325-20d25e280405/go.mod h1:Co6ibVJAznAaIkqp8huTwlJQCZ016jof/cbN4VW5Yz0=
|
gopkg.in/check.v1 v0.0.0-20161208181325-20d25e280405/go.mod h1:Co6ibVJAznAaIkqp8huTwlJQCZ016jof/cbN4VW5Yz0=
|
||||||
gopkg.in/check.v1 v1.0.0-20180628173108-788fd7840127/go.mod h1:Co6ibVJAznAaIkqp8huTwlJQCZ016jof/cbN4VW5Yz0=
|
gopkg.in/check.v1 v1.0.0-20180628173108-788fd7840127/go.mod h1:Co6ibVJAznAaIkqp8huTwlJQCZ016jof/cbN4VW5Yz0=
|
||||||
gopkg.in/yaml.v3 v3.0.0-20200313102051-9f266ea9e77c/go.mod h1:K4uyk7z7BCEPqu6E+C64Yfv1cQ7kz7rIZviUmN+EgEM=
|
gopkg.in/yaml.v3 v3.0.0-20200313102051-9f266ea9e77c/go.mod h1:K4uyk7z7BCEPqu6E+C64Yfv1cQ7kz7rIZviUmN+EgEM=
|
||||||
|
gopkg.in/yaml.v3 v3.0.1 h1:fxVm/GzAzEWqLHuvctI91KS9hhNmmWOoWu0XTYJS7CA=
|
||||||
gopkg.in/yaml.v3 v3.0.1/go.mod h1:K4uyk7z7BCEPqu6E+C64Yfv1cQ7kz7rIZviUmN+EgEM=
|
gopkg.in/yaml.v3 v3.0.1/go.mod h1:K4uyk7z7BCEPqu6E+C64Yfv1cQ7kz7rIZviUmN+EgEM=
|
||||||
|
5
goextVersion.go
Normal file
5
goextVersion.go
Normal file
@@ -0,0 +1,5 @@
|
|||||||
|
package goext
|
||||||
|
|
||||||
|
const GoextVersion = "0.0.169"
|
||||||
|
|
||||||
|
const GoextVersionTimestamp = "2023-07-05T19:27:49+0200"
|
27
gojson/LICENSE
Normal file
27
gojson/LICENSE
Normal file
@@ -0,0 +1,27 @@
|
|||||||
|
Copyright (c) 2009 The Go Authors. All rights reserved.
|
||||||
|
|
||||||
|
Redistribution and use in source and binary forms, with or without
|
||||||
|
modification, are permitted provided that the following conditions are
|
||||||
|
met:
|
||||||
|
|
||||||
|
* Redistributions of source code must retain the above copyright
|
||||||
|
notice, this list of conditions and the following disclaimer.
|
||||||
|
* Redistributions in binary form must reproduce the above
|
||||||
|
copyright notice, this list of conditions and the following disclaimer
|
||||||
|
in the documentation and/or other materials provided with the
|
||||||
|
distribution.
|
||||||
|
* Neither the name of Google Inc. nor the names of its
|
||||||
|
contributors may be used to endorse or promote products derived from
|
||||||
|
this software without specific prior written permission.
|
||||||
|
|
||||||
|
THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
|
||||||
|
"AS IS" AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT
|
||||||
|
LIMITED TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR
|
||||||
|
A PARTICULAR PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT
|
||||||
|
OWNER OR CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL,
|
||||||
|
SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT
|
||||||
|
LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE,
|
||||||
|
DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY
|
||||||
|
THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT
|
||||||
|
(INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE
|
||||||
|
OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
|
12
gojson/README.md
Normal file
12
gojson/README.md
Normal file
@@ -0,0 +1,12 @@
|
|||||||
|
|
||||||
|
|
||||||
|
JSON serializer which serializes nil-Arrays as `[]` and nil-maps als `{}`.
|
||||||
|
|
||||||
|
Idea from: https://github.com/homelight/json
|
||||||
|
|
||||||
|
Forked from https://github.com/golang/go/tree/547e8e22fe565d65d1fd4d6e71436a5a855447b0/src/encoding/json ( tag go1.20.2 )
|
||||||
|
|
||||||
|
Added:
|
||||||
|
|
||||||
|
- `MarshalSafeCollections()` method
|
||||||
|
- `Encoder.nilSafeSlices` and `Encoder.nilSafeMaps` fields
|
1311
gojson/decode.go
Normal file
1311
gojson/decode.go
Normal file
File diff suppressed because it is too large
Load Diff
2574
gojson/decode_test.go
Normal file
2574
gojson/decode_test.go
Normal file
File diff suppressed because it is too large
Load Diff
1459
gojson/encode.go
Normal file
1459
gojson/encode.go
Normal file
File diff suppressed because it is too large
Load Diff
1285
gojson/encode_test.go
Normal file
1285
gojson/encode_test.go
Normal file
File diff suppressed because it is too large
Load Diff
73
gojson/example_marshaling_test.go
Normal file
73
gojson/example_marshaling_test.go
Normal file
@@ -0,0 +1,73 @@
|
|||||||
|
// Copyright 2016 The Go Authors. All rights reserved.
|
||||||
|
// Use of this source code is governed by a BSD-style
|
||||||
|
// license that can be found in the LICENSE file.
|
||||||
|
|
||||||
|
package json_test
|
||||||
|
|
||||||
|
import (
|
||||||
|
"encoding/json"
|
||||||
|
"fmt"
|
||||||
|
"log"
|
||||||
|
"strings"
|
||||||
|
)
|
||||||
|
|
||||||
|
type Animal int
|
||||||
|
|
||||||
|
const (
|
||||||
|
Unknown Animal = iota
|
||||||
|
Gopher
|
||||||
|
Zebra
|
||||||
|
)
|
||||||
|
|
||||||
|
func (a *Animal) UnmarshalJSON(b []byte) error {
|
||||||
|
var s string
|
||||||
|
if err := json.Unmarshal(b, &s); err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
switch strings.ToLower(s) {
|
||||||
|
default:
|
||||||
|
*a = Unknown
|
||||||
|
case "gopher":
|
||||||
|
*a = Gopher
|
||||||
|
case "zebra":
|
||||||
|
*a = Zebra
|
||||||
|
}
|
||||||
|
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func (a Animal) MarshalJSON() ([]byte, error) {
|
||||||
|
var s string
|
||||||
|
switch a {
|
||||||
|
default:
|
||||||
|
s = "unknown"
|
||||||
|
case Gopher:
|
||||||
|
s = "gopher"
|
||||||
|
case Zebra:
|
||||||
|
s = "zebra"
|
||||||
|
}
|
||||||
|
|
||||||
|
return json.Marshal(s)
|
||||||
|
}
|
||||||
|
|
||||||
|
func Example_customMarshalJSON() {
|
||||||
|
blob := `["gopher","armadillo","zebra","unknown","gopher","bee","gopher","zebra"]`
|
||||||
|
var zoo []Animal
|
||||||
|
if err := json.Unmarshal([]byte(blob), &zoo); err != nil {
|
||||||
|
log.Fatal(err)
|
||||||
|
}
|
||||||
|
|
||||||
|
census := make(map[Animal]int)
|
||||||
|
for _, animal := range zoo {
|
||||||
|
census[animal] += 1
|
||||||
|
}
|
||||||
|
|
||||||
|
fmt.Printf("Zoo Census:\n* Gophers: %d\n* Zebras: %d\n* Unknown: %d\n",
|
||||||
|
census[Gopher], census[Zebra], census[Unknown])
|
||||||
|
|
||||||
|
// Output:
|
||||||
|
// Zoo Census:
|
||||||
|
// * Gophers: 3
|
||||||
|
// * Zebras: 2
|
||||||
|
// * Unknown: 3
|
||||||
|
}
|
310
gojson/example_test.go
Normal file
310
gojson/example_test.go
Normal file
@@ -0,0 +1,310 @@
|
|||||||
|
// Copyright 2011 The Go Authors. All rights reserved.
|
||||||
|
// Use of this source code is governed by a BSD-style
|
||||||
|
// license that can be found in the LICENSE file.
|
||||||
|
|
||||||
|
package json_test
|
||||||
|
|
||||||
|
import (
|
||||||
|
"bytes"
|
||||||
|
"encoding/json"
|
||||||
|
"fmt"
|
||||||
|
"io"
|
||||||
|
"log"
|
||||||
|
"os"
|
||||||
|
"strings"
|
||||||
|
)
|
||||||
|
|
||||||
|
func ExampleMarshal() {
|
||||||
|
type ColorGroup struct {
|
||||||
|
ID int
|
||||||
|
Name string
|
||||||
|
Colors []string
|
||||||
|
}
|
||||||
|
group := ColorGroup{
|
||||||
|
ID: 1,
|
||||||
|
Name: "Reds",
|
||||||
|
Colors: []string{"Crimson", "Red", "Ruby", "Maroon"},
|
||||||
|
}
|
||||||
|
b, err := json.Marshal(group)
|
||||||
|
if err != nil {
|
||||||
|
fmt.Println("error:", err)
|
||||||
|
}
|
||||||
|
os.Stdout.Write(b)
|
||||||
|
// Output:
|
||||||
|
// {"ID":1,"Name":"Reds","Colors":["Crimson","Red","Ruby","Maroon"]}
|
||||||
|
}
|
||||||
|
|
||||||
|
func ExampleUnmarshal() {
|
||||||
|
var jsonBlob = []byte(`[
|
||||||
|
{"Name": "Platypus", "Order": "Monotremata"},
|
||||||
|
{"Name": "Quoll", "Order": "Dasyuromorphia"}
|
||||||
|
]`)
|
||||||
|
type Animal struct {
|
||||||
|
Name string
|
||||||
|
Order string
|
||||||
|
}
|
||||||
|
var animals []Animal
|
||||||
|
err := json.Unmarshal(jsonBlob, &animals)
|
||||||
|
if err != nil {
|
||||||
|
fmt.Println("error:", err)
|
||||||
|
}
|
||||||
|
fmt.Printf("%+v", animals)
|
||||||
|
// Output:
|
||||||
|
// [{Name:Platypus Order:Monotremata} {Name:Quoll Order:Dasyuromorphia}]
|
||||||
|
}
|
||||||
|
|
||||||
|
// This example uses a Decoder to decode a stream of distinct JSON values.
|
||||||
|
func ExampleDecoder() {
|
||||||
|
const jsonStream = `
|
||||||
|
{"Name": "Ed", "Text": "Knock knock."}
|
||||||
|
{"Name": "Sam", "Text": "Who's there?"}
|
||||||
|
{"Name": "Ed", "Text": "Go fmt."}
|
||||||
|
{"Name": "Sam", "Text": "Go fmt who?"}
|
||||||
|
{"Name": "Ed", "Text": "Go fmt yourself!"}
|
||||||
|
`
|
||||||
|
type Message struct {
|
||||||
|
Name, Text string
|
||||||
|
}
|
||||||
|
dec := json.NewDecoder(strings.NewReader(jsonStream))
|
||||||
|
for {
|
||||||
|
var m Message
|
||||||
|
if err := dec.Decode(&m); err == io.EOF {
|
||||||
|
break
|
||||||
|
} else if err != nil {
|
||||||
|
log.Fatal(err)
|
||||||
|
}
|
||||||
|
fmt.Printf("%s: %s\n", m.Name, m.Text)
|
||||||
|
}
|
||||||
|
// Output:
|
||||||
|
// Ed: Knock knock.
|
||||||
|
// Sam: Who's there?
|
||||||
|
// Ed: Go fmt.
|
||||||
|
// Sam: Go fmt who?
|
||||||
|
// Ed: Go fmt yourself!
|
||||||
|
}
|
||||||
|
|
||||||
|
// This example uses a Decoder to decode a stream of distinct JSON values.
|
||||||
|
func ExampleDecoder_Token() {
|
||||||
|
const jsonStream = `
|
||||||
|
{"Message": "Hello", "Array": [1, 2, 3], "Null": null, "Number": 1.234}
|
||||||
|
`
|
||||||
|
dec := json.NewDecoder(strings.NewReader(jsonStream))
|
||||||
|
for {
|
||||||
|
t, err := dec.Token()
|
||||||
|
if err == io.EOF {
|
||||||
|
break
|
||||||
|
}
|
||||||
|
if err != nil {
|
||||||
|
log.Fatal(err)
|
||||||
|
}
|
||||||
|
fmt.Printf("%T: %v", t, t)
|
||||||
|
if dec.More() {
|
||||||
|
fmt.Printf(" (more)")
|
||||||
|
}
|
||||||
|
fmt.Printf("\n")
|
||||||
|
}
|
||||||
|
// Output:
|
||||||
|
// json.Delim: { (more)
|
||||||
|
// string: Message (more)
|
||||||
|
// string: Hello (more)
|
||||||
|
// string: Array (more)
|
||||||
|
// json.Delim: [ (more)
|
||||||
|
// float64: 1 (more)
|
||||||
|
// float64: 2 (more)
|
||||||
|
// float64: 3
|
||||||
|
// json.Delim: ] (more)
|
||||||
|
// string: Null (more)
|
||||||
|
// <nil>: <nil> (more)
|
||||||
|
// string: Number (more)
|
||||||
|
// float64: 1.234
|
||||||
|
// json.Delim: }
|
||||||
|
}
|
||||||
|
|
||||||
|
// This example uses a Decoder to decode a streaming array of JSON objects.
|
||||||
|
func ExampleDecoder_Decode_stream() {
|
||||||
|
const jsonStream = `
|
||||||
|
[
|
||||||
|
{"Name": "Ed", "Text": "Knock knock."},
|
||||||
|
{"Name": "Sam", "Text": "Who's there?"},
|
||||||
|
{"Name": "Ed", "Text": "Go fmt."},
|
||||||
|
{"Name": "Sam", "Text": "Go fmt who?"},
|
||||||
|
{"Name": "Ed", "Text": "Go fmt yourself!"}
|
||||||
|
]
|
||||||
|
`
|
||||||
|
type Message struct {
|
||||||
|
Name, Text string
|
||||||
|
}
|
||||||
|
dec := json.NewDecoder(strings.NewReader(jsonStream))
|
||||||
|
|
||||||
|
// read open bracket
|
||||||
|
t, err := dec.Token()
|
||||||
|
if err != nil {
|
||||||
|
log.Fatal(err)
|
||||||
|
}
|
||||||
|
fmt.Printf("%T: %v\n", t, t)
|
||||||
|
|
||||||
|
// while the array contains values
|
||||||
|
for dec.More() {
|
||||||
|
var m Message
|
||||||
|
// decode an array value (Message)
|
||||||
|
err := dec.Decode(&m)
|
||||||
|
if err != nil {
|
||||||
|
log.Fatal(err)
|
||||||
|
}
|
||||||
|
|
||||||
|
fmt.Printf("%v: %v\n", m.Name, m.Text)
|
||||||
|
}
|
||||||
|
|
||||||
|
// read closing bracket
|
||||||
|
t, err = dec.Token()
|
||||||
|
if err != nil {
|
||||||
|
log.Fatal(err)
|
||||||
|
}
|
||||||
|
fmt.Printf("%T: %v\n", t, t)
|
||||||
|
|
||||||
|
// Output:
|
||||||
|
// json.Delim: [
|
||||||
|
// Ed: Knock knock.
|
||||||
|
// Sam: Who's there?
|
||||||
|
// Ed: Go fmt.
|
||||||
|
// Sam: Go fmt who?
|
||||||
|
// Ed: Go fmt yourself!
|
||||||
|
// json.Delim: ]
|
||||||
|
}
|
||||||
|
|
||||||
|
// This example uses RawMessage to delay parsing part of a JSON message.
|
||||||
|
func ExampleRawMessage_unmarshal() {
|
||||||
|
type Color struct {
|
||||||
|
Space string
|
||||||
|
Point json.RawMessage // delay parsing until we know the color space
|
||||||
|
}
|
||||||
|
type RGB struct {
|
||||||
|
R uint8
|
||||||
|
G uint8
|
||||||
|
B uint8
|
||||||
|
}
|
||||||
|
type YCbCr struct {
|
||||||
|
Y uint8
|
||||||
|
Cb int8
|
||||||
|
Cr int8
|
||||||
|
}
|
||||||
|
|
||||||
|
var j = []byte(`[
|
||||||
|
{"Space": "YCbCr", "Point": {"Y": 255, "Cb": 0, "Cr": -10}},
|
||||||
|
{"Space": "RGB", "Point": {"R": 98, "G": 218, "B": 255}}
|
||||||
|
]`)
|
||||||
|
var colors []Color
|
||||||
|
err := json.Unmarshal(j, &colors)
|
||||||
|
if err != nil {
|
||||||
|
log.Fatalln("error:", err)
|
||||||
|
}
|
||||||
|
|
||||||
|
for _, c := range colors {
|
||||||
|
var dst any
|
||||||
|
switch c.Space {
|
||||||
|
case "RGB":
|
||||||
|
dst = new(RGB)
|
||||||
|
case "YCbCr":
|
||||||
|
dst = new(YCbCr)
|
||||||
|
}
|
||||||
|
err := json.Unmarshal(c.Point, dst)
|
||||||
|
if err != nil {
|
||||||
|
log.Fatalln("error:", err)
|
||||||
|
}
|
||||||
|
fmt.Println(c.Space, dst)
|
||||||
|
}
|
||||||
|
// Output:
|
||||||
|
// YCbCr &{255 0 -10}
|
||||||
|
// RGB &{98 218 255}
|
||||||
|
}
|
||||||
|
|
||||||
|
// This example uses RawMessage to use a precomputed JSON during marshal.
|
||||||
|
func ExampleRawMessage_marshal() {
|
||||||
|
h := json.RawMessage(`{"precomputed": true}`)
|
||||||
|
|
||||||
|
c := struct {
|
||||||
|
Header *json.RawMessage `json:"header"`
|
||||||
|
Body string `json:"body"`
|
||||||
|
}{Header: &h, Body: "Hello Gophers!"}
|
||||||
|
|
||||||
|
b, err := json.MarshalIndent(&c, "", "\t")
|
||||||
|
if err != nil {
|
||||||
|
fmt.Println("error:", err)
|
||||||
|
}
|
||||||
|
os.Stdout.Write(b)
|
||||||
|
|
||||||
|
// Output:
|
||||||
|
// {
|
||||||
|
// "header": {
|
||||||
|
// "precomputed": true
|
||||||
|
// },
|
||||||
|
// "body": "Hello Gophers!"
|
||||||
|
// }
|
||||||
|
}
|
||||||
|
|
||||||
|
func ExampleIndent() {
|
||||||
|
type Road struct {
|
||||||
|
Name string
|
||||||
|
Number int
|
||||||
|
}
|
||||||
|
roads := []Road{
|
||||||
|
{"Diamond Fork", 29},
|
||||||
|
{"Sheep Creek", 51},
|
||||||
|
}
|
||||||
|
|
||||||
|
b, err := json.Marshal(roads)
|
||||||
|
if err != nil {
|
||||||
|
log.Fatal(err)
|
||||||
|
}
|
||||||
|
|
||||||
|
var out bytes.Buffer
|
||||||
|
json.Indent(&out, b, "=", "\t")
|
||||||
|
out.WriteTo(os.Stdout)
|
||||||
|
// Output:
|
||||||
|
// [
|
||||||
|
// = {
|
||||||
|
// = "Name": "Diamond Fork",
|
||||||
|
// = "Number": 29
|
||||||
|
// = },
|
||||||
|
// = {
|
||||||
|
// = "Name": "Sheep Creek",
|
||||||
|
// = "Number": 51
|
||||||
|
// = }
|
||||||
|
// =]
|
||||||
|
}
|
||||||
|
|
||||||
|
func ExampleMarshalIndent() {
|
||||||
|
data := map[string]int{
|
||||||
|
"a": 1,
|
||||||
|
"b": 2,
|
||||||
|
}
|
||||||
|
|
||||||
|
b, err := json.MarshalIndent(data, "<prefix>", "<indent>")
|
||||||
|
if err != nil {
|
||||||
|
log.Fatal(err)
|
||||||
|
}
|
||||||
|
|
||||||
|
fmt.Println(string(b))
|
||||||
|
// Output:
|
||||||
|
// {
|
||||||
|
// <prefix><indent>"a": 1,
|
||||||
|
// <prefix><indent>"b": 2
|
||||||
|
// <prefix>}
|
||||||
|
}
|
||||||
|
|
||||||
|
func ExampleValid() {
|
||||||
|
goodJSON := `{"example": 1}`
|
||||||
|
badJSON := `{"example":2:]}}`
|
||||||
|
|
||||||
|
fmt.Println(json.Valid([]byte(goodJSON)), json.Valid([]byte(badJSON)))
|
||||||
|
// Output:
|
||||||
|
// true false
|
||||||
|
}
|
||||||
|
|
||||||
|
func ExampleHTMLEscape() {
|
||||||
|
var out bytes.Buffer
|
||||||
|
json.HTMLEscape(&out, []byte(`{"Name":"<b>HTML content</b>"}`))
|
||||||
|
out.WriteTo(os.Stdout)
|
||||||
|
// Output:
|
||||||
|
//{"Name":"\u003cb\u003eHTML content\u003c/b\u003e"}
|
||||||
|
}
|
67
gojson/example_text_marshaling_test.go
Normal file
67
gojson/example_text_marshaling_test.go
Normal file
@@ -0,0 +1,67 @@
|
|||||||
|
// Copyright 2018 The Go Authors. All rights reserved.
|
||||||
|
// Use of this source code is governed by a BSD-style
|
||||||
|
// license that can be found in the LICENSE file.
|
||||||
|
|
||||||
|
package json_test
|
||||||
|
|
||||||
|
import (
|
||||||
|
"encoding/json"
|
||||||
|
"fmt"
|
||||||
|
"log"
|
||||||
|
"strings"
|
||||||
|
)
|
||||||
|
|
||||||
|
type Size int
|
||||||
|
|
||||||
|
const (
|
||||||
|
Unrecognized Size = iota
|
||||||
|
Small
|
||||||
|
Large
|
||||||
|
)
|
||||||
|
|
||||||
|
func (s *Size) UnmarshalText(text []byte) error {
|
||||||
|
switch strings.ToLower(string(text)) {
|
||||||
|
default:
|
||||||
|
*s = Unrecognized
|
||||||
|
case "small":
|
||||||
|
*s = Small
|
||||||
|
case "large":
|
||||||
|
*s = Large
|
||||||
|
}
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func (s Size) MarshalText() ([]byte, error) {
|
||||||
|
var name string
|
||||||
|
switch s {
|
||||||
|
default:
|
||||||
|
name = "unrecognized"
|
||||||
|
case Small:
|
||||||
|
name = "small"
|
||||||
|
case Large:
|
||||||
|
name = "large"
|
||||||
|
}
|
||||||
|
return []byte(name), nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func Example_textMarshalJSON() {
|
||||||
|
blob := `["small","regular","large","unrecognized","small","normal","small","large"]`
|
||||||
|
var inventory []Size
|
||||||
|
if err := json.Unmarshal([]byte(blob), &inventory); err != nil {
|
||||||
|
log.Fatal(err)
|
||||||
|
}
|
||||||
|
|
||||||
|
counts := make(map[Size]int)
|
||||||
|
for _, size := range inventory {
|
||||||
|
counts[size] += 1
|
||||||
|
}
|
||||||
|
|
||||||
|
fmt.Printf("Inventory Counts:\n* Small: %d\n* Large: %d\n* Unrecognized: %d\n",
|
||||||
|
counts[Small], counts[Large], counts[Unrecognized])
|
||||||
|
|
||||||
|
// Output:
|
||||||
|
// Inventory Counts:
|
||||||
|
// * Small: 3
|
||||||
|
// * Large: 2
|
||||||
|
// * Unrecognized: 3
|
||||||
|
}
|
141
gojson/fold.go
Normal file
141
gojson/fold.go
Normal file
@@ -0,0 +1,141 @@
|
|||||||
|
// Copyright 2013 The Go Authors. All rights reserved.
|
||||||
|
// Use of this source code is governed by a BSD-style
|
||||||
|
// license that can be found in the LICENSE file.
|
||||||
|
|
||||||
|
package json
|
||||||
|
|
||||||
|
import (
|
||||||
|
"bytes"
|
||||||
|
"unicode/utf8"
|
||||||
|
)
|
||||||
|
|
||||||
|
const (
|
||||||
|
caseMask = ^byte(0x20) // Mask to ignore case in ASCII.
|
||||||
|
kelvin = '\u212a'
|
||||||
|
smallLongEss = '\u017f'
|
||||||
|
)
|
||||||
|
|
||||||
|
// foldFunc returns one of four different case folding equivalence
|
||||||
|
// functions, from most general (and slow) to fastest:
|
||||||
|
//
|
||||||
|
// 1) bytes.EqualFold, if the key s contains any non-ASCII UTF-8
|
||||||
|
// 2) equalFoldRight, if s contains special folding ASCII ('k', 'K', 's', 'S')
|
||||||
|
// 3) asciiEqualFold, no special, but includes non-letters (including _)
|
||||||
|
// 4) simpleLetterEqualFold, no specials, no non-letters.
|
||||||
|
//
|
||||||
|
// The letters S and K are special because they map to 3 runes, not just 2:
|
||||||
|
// - S maps to s and to U+017F 'ſ' Latin small letter long s
|
||||||
|
// - k maps to K and to U+212A 'K' Kelvin sign
|
||||||
|
//
|
||||||
|
// See https://play.golang.org/p/tTxjOc0OGo
|
||||||
|
//
|
||||||
|
// The returned function is specialized for matching against s and
|
||||||
|
// should only be given s. It's not curried for performance reasons.
|
||||||
|
func foldFunc(s []byte) func(s, t []byte) bool {
|
||||||
|
nonLetter := false
|
||||||
|
special := false // special letter
|
||||||
|
for _, b := range s {
|
||||||
|
if b >= utf8.RuneSelf {
|
||||||
|
return bytes.EqualFold
|
||||||
|
}
|
||||||
|
upper := b & caseMask
|
||||||
|
if upper < 'A' || upper > 'Z' {
|
||||||
|
nonLetter = true
|
||||||
|
} else if upper == 'K' || upper == 'S' {
|
||||||
|
// See above for why these letters are special.
|
||||||
|
special = true
|
||||||
|
}
|
||||||
|
}
|
||||||
|
if special {
|
||||||
|
return equalFoldRight
|
||||||
|
}
|
||||||
|
if nonLetter {
|
||||||
|
return asciiEqualFold
|
||||||
|
}
|
||||||
|
return simpleLetterEqualFold
|
||||||
|
}
|
||||||
|
|
||||||
|
// equalFoldRight is a specialization of bytes.EqualFold when s is
|
||||||
|
// known to be all ASCII (including punctuation), but contains an 's',
|
||||||
|
// 'S', 'k', or 'K', requiring a Unicode fold on the bytes in t.
|
||||||
|
// See comments on foldFunc.
|
||||||
|
func equalFoldRight(s, t []byte) bool {
|
||||||
|
for _, sb := range s {
|
||||||
|
if len(t) == 0 {
|
||||||
|
return false
|
||||||
|
}
|
||||||
|
tb := t[0]
|
||||||
|
if tb < utf8.RuneSelf {
|
||||||
|
if sb != tb {
|
||||||
|
sbUpper := sb & caseMask
|
||||||
|
if 'A' <= sbUpper && sbUpper <= 'Z' {
|
||||||
|
if sbUpper != tb&caseMask {
|
||||||
|
return false
|
||||||
|
}
|
||||||
|
} else {
|
||||||
|
return false
|
||||||
|
}
|
||||||
|
}
|
||||||
|
t = t[1:]
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
// sb is ASCII and t is not. t must be either kelvin
|
||||||
|
// sign or long s; sb must be s, S, k, or K.
|
||||||
|
tr, size := utf8.DecodeRune(t)
|
||||||
|
switch sb {
|
||||||
|
case 's', 'S':
|
||||||
|
if tr != smallLongEss {
|
||||||
|
return false
|
||||||
|
}
|
||||||
|
case 'k', 'K':
|
||||||
|
if tr != kelvin {
|
||||||
|
return false
|
||||||
|
}
|
||||||
|
default:
|
||||||
|
return false
|
||||||
|
}
|
||||||
|
t = t[size:]
|
||||||
|
|
||||||
|
}
|
||||||
|
return len(t) == 0
|
||||||
|
}
|
||||||
|
|
||||||
|
// asciiEqualFold is a specialization of bytes.EqualFold for use when
|
||||||
|
// s is all ASCII (but may contain non-letters) and contains no
|
||||||
|
// special-folding letters.
|
||||||
|
// See comments on foldFunc.
|
||||||
|
func asciiEqualFold(s, t []byte) bool {
|
||||||
|
if len(s) != len(t) {
|
||||||
|
return false
|
||||||
|
}
|
||||||
|
for i, sb := range s {
|
||||||
|
tb := t[i]
|
||||||
|
if sb == tb {
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
if ('a' <= sb && sb <= 'z') || ('A' <= sb && sb <= 'Z') {
|
||||||
|
if sb&caseMask != tb&caseMask {
|
||||||
|
return false
|
||||||
|
}
|
||||||
|
} else {
|
||||||
|
return false
|
||||||
|
}
|
||||||
|
}
|
||||||
|
return true
|
||||||
|
}
|
||||||
|
|
||||||
|
// simpleLetterEqualFold is a specialization of bytes.EqualFold for
|
||||||
|
// use when s is all ASCII letters (no underscores, etc) and also
|
||||||
|
// doesn't contain 'k', 'K', 's', or 'S'.
|
||||||
|
// See comments on foldFunc.
|
||||||
|
func simpleLetterEqualFold(s, t []byte) bool {
|
||||||
|
if len(s) != len(t) {
|
||||||
|
return false
|
||||||
|
}
|
||||||
|
for i, b := range s {
|
||||||
|
if b&caseMask != t[i]&caseMask {
|
||||||
|
return false
|
||||||
|
}
|
||||||
|
}
|
||||||
|
return true
|
||||||
|
}
|
110
gojson/fold_test.go
Normal file
110
gojson/fold_test.go
Normal file
@@ -0,0 +1,110 @@
|
|||||||
|
// Copyright 2013 The Go Authors. All rights reserved.
|
||||||
|
// Use of this source code is governed by a BSD-style
|
||||||
|
// license that can be found in the LICENSE file.
|
||||||
|
|
||||||
|
package json
|
||||||
|
|
||||||
|
import (
|
||||||
|
"bytes"
|
||||||
|
"strings"
|
||||||
|
"testing"
|
||||||
|
"unicode/utf8"
|
||||||
|
)
|
||||||
|
|
||||||
|
var foldTests = []struct {
|
||||||
|
fn func(s, t []byte) bool
|
||||||
|
s, t string
|
||||||
|
want bool
|
||||||
|
}{
|
||||||
|
{equalFoldRight, "", "", true},
|
||||||
|
{equalFoldRight, "a", "a", true},
|
||||||
|
{equalFoldRight, "", "a", false},
|
||||||
|
{equalFoldRight, "a", "", false},
|
||||||
|
{equalFoldRight, "a", "A", true},
|
||||||
|
{equalFoldRight, "AB", "ab", true},
|
||||||
|
{equalFoldRight, "AB", "ac", false},
|
||||||
|
{equalFoldRight, "sbkKc", "ſbKKc", true},
|
||||||
|
{equalFoldRight, "SbKkc", "ſbKKc", true},
|
||||||
|
{equalFoldRight, "SbKkc", "ſbKK", false},
|
||||||
|
{equalFoldRight, "e", "é", false},
|
||||||
|
{equalFoldRight, "s", "S", true},
|
||||||
|
|
||||||
|
{simpleLetterEqualFold, "", "", true},
|
||||||
|
{simpleLetterEqualFold, "abc", "abc", true},
|
||||||
|
{simpleLetterEqualFold, "abc", "ABC", true},
|
||||||
|
{simpleLetterEqualFold, "abc", "ABCD", false},
|
||||||
|
{simpleLetterEqualFold, "abc", "xxx", false},
|
||||||
|
|
||||||
|
{asciiEqualFold, "a_B", "A_b", true},
|
||||||
|
{asciiEqualFold, "aa@", "aa`", false}, // verify 0x40 and 0x60 aren't case-equivalent
|
||||||
|
}
|
||||||
|
|
||||||
|
func TestFold(t *testing.T) {
|
||||||
|
for i, tt := range foldTests {
|
||||||
|
if got := tt.fn([]byte(tt.s), []byte(tt.t)); got != tt.want {
|
||||||
|
t.Errorf("%d. %q, %q = %v; want %v", i, tt.s, tt.t, got, tt.want)
|
||||||
|
}
|
||||||
|
truth := strings.EqualFold(tt.s, tt.t)
|
||||||
|
if truth != tt.want {
|
||||||
|
t.Errorf("strings.EqualFold doesn't agree with case %d", i)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
func TestFoldAgainstUnicode(t *testing.T) {
|
||||||
|
var buf1, buf2 []byte
|
||||||
|
var runes []rune
|
||||||
|
for i := 0x20; i <= 0x7f; i++ {
|
||||||
|
runes = append(runes, rune(i))
|
||||||
|
}
|
||||||
|
runes = append(runes, kelvin, smallLongEss)
|
||||||
|
|
||||||
|
funcs := []struct {
|
||||||
|
name string
|
||||||
|
fold func(s, t []byte) bool
|
||||||
|
letter bool // must be ASCII letter
|
||||||
|
simple bool // must be simple ASCII letter (not 'S' or 'K')
|
||||||
|
}{
|
||||||
|
{
|
||||||
|
name: "equalFoldRight",
|
||||||
|
fold: equalFoldRight,
|
||||||
|
},
|
||||||
|
{
|
||||||
|
name: "asciiEqualFold",
|
||||||
|
fold: asciiEqualFold,
|
||||||
|
simple: true,
|
||||||
|
},
|
||||||
|
{
|
||||||
|
name: "simpleLetterEqualFold",
|
||||||
|
fold: simpleLetterEqualFold,
|
||||||
|
simple: true,
|
||||||
|
letter: true,
|
||||||
|
},
|
||||||
|
}
|
||||||
|
|
||||||
|
for _, ff := range funcs {
|
||||||
|
for _, r := range runes {
|
||||||
|
if r >= utf8.RuneSelf {
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
if ff.letter && !isASCIILetter(byte(r)) {
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
if ff.simple && (r == 's' || r == 'S' || r == 'k' || r == 'K') {
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
for _, r2 := range runes {
|
||||||
|
buf1 = append(utf8.AppendRune(append(buf1[:0], 'x'), r), 'x')
|
||||||
|
buf2 = append(utf8.AppendRune(append(buf2[:0], 'x'), r2), 'x')
|
||||||
|
want := bytes.EqualFold(buf1, buf2)
|
||||||
|
if got := ff.fold(buf1, buf2); got != want {
|
||||||
|
t.Errorf("%s(%q, %q) = %v; want %v", ff.name, buf1, buf2, got, want)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
func isASCIILetter(b byte) bool {
|
||||||
|
return ('A' <= b && b <= 'Z') || ('a' <= b && b <= 'z')
|
||||||
|
}
|
42
gojson/fuzz.go
Normal file
42
gojson/fuzz.go
Normal file
@@ -0,0 +1,42 @@
|
|||||||
|
// Copyright 2019 The Go Authors. All rights reserved.
|
||||||
|
// Use of this source code is governed by a BSD-style
|
||||||
|
// license that can be found in the LICENSE file.
|
||||||
|
|
||||||
|
//go:build gofuzz
|
||||||
|
|
||||||
|
package json
|
||||||
|
|
||||||
|
import (
|
||||||
|
"fmt"
|
||||||
|
)
|
||||||
|
|
||||||
|
func Fuzz(data []byte) (score int) {
|
||||||
|
for _, ctor := range []func() any{
|
||||||
|
func() any { return new(any) },
|
||||||
|
func() any { return new(map[string]any) },
|
||||||
|
func() any { return new([]any) },
|
||||||
|
} {
|
||||||
|
v := ctor()
|
||||||
|
err := Unmarshal(data, v)
|
||||||
|
if err != nil {
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
score = 1
|
||||||
|
|
||||||
|
m, err := Marshal(v)
|
||||||
|
if err != nil {
|
||||||
|
fmt.Printf("v=%#v\n", v)
|
||||||
|
panic(err)
|
||||||
|
}
|
||||||
|
|
||||||
|
u := ctor()
|
||||||
|
err = Unmarshal(m, u)
|
||||||
|
if err != nil {
|
||||||
|
fmt.Printf("v=%#v\n", v)
|
||||||
|
fmt.Printf("m=%s\n", m)
|
||||||
|
panic(err)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
return
|
||||||
|
}
|
83
gojson/fuzz_test.go
Normal file
83
gojson/fuzz_test.go
Normal file
@@ -0,0 +1,83 @@
|
|||||||
|
// Copyright 2021 The Go Authors. All rights reserved.
|
||||||
|
// Use of this source code is governed by a BSD-style
|
||||||
|
// license that can be found in the LICENSE file.
|
||||||
|
|
||||||
|
package json
|
||||||
|
|
||||||
|
import (
|
||||||
|
"bytes"
|
||||||
|
"io"
|
||||||
|
"testing"
|
||||||
|
)
|
||||||
|
|
||||||
|
func FuzzUnmarshalJSON(f *testing.F) {
|
||||||
|
f.Add([]byte(`{
|
||||||
|
"object": {
|
||||||
|
"slice": [
|
||||||
|
1,
|
||||||
|
2.0,
|
||||||
|
"3",
|
||||||
|
[4],
|
||||||
|
{5: {}}
|
||||||
|
]
|
||||||
|
},
|
||||||
|
"slice": [[]],
|
||||||
|
"string": ":)",
|
||||||
|
"int": 1e5,
|
||||||
|
"float": 3e-9"
|
||||||
|
}`))
|
||||||
|
|
||||||
|
f.Fuzz(func(t *testing.T, b []byte) {
|
||||||
|
for _, typ := range []func() interface{}{
|
||||||
|
func() interface{} { return new(interface{}) },
|
||||||
|
func() interface{} { return new(map[string]interface{}) },
|
||||||
|
func() interface{} { return new([]interface{}) },
|
||||||
|
} {
|
||||||
|
i := typ()
|
||||||
|
if err := Unmarshal(b, i); err != nil {
|
||||||
|
return
|
||||||
|
}
|
||||||
|
|
||||||
|
encoded, err := Marshal(i)
|
||||||
|
if err != nil {
|
||||||
|
t.Fatalf("failed to marshal: %s", err)
|
||||||
|
}
|
||||||
|
|
||||||
|
if err := Unmarshal(encoded, i); err != nil {
|
||||||
|
t.Fatalf("failed to roundtrip: %s", err)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
})
|
||||||
|
}
|
||||||
|
|
||||||
|
func FuzzDecoderToken(f *testing.F) {
|
||||||
|
f.Add([]byte(`{
|
||||||
|
"object": {
|
||||||
|
"slice": [
|
||||||
|
1,
|
||||||
|
2.0,
|
||||||
|
"3",
|
||||||
|
[4],
|
||||||
|
{5: {}}
|
||||||
|
]
|
||||||
|
},
|
||||||
|
"slice": [[]],
|
||||||
|
"string": ":)",
|
||||||
|
"int": 1e5,
|
||||||
|
"float": 3e-9"
|
||||||
|
}`))
|
||||||
|
|
||||||
|
f.Fuzz(func(t *testing.T, b []byte) {
|
||||||
|
r := bytes.NewReader(b)
|
||||||
|
d := NewDecoder(r)
|
||||||
|
for {
|
||||||
|
_, err := d.Token()
|
||||||
|
if err != nil {
|
||||||
|
if err == io.EOF {
|
||||||
|
break
|
||||||
|
}
|
||||||
|
return
|
||||||
|
}
|
||||||
|
}
|
||||||
|
})
|
||||||
|
}
|
44
gojson/gionic.go
Normal file
44
gojson/gionic.go
Normal file
@@ -0,0 +1,44 @@
|
|||||||
|
package json
|
||||||
|
|
||||||
|
import (
|
||||||
|
"net/http"
|
||||||
|
)
|
||||||
|
|
||||||
|
// Render interface is copied from github.com/gin-gonic/gin@v1.8.1/render/render.go
|
||||||
|
type Render interface {
|
||||||
|
// Render writes data with custom ContentType.
|
||||||
|
Render(http.ResponseWriter) error
|
||||||
|
// WriteContentType writes custom ContentType.
|
||||||
|
WriteContentType(w http.ResponseWriter)
|
||||||
|
}
|
||||||
|
|
||||||
|
type GoJsonRender struct {
|
||||||
|
Data any
|
||||||
|
NilSafeSlices bool
|
||||||
|
NilSafeMaps bool
|
||||||
|
Indent *IndentOpt
|
||||||
|
}
|
||||||
|
|
||||||
|
func (r GoJsonRender) Render(w http.ResponseWriter) error {
|
||||||
|
header := w.Header()
|
||||||
|
if val := header["Content-Type"]; len(val) == 0 {
|
||||||
|
header["Content-Type"] = []string{"application/json; charset=utf-8"}
|
||||||
|
}
|
||||||
|
|
||||||
|
jsonBytes, err := MarshalSafeCollections(r.Data, r.NilSafeSlices, r.NilSafeMaps, r.Indent)
|
||||||
|
if err != nil {
|
||||||
|
panic(err)
|
||||||
|
}
|
||||||
|
_, err = w.Write(jsonBytes)
|
||||||
|
if err != nil {
|
||||||
|
panic(err)
|
||||||
|
}
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func (r GoJsonRender) WriteContentType(w http.ResponseWriter) {
|
||||||
|
header := w.Header()
|
||||||
|
if val := header["Content-Type"]; len(val) == 0 {
|
||||||
|
header["Content-Type"] = []string{"application/json; charset=utf-8"}
|
||||||
|
}
|
||||||
|
}
|
143
gojson/indent.go
Normal file
143
gojson/indent.go
Normal file
@@ -0,0 +1,143 @@
|
|||||||
|
// Copyright 2010 The Go Authors. All rights reserved.
|
||||||
|
// Use of this source code is governed by a BSD-style
|
||||||
|
// license that can be found in the LICENSE file.
|
||||||
|
|
||||||
|
package json
|
||||||
|
|
||||||
|
import (
|
||||||
|
"bytes"
|
||||||
|
)
|
||||||
|
|
||||||
|
// Compact appends to dst the JSON-encoded src with
|
||||||
|
// insignificant space characters elided.
|
||||||
|
func Compact(dst *bytes.Buffer, src []byte) error {
|
||||||
|
return compact(dst, src, false)
|
||||||
|
}
|
||||||
|
|
||||||
|
func compact(dst *bytes.Buffer, src []byte, escape bool) error {
|
||||||
|
origLen := dst.Len()
|
||||||
|
scan := newScanner()
|
||||||
|
defer freeScanner(scan)
|
||||||
|
start := 0
|
||||||
|
for i, c := range src {
|
||||||
|
if escape && (c == '<' || c == '>' || c == '&') {
|
||||||
|
if start < i {
|
||||||
|
dst.Write(src[start:i])
|
||||||
|
}
|
||||||
|
dst.WriteString(`\u00`)
|
||||||
|
dst.WriteByte(hex[c>>4])
|
||||||
|
dst.WriteByte(hex[c&0xF])
|
||||||
|
start = i + 1
|
||||||
|
}
|
||||||
|
// Convert U+2028 and U+2029 (E2 80 A8 and E2 80 A9).
|
||||||
|
if escape && c == 0xE2 && i+2 < len(src) && src[i+1] == 0x80 && src[i+2]&^1 == 0xA8 {
|
||||||
|
if start < i {
|
||||||
|
dst.Write(src[start:i])
|
||||||
|
}
|
||||||
|
dst.WriteString(`\u202`)
|
||||||
|
dst.WriteByte(hex[src[i+2]&0xF])
|
||||||
|
start = i + 3
|
||||||
|
}
|
||||||
|
v := scan.step(scan, c)
|
||||||
|
if v >= scanSkipSpace {
|
||||||
|
if v == scanError {
|
||||||
|
break
|
||||||
|
}
|
||||||
|
if start < i {
|
||||||
|
dst.Write(src[start:i])
|
||||||
|
}
|
||||||
|
start = i + 1
|
||||||
|
}
|
||||||
|
}
|
||||||
|
if scan.eof() == scanError {
|
||||||
|
dst.Truncate(origLen)
|
||||||
|
return scan.err
|
||||||
|
}
|
||||||
|
if start < len(src) {
|
||||||
|
dst.Write(src[start:])
|
||||||
|
}
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func newline(dst *bytes.Buffer, prefix, indent string, depth int) {
|
||||||
|
dst.WriteByte('\n')
|
||||||
|
dst.WriteString(prefix)
|
||||||
|
for i := 0; i < depth; i++ {
|
||||||
|
dst.WriteString(indent)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
// Indent appends to dst an indented form of the JSON-encoded src.
|
||||||
|
// Each element in a JSON object or array begins on a new,
|
||||||
|
// indented line beginning with prefix followed by one or more
|
||||||
|
// copies of indent according to the indentation nesting.
|
||||||
|
// The data appended to dst does not begin with the prefix nor
|
||||||
|
// any indentation, to make it easier to embed inside other formatted JSON data.
|
||||||
|
// Although leading space characters (space, tab, carriage return, newline)
|
||||||
|
// at the beginning of src are dropped, trailing space characters
|
||||||
|
// at the end of src are preserved and copied to dst.
|
||||||
|
// For example, if src has no trailing spaces, neither will dst;
|
||||||
|
// if src ends in a trailing newline, so will dst.
|
||||||
|
func Indent(dst *bytes.Buffer, src []byte, prefix, indent string) error {
|
||||||
|
origLen := dst.Len()
|
||||||
|
scan := newScanner()
|
||||||
|
defer freeScanner(scan)
|
||||||
|
needIndent := false
|
||||||
|
depth := 0
|
||||||
|
for _, c := range src {
|
||||||
|
scan.bytes++
|
||||||
|
v := scan.step(scan, c)
|
||||||
|
if v == scanSkipSpace {
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
if v == scanError {
|
||||||
|
break
|
||||||
|
}
|
||||||
|
if needIndent && v != scanEndObject && v != scanEndArray {
|
||||||
|
needIndent = false
|
||||||
|
depth++
|
||||||
|
newline(dst, prefix, indent, depth)
|
||||||
|
}
|
||||||
|
|
||||||
|
// Emit semantically uninteresting bytes
|
||||||
|
// (in particular, punctuation in strings) unmodified.
|
||||||
|
if v == scanContinue {
|
||||||
|
dst.WriteByte(c)
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
|
||||||
|
// Add spacing around real punctuation.
|
||||||
|
switch c {
|
||||||
|
case '{', '[':
|
||||||
|
// delay indent so that empty object and array are formatted as {} and [].
|
||||||
|
needIndent = true
|
||||||
|
dst.WriteByte(c)
|
||||||
|
|
||||||
|
case ',':
|
||||||
|
dst.WriteByte(c)
|
||||||
|
newline(dst, prefix, indent, depth)
|
||||||
|
|
||||||
|
case ':':
|
||||||
|
dst.WriteByte(c)
|
||||||
|
dst.WriteByte(' ')
|
||||||
|
|
||||||
|
case '}', ']':
|
||||||
|
if needIndent {
|
||||||
|
// suppress indent in empty object/array
|
||||||
|
needIndent = false
|
||||||
|
} else {
|
||||||
|
depth--
|
||||||
|
newline(dst, prefix, indent, depth)
|
||||||
|
}
|
||||||
|
dst.WriteByte(c)
|
||||||
|
|
||||||
|
default:
|
||||||
|
dst.WriteByte(c)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
if scan.eof() == scanError {
|
||||||
|
dst.Truncate(origLen)
|
||||||
|
return scan.err
|
||||||
|
}
|
||||||
|
return nil
|
||||||
|
}
|
118
gojson/number_test.go
Normal file
118
gojson/number_test.go
Normal file
@@ -0,0 +1,118 @@
|
|||||||
|
// Copyright 2011 The Go Authors. All rights reserved.
|
||||||
|
// Use of this source code is governed by a BSD-style
|
||||||
|
// license that can be found in the LICENSE file.
|
||||||
|
|
||||||
|
package json
|
||||||
|
|
||||||
|
import (
|
||||||
|
"regexp"
|
||||||
|
"testing"
|
||||||
|
)
|
||||||
|
|
||||||
|
func TestNumberIsValid(t *testing.T) {
|
||||||
|
// From: https://stackoverflow.com/a/13340826
|
||||||
|
var jsonNumberRegexp = regexp.MustCompile(`^-?(?:0|[1-9]\d*)(?:\.\d+)?(?:[eE][+-]?\d+)?$`)
|
||||||
|
|
||||||
|
validTests := []string{
|
||||||
|
"0",
|
||||||
|
"-0",
|
||||||
|
"1",
|
||||||
|
"-1",
|
||||||
|
"0.1",
|
||||||
|
"-0.1",
|
||||||
|
"1234",
|
||||||
|
"-1234",
|
||||||
|
"12.34",
|
||||||
|
"-12.34",
|
||||||
|
"12E0",
|
||||||
|
"12E1",
|
||||||
|
"12e34",
|
||||||
|
"12E-0",
|
||||||
|
"12e+1",
|
||||||
|
"12e-34",
|
||||||
|
"-12E0",
|
||||||
|
"-12E1",
|
||||||
|
"-12e34",
|
||||||
|
"-12E-0",
|
||||||
|
"-12e+1",
|
||||||
|
"-12e-34",
|
||||||
|
"1.2E0",
|
||||||
|
"1.2E1",
|
||||||
|
"1.2e34",
|
||||||
|
"1.2E-0",
|
||||||
|
"1.2e+1",
|
||||||
|
"1.2e-34",
|
||||||
|
"-1.2E0",
|
||||||
|
"-1.2E1",
|
||||||
|
"-1.2e34",
|
||||||
|
"-1.2E-0",
|
||||||
|
"-1.2e+1",
|
||||||
|
"-1.2e-34",
|
||||||
|
"0E0",
|
||||||
|
"0E1",
|
||||||
|
"0e34",
|
||||||
|
"0E-0",
|
||||||
|
"0e+1",
|
||||||
|
"0e-34",
|
||||||
|
"-0E0",
|
||||||
|
"-0E1",
|
||||||
|
"-0e34",
|
||||||
|
"-0E-0",
|
||||||
|
"-0e+1",
|
||||||
|
"-0e-34",
|
||||||
|
}
|
||||||
|
|
||||||
|
for _, test := range validTests {
|
||||||
|
if !isValidNumber(test) {
|
||||||
|
t.Errorf("%s should be valid", test)
|
||||||
|
}
|
||||||
|
|
||||||
|
var f float64
|
||||||
|
if err := Unmarshal([]byte(test), &f); err != nil {
|
||||||
|
t.Errorf("%s should be valid but Unmarshal failed: %v", test, err)
|
||||||
|
}
|
||||||
|
|
||||||
|
if !jsonNumberRegexp.MatchString(test) {
|
||||||
|
t.Errorf("%s should be valid but regexp does not match", test)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
invalidTests := []string{
|
||||||
|
"",
|
||||||
|
"invalid",
|
||||||
|
"1.0.1",
|
||||||
|
"1..1",
|
||||||
|
"-1-2",
|
||||||
|
"012a42",
|
||||||
|
"01.2",
|
||||||
|
"012",
|
||||||
|
"12E12.12",
|
||||||
|
"1e2e3",
|
||||||
|
"1e+-2",
|
||||||
|
"1e--23",
|
||||||
|
"1e",
|
||||||
|
"e1",
|
||||||
|
"1e+",
|
||||||
|
"1ea",
|
||||||
|
"1a",
|
||||||
|
"1.a",
|
||||||
|
"1.",
|
||||||
|
"01",
|
||||||
|
"1.e1",
|
||||||
|
}
|
||||||
|
|
||||||
|
for _, test := range invalidTests {
|
||||||
|
if isValidNumber(test) {
|
||||||
|
t.Errorf("%s should be invalid", test)
|
||||||
|
}
|
||||||
|
|
||||||
|
var f float64
|
||||||
|
if err := Unmarshal([]byte(test), &f); err == nil {
|
||||||
|
t.Errorf("%s should be invalid but unmarshal wrote %v", test, f)
|
||||||
|
}
|
||||||
|
|
||||||
|
if jsonNumberRegexp.MatchString(test) {
|
||||||
|
t.Errorf("%s should be invalid but matches regexp", test)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
610
gojson/scanner.go
Normal file
610
gojson/scanner.go
Normal file
@@ -0,0 +1,610 @@
|
|||||||
|
// Copyright 2010 The Go Authors. All rights reserved.
|
||||||
|
// Use of this source code is governed by a BSD-style
|
||||||
|
// license that can be found in the LICENSE file.
|
||||||
|
|
||||||
|
package json
|
||||||
|
|
||||||
|
// JSON value parser state machine.
|
||||||
|
// Just about at the limit of what is reasonable to write by hand.
|
||||||
|
// Some parts are a bit tedious, but overall it nicely factors out the
|
||||||
|
// otherwise common code from the multiple scanning functions
|
||||||
|
// in this package (Compact, Indent, checkValid, etc).
|
||||||
|
//
|
||||||
|
// This file starts with two simple examples using the scanner
|
||||||
|
// before diving into the scanner itself.
|
||||||
|
|
||||||
|
import (
|
||||||
|
"strconv"
|
||||||
|
"sync"
|
||||||
|
)
|
||||||
|
|
||||||
|
// Valid reports whether data is a valid JSON encoding.
|
||||||
|
func Valid(data []byte) bool {
|
||||||
|
scan := newScanner()
|
||||||
|
defer freeScanner(scan)
|
||||||
|
return checkValid(data, scan) == nil
|
||||||
|
}
|
||||||
|
|
||||||
|
// checkValid verifies that data is valid JSON-encoded data.
|
||||||
|
// scan is passed in for use by checkValid to avoid an allocation.
|
||||||
|
// checkValid returns nil or a SyntaxError.
|
||||||
|
func checkValid(data []byte, scan *scanner) error {
|
||||||
|
scan.reset()
|
||||||
|
for _, c := range data {
|
||||||
|
scan.bytes++
|
||||||
|
if scan.step(scan, c) == scanError {
|
||||||
|
return scan.err
|
||||||
|
}
|
||||||
|
}
|
||||||
|
if scan.eof() == scanError {
|
||||||
|
return scan.err
|
||||||
|
}
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
|
// A SyntaxError is a description of a JSON syntax error.
|
||||||
|
// Unmarshal will return a SyntaxError if the JSON can't be parsed.
|
||||||
|
type SyntaxError struct {
|
||||||
|
msg string // description of error
|
||||||
|
Offset int64 // error occurred after reading Offset bytes
|
||||||
|
}
|
||||||
|
|
||||||
|
func (e *SyntaxError) Error() string { return e.msg }
|
||||||
|
|
||||||
|
// A scanner is a JSON scanning state machine.
|
||||||
|
// Callers call scan.reset and then pass bytes in one at a time
|
||||||
|
// by calling scan.step(&scan, c) for each byte.
|
||||||
|
// The return value, referred to as an opcode, tells the
|
||||||
|
// caller about significant parsing events like beginning
|
||||||
|
// and ending literals, objects, and arrays, so that the
|
||||||
|
// caller can follow along if it wishes.
|
||||||
|
// The return value scanEnd indicates that a single top-level
|
||||||
|
// JSON value has been completed, *before* the byte that
|
||||||
|
// just got passed in. (The indication must be delayed in order
|
||||||
|
// to recognize the end of numbers: is 123 a whole value or
|
||||||
|
// the beginning of 12345e+6?).
|
||||||
|
type scanner struct {
|
||||||
|
// The step is a func to be called to execute the next transition.
|
||||||
|
// Also tried using an integer constant and a single func
|
||||||
|
// with a switch, but using the func directly was 10% faster
|
||||||
|
// on a 64-bit Mac Mini, and it's nicer to read.
|
||||||
|
step func(*scanner, byte) int
|
||||||
|
|
||||||
|
// Reached end of top-level value.
|
||||||
|
endTop bool
|
||||||
|
|
||||||
|
// Stack of what we're in the middle of - array values, object keys, object values.
|
||||||
|
parseState []int
|
||||||
|
|
||||||
|
// Error that happened, if any.
|
||||||
|
err error
|
||||||
|
|
||||||
|
// total bytes consumed, updated by decoder.Decode (and deliberately
|
||||||
|
// not set to zero by scan.reset)
|
||||||
|
bytes int64
|
||||||
|
}
|
||||||
|
|
||||||
|
var scannerPool = sync.Pool{
|
||||||
|
New: func() any {
|
||||||
|
return &scanner{}
|
||||||
|
},
|
||||||
|
}
|
||||||
|
|
||||||
|
func newScanner() *scanner {
|
||||||
|
scan := scannerPool.Get().(*scanner)
|
||||||
|
// scan.reset by design doesn't set bytes to zero
|
||||||
|
scan.bytes = 0
|
||||||
|
scan.reset()
|
||||||
|
return scan
|
||||||
|
}
|
||||||
|
|
||||||
|
func freeScanner(scan *scanner) {
|
||||||
|
// Avoid hanging on to too much memory in extreme cases.
|
||||||
|
if len(scan.parseState) > 1024 {
|
||||||
|
scan.parseState = nil
|
||||||
|
}
|
||||||
|
scannerPool.Put(scan)
|
||||||
|
}
|
||||||
|
|
||||||
|
// These values are returned by the state transition functions
|
||||||
|
// assigned to scanner.state and the method scanner.eof.
|
||||||
|
// They give details about the current state of the scan that
|
||||||
|
// callers might be interested to know about.
|
||||||
|
// It is okay to ignore the return value of any particular
|
||||||
|
// call to scanner.state: if one call returns scanError,
|
||||||
|
// every subsequent call will return scanError too.
|
||||||
|
const (
|
||||||
|
// Continue.
|
||||||
|
scanContinue = iota // uninteresting byte
|
||||||
|
scanBeginLiteral // end implied by next result != scanContinue
|
||||||
|
scanBeginObject // begin object
|
||||||
|
scanObjectKey // just finished object key (string)
|
||||||
|
scanObjectValue // just finished non-last object value
|
||||||
|
scanEndObject // end object (implies scanObjectValue if possible)
|
||||||
|
scanBeginArray // begin array
|
||||||
|
scanArrayValue // just finished array value
|
||||||
|
scanEndArray // end array (implies scanArrayValue if possible)
|
||||||
|
scanSkipSpace // space byte; can skip; known to be last "continue" result
|
||||||
|
|
||||||
|
// Stop.
|
||||||
|
scanEnd // top-level value ended *before* this byte; known to be first "stop" result
|
||||||
|
scanError // hit an error, scanner.err.
|
||||||
|
)
|
||||||
|
|
||||||
|
// These values are stored in the parseState stack.
|
||||||
|
// They give the current state of a composite value
|
||||||
|
// being scanned. If the parser is inside a nested value
|
||||||
|
// the parseState describes the nested state, outermost at entry 0.
|
||||||
|
const (
|
||||||
|
parseObjectKey = iota // parsing object key (before colon)
|
||||||
|
parseObjectValue // parsing object value (after colon)
|
||||||
|
parseArrayValue // parsing array value
|
||||||
|
)
|
||||||
|
|
||||||
|
// This limits the max nesting depth to prevent stack overflow.
|
||||||
|
// This is permitted by https://tools.ietf.org/html/rfc7159#section-9
|
||||||
|
const maxNestingDepth = 10000
|
||||||
|
|
||||||
|
// reset prepares the scanner for use.
|
||||||
|
// It must be called before calling s.step.
|
||||||
|
func (s *scanner) reset() {
|
||||||
|
s.step = stateBeginValue
|
||||||
|
s.parseState = s.parseState[0:0]
|
||||||
|
s.err = nil
|
||||||
|
s.endTop = false
|
||||||
|
}
|
||||||
|
|
||||||
|
// eof tells the scanner that the end of input has been reached.
|
||||||
|
// It returns a scan status just as s.step does.
|
||||||
|
func (s *scanner) eof() int {
|
||||||
|
if s.err != nil {
|
||||||
|
return scanError
|
||||||
|
}
|
||||||
|
if s.endTop {
|
||||||
|
return scanEnd
|
||||||
|
}
|
||||||
|
s.step(s, ' ')
|
||||||
|
if s.endTop {
|
||||||
|
return scanEnd
|
||||||
|
}
|
||||||
|
if s.err == nil {
|
||||||
|
s.err = &SyntaxError{"unexpected end of JSON input", s.bytes}
|
||||||
|
}
|
||||||
|
return scanError
|
||||||
|
}
|
||||||
|
|
||||||
|
// pushParseState pushes a new parse state p onto the parse stack.
|
||||||
|
// an error state is returned if maxNestingDepth was exceeded, otherwise successState is returned.
|
||||||
|
func (s *scanner) pushParseState(c byte, newParseState int, successState int) int {
|
||||||
|
s.parseState = append(s.parseState, newParseState)
|
||||||
|
if len(s.parseState) <= maxNestingDepth {
|
||||||
|
return successState
|
||||||
|
}
|
||||||
|
return s.error(c, "exceeded max depth")
|
||||||
|
}
|
||||||
|
|
||||||
|
// popParseState pops a parse state (already obtained) off the stack
|
||||||
|
// and updates s.step accordingly.
|
||||||
|
func (s *scanner) popParseState() {
|
||||||
|
n := len(s.parseState) - 1
|
||||||
|
s.parseState = s.parseState[0:n]
|
||||||
|
if n == 0 {
|
||||||
|
s.step = stateEndTop
|
||||||
|
s.endTop = true
|
||||||
|
} else {
|
||||||
|
s.step = stateEndValue
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
func isSpace(c byte) bool {
|
||||||
|
return c <= ' ' && (c == ' ' || c == '\t' || c == '\r' || c == '\n')
|
||||||
|
}
|
||||||
|
|
||||||
|
// stateBeginValueOrEmpty is the state after reading `[`.
|
||||||
|
func stateBeginValueOrEmpty(s *scanner, c byte) int {
|
||||||
|
if isSpace(c) {
|
||||||
|
return scanSkipSpace
|
||||||
|
}
|
||||||
|
if c == ']' {
|
||||||
|
return stateEndValue(s, c)
|
||||||
|
}
|
||||||
|
return stateBeginValue(s, c)
|
||||||
|
}
|
||||||
|
|
||||||
|
// stateBeginValue is the state at the beginning of the input.
|
||||||
|
func stateBeginValue(s *scanner, c byte) int {
|
||||||
|
if isSpace(c) {
|
||||||
|
return scanSkipSpace
|
||||||
|
}
|
||||||
|
switch c {
|
||||||
|
case '{':
|
||||||
|
s.step = stateBeginStringOrEmpty
|
||||||
|
return s.pushParseState(c, parseObjectKey, scanBeginObject)
|
||||||
|
case '[':
|
||||||
|
s.step = stateBeginValueOrEmpty
|
||||||
|
return s.pushParseState(c, parseArrayValue, scanBeginArray)
|
||||||
|
case '"':
|
||||||
|
s.step = stateInString
|
||||||
|
return scanBeginLiteral
|
||||||
|
case '-':
|
||||||
|
s.step = stateNeg
|
||||||
|
return scanBeginLiteral
|
||||||
|
case '0': // beginning of 0.123
|
||||||
|
s.step = state0
|
||||||
|
return scanBeginLiteral
|
||||||
|
case 't': // beginning of true
|
||||||
|
s.step = stateT
|
||||||
|
return scanBeginLiteral
|
||||||
|
case 'f': // beginning of false
|
||||||
|
s.step = stateF
|
||||||
|
return scanBeginLiteral
|
||||||
|
case 'n': // beginning of null
|
||||||
|
s.step = stateN
|
||||||
|
return scanBeginLiteral
|
||||||
|
}
|
||||||
|
if '1' <= c && c <= '9' { // beginning of 1234.5
|
||||||
|
s.step = state1
|
||||||
|
return scanBeginLiteral
|
||||||
|
}
|
||||||
|
return s.error(c, "looking for beginning of value")
|
||||||
|
}
|
||||||
|
|
||||||
|
// stateBeginStringOrEmpty is the state after reading `{`.
|
||||||
|
func stateBeginStringOrEmpty(s *scanner, c byte) int {
|
||||||
|
if isSpace(c) {
|
||||||
|
return scanSkipSpace
|
||||||
|
}
|
||||||
|
if c == '}' {
|
||||||
|
n := len(s.parseState)
|
||||||
|
s.parseState[n-1] = parseObjectValue
|
||||||
|
return stateEndValue(s, c)
|
||||||
|
}
|
||||||
|
return stateBeginString(s, c)
|
||||||
|
}
|
||||||
|
|
||||||
|
// stateBeginString is the state after reading `{"key": value,`.
|
||||||
|
func stateBeginString(s *scanner, c byte) int {
|
||||||
|
if isSpace(c) {
|
||||||
|
return scanSkipSpace
|
||||||
|
}
|
||||||
|
if c == '"' {
|
||||||
|
s.step = stateInString
|
||||||
|
return scanBeginLiteral
|
||||||
|
}
|
||||||
|
return s.error(c, "looking for beginning of object key string")
|
||||||
|
}
|
||||||
|
|
||||||
|
// stateEndValue is the state after completing a value,
|
||||||
|
// such as after reading `{}` or `true` or `["x"`.
|
||||||
|
func stateEndValue(s *scanner, c byte) int {
|
||||||
|
n := len(s.parseState)
|
||||||
|
if n == 0 {
|
||||||
|
// Completed top-level before the current byte.
|
||||||
|
s.step = stateEndTop
|
||||||
|
s.endTop = true
|
||||||
|
return stateEndTop(s, c)
|
||||||
|
}
|
||||||
|
if isSpace(c) {
|
||||||
|
s.step = stateEndValue
|
||||||
|
return scanSkipSpace
|
||||||
|
}
|
||||||
|
ps := s.parseState[n-1]
|
||||||
|
switch ps {
|
||||||
|
case parseObjectKey:
|
||||||
|
if c == ':' {
|
||||||
|
s.parseState[n-1] = parseObjectValue
|
||||||
|
s.step = stateBeginValue
|
||||||
|
return scanObjectKey
|
||||||
|
}
|
||||||
|
return s.error(c, "after object key")
|
||||||
|
case parseObjectValue:
|
||||||
|
if c == ',' {
|
||||||
|
s.parseState[n-1] = parseObjectKey
|
||||||
|
s.step = stateBeginString
|
||||||
|
return scanObjectValue
|
||||||
|
}
|
||||||
|
if c == '}' {
|
||||||
|
s.popParseState()
|
||||||
|
return scanEndObject
|
||||||
|
}
|
||||||
|
return s.error(c, "after object key:value pair")
|
||||||
|
case parseArrayValue:
|
||||||
|
if c == ',' {
|
||||||
|
s.step = stateBeginValue
|
||||||
|
return scanArrayValue
|
||||||
|
}
|
||||||
|
if c == ']' {
|
||||||
|
s.popParseState()
|
||||||
|
return scanEndArray
|
||||||
|
}
|
||||||
|
return s.error(c, "after array element")
|
||||||
|
}
|
||||||
|
return s.error(c, "")
|
||||||
|
}
|
||||||
|
|
||||||
|
// stateEndTop is the state after finishing the top-level value,
|
||||||
|
// such as after reading `{}` or `[1,2,3]`.
|
||||||
|
// Only space characters should be seen now.
|
||||||
|
func stateEndTop(s *scanner, c byte) int {
|
||||||
|
if !isSpace(c) {
|
||||||
|
// Complain about non-space byte on next call.
|
||||||
|
s.error(c, "after top-level value")
|
||||||
|
}
|
||||||
|
return scanEnd
|
||||||
|
}
|
||||||
|
|
||||||
|
// stateInString is the state after reading `"`.
|
||||||
|
func stateInString(s *scanner, c byte) int {
|
||||||
|
if c == '"' {
|
||||||
|
s.step = stateEndValue
|
||||||
|
return scanContinue
|
||||||
|
}
|
||||||
|
if c == '\\' {
|
||||||
|
s.step = stateInStringEsc
|
||||||
|
return scanContinue
|
||||||
|
}
|
||||||
|
if c < 0x20 {
|
||||||
|
return s.error(c, "in string literal")
|
||||||
|
}
|
||||||
|
return scanContinue
|
||||||
|
}
|
||||||
|
|
||||||
|
// stateInStringEsc is the state after reading `"\` during a quoted string.
|
||||||
|
func stateInStringEsc(s *scanner, c byte) int {
|
||||||
|
switch c {
|
||||||
|
case 'b', 'f', 'n', 'r', 't', '\\', '/', '"':
|
||||||
|
s.step = stateInString
|
||||||
|
return scanContinue
|
||||||
|
case 'u':
|
||||||
|
s.step = stateInStringEscU
|
||||||
|
return scanContinue
|
||||||
|
}
|
||||||
|
return s.error(c, "in string escape code")
|
||||||
|
}
|
||||||
|
|
||||||
|
// stateInStringEscU is the state after reading `"\u` during a quoted string.
|
||||||
|
func stateInStringEscU(s *scanner, c byte) int {
|
||||||
|
if '0' <= c && c <= '9' || 'a' <= c && c <= 'f' || 'A' <= c && c <= 'F' {
|
||||||
|
s.step = stateInStringEscU1
|
||||||
|
return scanContinue
|
||||||
|
}
|
||||||
|
// numbers
|
||||||
|
return s.error(c, "in \\u hexadecimal character escape")
|
||||||
|
}
|
||||||
|
|
||||||
|
// stateInStringEscU1 is the state after reading `"\u1` during a quoted string.
|
||||||
|
func stateInStringEscU1(s *scanner, c byte) int {
|
||||||
|
if '0' <= c && c <= '9' || 'a' <= c && c <= 'f' || 'A' <= c && c <= 'F' {
|
||||||
|
s.step = stateInStringEscU12
|
||||||
|
return scanContinue
|
||||||
|
}
|
||||||
|
// numbers
|
||||||
|
return s.error(c, "in \\u hexadecimal character escape")
|
||||||
|
}
|
||||||
|
|
||||||
|
// stateInStringEscU12 is the state after reading `"\u12` during a quoted string.
|
||||||
|
func stateInStringEscU12(s *scanner, c byte) int {
|
||||||
|
if '0' <= c && c <= '9' || 'a' <= c && c <= 'f' || 'A' <= c && c <= 'F' {
|
||||||
|
s.step = stateInStringEscU123
|
||||||
|
return scanContinue
|
||||||
|
}
|
||||||
|
// numbers
|
||||||
|
return s.error(c, "in \\u hexadecimal character escape")
|
||||||
|
}
|
||||||
|
|
||||||
|
// stateInStringEscU123 is the state after reading `"\u123` during a quoted string.
|
||||||
|
func stateInStringEscU123(s *scanner, c byte) int {
|
||||||
|
if '0' <= c && c <= '9' || 'a' <= c && c <= 'f' || 'A' <= c && c <= 'F' {
|
||||||
|
s.step = stateInString
|
||||||
|
return scanContinue
|
||||||
|
}
|
||||||
|
// numbers
|
||||||
|
return s.error(c, "in \\u hexadecimal character escape")
|
||||||
|
}
|
||||||
|
|
||||||
|
// stateNeg is the state after reading `-` during a number.
|
||||||
|
func stateNeg(s *scanner, c byte) int {
|
||||||
|
if c == '0' {
|
||||||
|
s.step = state0
|
||||||
|
return scanContinue
|
||||||
|
}
|
||||||
|
if '1' <= c && c <= '9' {
|
||||||
|
s.step = state1
|
||||||
|
return scanContinue
|
||||||
|
}
|
||||||
|
return s.error(c, "in numeric literal")
|
||||||
|
}
|
||||||
|
|
||||||
|
// state1 is the state after reading a non-zero integer during a number,
|
||||||
|
// such as after reading `1` or `100` but not `0`.
|
||||||
|
func state1(s *scanner, c byte) int {
|
||||||
|
if '0' <= c && c <= '9' {
|
||||||
|
s.step = state1
|
||||||
|
return scanContinue
|
||||||
|
}
|
||||||
|
return state0(s, c)
|
||||||
|
}
|
||||||
|
|
||||||
|
// state0 is the state after reading `0` during a number.
|
||||||
|
func state0(s *scanner, c byte) int {
|
||||||
|
if c == '.' {
|
||||||
|
s.step = stateDot
|
||||||
|
return scanContinue
|
||||||
|
}
|
||||||
|
if c == 'e' || c == 'E' {
|
||||||
|
s.step = stateE
|
||||||
|
return scanContinue
|
||||||
|
}
|
||||||
|
return stateEndValue(s, c)
|
||||||
|
}
|
||||||
|
|
||||||
|
// stateDot is the state after reading the integer and decimal point in a number,
|
||||||
|
// such as after reading `1.`.
|
||||||
|
func stateDot(s *scanner, c byte) int {
|
||||||
|
if '0' <= c && c <= '9' {
|
||||||
|
s.step = stateDot0
|
||||||
|
return scanContinue
|
||||||
|
}
|
||||||
|
return s.error(c, "after decimal point in numeric literal")
|
||||||
|
}
|
||||||
|
|
||||||
|
// stateDot0 is the state after reading the integer, decimal point, and subsequent
|
||||||
|
// digits of a number, such as after reading `3.14`.
|
||||||
|
func stateDot0(s *scanner, c byte) int {
|
||||||
|
if '0' <= c && c <= '9' {
|
||||||
|
return scanContinue
|
||||||
|
}
|
||||||
|
if c == 'e' || c == 'E' {
|
||||||
|
s.step = stateE
|
||||||
|
return scanContinue
|
||||||
|
}
|
||||||
|
return stateEndValue(s, c)
|
||||||
|
}
|
||||||
|
|
||||||
|
// stateE is the state after reading the mantissa and e in a number,
|
||||||
|
// such as after reading `314e` or `0.314e`.
|
||||||
|
func stateE(s *scanner, c byte) int {
|
||||||
|
if c == '+' || c == '-' {
|
||||||
|
s.step = stateESign
|
||||||
|
return scanContinue
|
||||||
|
}
|
||||||
|
return stateESign(s, c)
|
||||||
|
}
|
||||||
|
|
||||||
|
// stateESign is the state after reading the mantissa, e, and sign in a number,
|
||||||
|
// such as after reading `314e-` or `0.314e+`.
|
||||||
|
func stateESign(s *scanner, c byte) int {
|
||||||
|
if '0' <= c && c <= '9' {
|
||||||
|
s.step = stateE0
|
||||||
|
return scanContinue
|
||||||
|
}
|
||||||
|
return s.error(c, "in exponent of numeric literal")
|
||||||
|
}
|
||||||
|
|
||||||
|
// stateE0 is the state after reading the mantissa, e, optional sign,
|
||||||
|
// and at least one digit of the exponent in a number,
|
||||||
|
// such as after reading `314e-2` or `0.314e+1` or `3.14e0`.
|
||||||
|
func stateE0(s *scanner, c byte) int {
|
||||||
|
if '0' <= c && c <= '9' {
|
||||||
|
return scanContinue
|
||||||
|
}
|
||||||
|
return stateEndValue(s, c)
|
||||||
|
}
|
||||||
|
|
||||||
|
// stateT is the state after reading `t`.
|
||||||
|
func stateT(s *scanner, c byte) int {
|
||||||
|
if c == 'r' {
|
||||||
|
s.step = stateTr
|
||||||
|
return scanContinue
|
||||||
|
}
|
||||||
|
return s.error(c, "in literal true (expecting 'r')")
|
||||||
|
}
|
||||||
|
|
||||||
|
// stateTr is the state after reading `tr`.
|
||||||
|
func stateTr(s *scanner, c byte) int {
|
||||||
|
if c == 'u' {
|
||||||
|
s.step = stateTru
|
||||||
|
return scanContinue
|
||||||
|
}
|
||||||
|
return s.error(c, "in literal true (expecting 'u')")
|
||||||
|
}
|
||||||
|
|
||||||
|
// stateTru is the state after reading `tru`.
|
||||||
|
func stateTru(s *scanner, c byte) int {
|
||||||
|
if c == 'e' {
|
||||||
|
s.step = stateEndValue
|
||||||
|
return scanContinue
|
||||||
|
}
|
||||||
|
return s.error(c, "in literal true (expecting 'e')")
|
||||||
|
}
|
||||||
|
|
||||||
|
// stateF is the state after reading `f`.
|
||||||
|
func stateF(s *scanner, c byte) int {
|
||||||
|
if c == 'a' {
|
||||||
|
s.step = stateFa
|
||||||
|
return scanContinue
|
||||||
|
}
|
||||||
|
return s.error(c, "in literal false (expecting 'a')")
|
||||||
|
}
|
||||||
|
|
||||||
|
// stateFa is the state after reading `fa`.
|
||||||
|
func stateFa(s *scanner, c byte) int {
|
||||||
|
if c == 'l' {
|
||||||
|
s.step = stateFal
|
||||||
|
return scanContinue
|
||||||
|
}
|
||||||
|
return s.error(c, "in literal false (expecting 'l')")
|
||||||
|
}
|
||||||
|
|
||||||
|
// stateFal is the state after reading `fal`.
|
||||||
|
func stateFal(s *scanner, c byte) int {
|
||||||
|
if c == 's' {
|
||||||
|
s.step = stateFals
|
||||||
|
return scanContinue
|
||||||
|
}
|
||||||
|
return s.error(c, "in literal false (expecting 's')")
|
||||||
|
}
|
||||||
|
|
||||||
|
// stateFals is the state after reading `fals`.
|
||||||
|
func stateFals(s *scanner, c byte) int {
|
||||||
|
if c == 'e' {
|
||||||
|
s.step = stateEndValue
|
||||||
|
return scanContinue
|
||||||
|
}
|
||||||
|
return s.error(c, "in literal false (expecting 'e')")
|
||||||
|
}
|
||||||
|
|
||||||
|
// stateN is the state after reading `n`.
|
||||||
|
func stateN(s *scanner, c byte) int {
|
||||||
|
if c == 'u' {
|
||||||
|
s.step = stateNu
|
||||||
|
return scanContinue
|
||||||
|
}
|
||||||
|
return s.error(c, "in literal null (expecting 'u')")
|
||||||
|
}
|
||||||
|
|
||||||
|
// stateNu is the state after reading `nu`.
|
||||||
|
func stateNu(s *scanner, c byte) int {
|
||||||
|
if c == 'l' {
|
||||||
|
s.step = stateNul
|
||||||
|
return scanContinue
|
||||||
|
}
|
||||||
|
return s.error(c, "in literal null (expecting 'l')")
|
||||||
|
}
|
||||||
|
|
||||||
|
// stateNul is the state after reading `nul`.
|
||||||
|
func stateNul(s *scanner, c byte) int {
|
||||||
|
if c == 'l' {
|
||||||
|
s.step = stateEndValue
|
||||||
|
return scanContinue
|
||||||
|
}
|
||||||
|
return s.error(c, "in literal null (expecting 'l')")
|
||||||
|
}
|
||||||
|
|
||||||
|
// stateError is the state after reaching a syntax error,
|
||||||
|
// such as after reading `[1}` or `5.1.2`.
|
||||||
|
func stateError(s *scanner, c byte) int {
|
||||||
|
return scanError
|
||||||
|
}
|
||||||
|
|
||||||
|
// error records an error and switches to the error state.
|
||||||
|
func (s *scanner) error(c byte, context string) int {
|
||||||
|
s.step = stateError
|
||||||
|
s.err = &SyntaxError{"invalid character " + quoteChar(c) + " " + context, s.bytes}
|
||||||
|
return scanError
|
||||||
|
}
|
||||||
|
|
||||||
|
// quoteChar formats c as a quoted character literal.
|
||||||
|
func quoteChar(c byte) string {
|
||||||
|
// special cases - different from quoted strings
|
||||||
|
if c == '\'' {
|
||||||
|
return `'\''`
|
||||||
|
}
|
||||||
|
if c == '"' {
|
||||||
|
return `'"'`
|
||||||
|
}
|
||||||
|
|
||||||
|
// use quoted string with different quotation marks
|
||||||
|
s := strconv.Quote(string(c))
|
||||||
|
return "'" + s[1:len(s)-1] + "'"
|
||||||
|
}
|
301
gojson/scanner_test.go
Normal file
301
gojson/scanner_test.go
Normal file
@@ -0,0 +1,301 @@
|
|||||||
|
// Copyright 2010 The Go Authors. All rights reserved.
|
||||||
|
// Use of this source code is governed by a BSD-style
|
||||||
|
// license that can be found in the LICENSE file.
|
||||||
|
|
||||||
|
package json
|
||||||
|
|
||||||
|
import (
|
||||||
|
"bytes"
|
||||||
|
"math"
|
||||||
|
"math/rand"
|
||||||
|
"reflect"
|
||||||
|
"testing"
|
||||||
|
)
|
||||||
|
|
||||||
|
var validTests = []struct {
|
||||||
|
data string
|
||||||
|
ok bool
|
||||||
|
}{
|
||||||
|
{`foo`, false},
|
||||||
|
{`}{`, false},
|
||||||
|
{`{]`, false},
|
||||||
|
{`{}`, true},
|
||||||
|
{`{"foo":"bar"}`, true},
|
||||||
|
{`{"foo":"bar","bar":{"baz":["qux"]}}`, true},
|
||||||
|
}
|
||||||
|
|
||||||
|
func TestValid(t *testing.T) {
|
||||||
|
for _, tt := range validTests {
|
||||||
|
if ok := Valid([]byte(tt.data)); ok != tt.ok {
|
||||||
|
t.Errorf("Valid(%#q) = %v, want %v", tt.data, ok, tt.ok)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
// Tests of simple examples.
|
||||||
|
|
||||||
|
type example struct {
|
||||||
|
compact string
|
||||||
|
indent string
|
||||||
|
}
|
||||||
|
|
||||||
|
var examples = []example{
|
||||||
|
{`1`, `1`},
|
||||||
|
{`{}`, `{}`},
|
||||||
|
{`[]`, `[]`},
|
||||||
|
{`{"":2}`, "{\n\t\"\": 2\n}"},
|
||||||
|
{`[3]`, "[\n\t3\n]"},
|
||||||
|
{`[1,2,3]`, "[\n\t1,\n\t2,\n\t3\n]"},
|
||||||
|
{`{"x":1}`, "{\n\t\"x\": 1\n}"},
|
||||||
|
{ex1, ex1i},
|
||||||
|
{"{\"\":\"<>&\u2028\u2029\"}", "{\n\t\"\": \"<>&\u2028\u2029\"\n}"}, // See golang.org/issue/34070
|
||||||
|
}
|
||||||
|
|
||||||
|
var ex1 = `[true,false,null,"x",1,1.5,0,-5e+2]`
|
||||||
|
|
||||||
|
var ex1i = `[
|
||||||
|
true,
|
||||||
|
false,
|
||||||
|
null,
|
||||||
|
"x",
|
||||||
|
1,
|
||||||
|
1.5,
|
||||||
|
0,
|
||||||
|
-5e+2
|
||||||
|
]`
|
||||||
|
|
||||||
|
func TestCompact(t *testing.T) {
|
||||||
|
var buf bytes.Buffer
|
||||||
|
for _, tt := range examples {
|
||||||
|
buf.Reset()
|
||||||
|
if err := Compact(&buf, []byte(tt.compact)); err != nil {
|
||||||
|
t.Errorf("Compact(%#q): %v", tt.compact, err)
|
||||||
|
} else if s := buf.String(); s != tt.compact {
|
||||||
|
t.Errorf("Compact(%#q) = %#q, want original", tt.compact, s)
|
||||||
|
}
|
||||||
|
|
||||||
|
buf.Reset()
|
||||||
|
if err := Compact(&buf, []byte(tt.indent)); err != nil {
|
||||||
|
t.Errorf("Compact(%#q): %v", tt.indent, err)
|
||||||
|
continue
|
||||||
|
} else if s := buf.String(); s != tt.compact {
|
||||||
|
t.Errorf("Compact(%#q) = %#q, want %#q", tt.indent, s, tt.compact)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
func TestCompactSeparators(t *testing.T) {
|
||||||
|
// U+2028 and U+2029 should be escaped inside strings.
|
||||||
|
// They should not appear outside strings.
|
||||||
|
tests := []struct {
|
||||||
|
in, compact string
|
||||||
|
}{
|
||||||
|
{"{\"\u2028\": 1}", "{\"\u2028\":1}"},
|
||||||
|
{"{\"\u2029\" :2}", "{\"\u2029\":2}"},
|
||||||
|
}
|
||||||
|
for _, tt := range tests {
|
||||||
|
var buf bytes.Buffer
|
||||||
|
if err := Compact(&buf, []byte(tt.in)); err != nil {
|
||||||
|
t.Errorf("Compact(%q): %v", tt.in, err)
|
||||||
|
} else if s := buf.String(); s != tt.compact {
|
||||||
|
t.Errorf("Compact(%q) = %q, want %q", tt.in, s, tt.compact)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
func TestIndent(t *testing.T) {
|
||||||
|
var buf bytes.Buffer
|
||||||
|
for _, tt := range examples {
|
||||||
|
buf.Reset()
|
||||||
|
if err := Indent(&buf, []byte(tt.indent), "", "\t"); err != nil {
|
||||||
|
t.Errorf("Indent(%#q): %v", tt.indent, err)
|
||||||
|
} else if s := buf.String(); s != tt.indent {
|
||||||
|
t.Errorf("Indent(%#q) = %#q, want original", tt.indent, s)
|
||||||
|
}
|
||||||
|
|
||||||
|
buf.Reset()
|
||||||
|
if err := Indent(&buf, []byte(tt.compact), "", "\t"); err != nil {
|
||||||
|
t.Errorf("Indent(%#q): %v", tt.compact, err)
|
||||||
|
continue
|
||||||
|
} else if s := buf.String(); s != tt.indent {
|
||||||
|
t.Errorf("Indent(%#q) = %#q, want %#q", tt.compact, s, tt.indent)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
// Tests of a large random structure.
|
||||||
|
|
||||||
|
func TestCompactBig(t *testing.T) {
|
||||||
|
initBig()
|
||||||
|
var buf bytes.Buffer
|
||||||
|
if err := Compact(&buf, jsonBig); err != nil {
|
||||||
|
t.Fatalf("Compact: %v", err)
|
||||||
|
}
|
||||||
|
b := buf.Bytes()
|
||||||
|
if !bytes.Equal(b, jsonBig) {
|
||||||
|
t.Error("Compact(jsonBig) != jsonBig")
|
||||||
|
diff(t, b, jsonBig)
|
||||||
|
return
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
func TestIndentBig(t *testing.T) {
|
||||||
|
t.Parallel()
|
||||||
|
initBig()
|
||||||
|
var buf bytes.Buffer
|
||||||
|
if err := Indent(&buf, jsonBig, "", "\t"); err != nil {
|
||||||
|
t.Fatalf("Indent1: %v", err)
|
||||||
|
}
|
||||||
|
b := buf.Bytes()
|
||||||
|
if len(b) == len(jsonBig) {
|
||||||
|
// jsonBig is compact (no unnecessary spaces);
|
||||||
|
// indenting should make it bigger
|
||||||
|
t.Fatalf("Indent(jsonBig) did not get bigger")
|
||||||
|
}
|
||||||
|
|
||||||
|
// should be idempotent
|
||||||
|
var buf1 bytes.Buffer
|
||||||
|
if err := Indent(&buf1, b, "", "\t"); err != nil {
|
||||||
|
t.Fatalf("Indent2: %v", err)
|
||||||
|
}
|
||||||
|
b1 := buf1.Bytes()
|
||||||
|
if !bytes.Equal(b1, b) {
|
||||||
|
t.Error("Indent(Indent(jsonBig)) != Indent(jsonBig)")
|
||||||
|
diff(t, b1, b)
|
||||||
|
return
|
||||||
|
}
|
||||||
|
|
||||||
|
// should get back to original
|
||||||
|
buf1.Reset()
|
||||||
|
if err := Compact(&buf1, b); err != nil {
|
||||||
|
t.Fatalf("Compact: %v", err)
|
||||||
|
}
|
||||||
|
b1 = buf1.Bytes()
|
||||||
|
if !bytes.Equal(b1, jsonBig) {
|
||||||
|
t.Error("Compact(Indent(jsonBig)) != jsonBig")
|
||||||
|
diff(t, b1, jsonBig)
|
||||||
|
return
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
type indentErrorTest struct {
|
||||||
|
in string
|
||||||
|
err error
|
||||||
|
}
|
||||||
|
|
||||||
|
var indentErrorTests = []indentErrorTest{
|
||||||
|
{`{"X": "foo", "Y"}`, &SyntaxError{"invalid character '}' after object key", 17}},
|
||||||
|
{`{"X": "foo" "Y": "bar"}`, &SyntaxError{"invalid character '\"' after object key:value pair", 13}},
|
||||||
|
}
|
||||||
|
|
||||||
|
func TestIndentErrors(t *testing.T) {
|
||||||
|
for i, tt := range indentErrorTests {
|
||||||
|
slice := make([]uint8, 0)
|
||||||
|
buf := bytes.NewBuffer(slice)
|
||||||
|
if err := Indent(buf, []uint8(tt.in), "", ""); err != nil {
|
||||||
|
if !reflect.DeepEqual(err, tt.err) {
|
||||||
|
t.Errorf("#%d: Indent: %#v", i, err)
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
func diff(t *testing.T, a, b []byte) {
|
||||||
|
for i := 0; ; i++ {
|
||||||
|
if i >= len(a) || i >= len(b) || a[i] != b[i] {
|
||||||
|
j := i - 10
|
||||||
|
if j < 0 {
|
||||||
|
j = 0
|
||||||
|
}
|
||||||
|
t.Errorf("diverge at %d: «%s» vs «%s»", i, trim(a[j:]), trim(b[j:]))
|
||||||
|
return
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
func trim(b []byte) []byte {
|
||||||
|
if len(b) > 20 {
|
||||||
|
return b[0:20]
|
||||||
|
}
|
||||||
|
return b
|
||||||
|
}
|
||||||
|
|
||||||
|
// Generate a random JSON object.
|
||||||
|
|
||||||
|
var jsonBig []byte
|
||||||
|
|
||||||
|
func initBig() {
|
||||||
|
n := 10000
|
||||||
|
if testing.Short() {
|
||||||
|
n = 100
|
||||||
|
}
|
||||||
|
b, err := Marshal(genValue(n))
|
||||||
|
if err != nil {
|
||||||
|
panic(err)
|
||||||
|
}
|
||||||
|
jsonBig = b
|
||||||
|
}
|
||||||
|
|
||||||
|
func genValue(n int) any {
|
||||||
|
if n > 1 {
|
||||||
|
switch rand.Intn(2) {
|
||||||
|
case 0:
|
||||||
|
return genArray(n)
|
||||||
|
case 1:
|
||||||
|
return genMap(n)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
switch rand.Intn(3) {
|
||||||
|
case 0:
|
||||||
|
return rand.Intn(2) == 0
|
||||||
|
case 1:
|
||||||
|
return rand.NormFloat64()
|
||||||
|
case 2:
|
||||||
|
return genString(30)
|
||||||
|
}
|
||||||
|
panic("unreachable")
|
||||||
|
}
|
||||||
|
|
||||||
|
func genString(stddev float64) string {
|
||||||
|
n := int(math.Abs(rand.NormFloat64()*stddev + stddev/2))
|
||||||
|
c := make([]rune, n)
|
||||||
|
for i := range c {
|
||||||
|
f := math.Abs(rand.NormFloat64()*64 + 32)
|
||||||
|
if f > 0x10ffff {
|
||||||
|
f = 0x10ffff
|
||||||
|
}
|
||||||
|
c[i] = rune(f)
|
||||||
|
}
|
||||||
|
return string(c)
|
||||||
|
}
|
||||||
|
|
||||||
|
func genArray(n int) []any {
|
||||||
|
f := int(math.Abs(rand.NormFloat64()) * math.Min(10, float64(n/2)))
|
||||||
|
if f > n {
|
||||||
|
f = n
|
||||||
|
}
|
||||||
|
if f < 1 {
|
||||||
|
f = 1
|
||||||
|
}
|
||||||
|
x := make([]any, f)
|
||||||
|
for i := range x {
|
||||||
|
x[i] = genValue(((i+1)*n)/f - (i*n)/f)
|
||||||
|
}
|
||||||
|
return x
|
||||||
|
}
|
||||||
|
|
||||||
|
func genMap(n int) map[string]any {
|
||||||
|
f := int(math.Abs(rand.NormFloat64()) * math.Min(10, float64(n/2)))
|
||||||
|
if f > n {
|
||||||
|
f = n
|
||||||
|
}
|
||||||
|
if n > 0 && f == 0 {
|
||||||
|
f = 1
|
||||||
|
}
|
||||||
|
x := make(map[string]any)
|
||||||
|
for i := 0; i < f; i++ {
|
||||||
|
x[genString(10)] = genValue(((i+1)*n)/f - (i*n)/f)
|
||||||
|
}
|
||||||
|
return x
|
||||||
|
}
|
524
gojson/stream.go
Normal file
524
gojson/stream.go
Normal file
@@ -0,0 +1,524 @@
|
|||||||
|
// Copyright 2010 The Go Authors. All rights reserved.
|
||||||
|
// Use of this source code is governed by a BSD-style
|
||||||
|
// license that can be found in the LICENSE file.
|
||||||
|
|
||||||
|
package json
|
||||||
|
|
||||||
|
import (
|
||||||
|
"bytes"
|
||||||
|
"errors"
|
||||||
|
"io"
|
||||||
|
)
|
||||||
|
|
||||||
|
// A Decoder reads and decodes JSON values from an input stream.
|
||||||
|
type Decoder struct {
|
||||||
|
r io.Reader
|
||||||
|
buf []byte
|
||||||
|
d decodeState
|
||||||
|
scanp int // start of unread data in buf
|
||||||
|
scanned int64 // amount of data already scanned
|
||||||
|
scan scanner
|
||||||
|
err error
|
||||||
|
|
||||||
|
tokenState int
|
||||||
|
tokenStack []int
|
||||||
|
}
|
||||||
|
|
||||||
|
// NewDecoder returns a new decoder that reads from r.
|
||||||
|
//
|
||||||
|
// The decoder introduces its own buffering and may
|
||||||
|
// read data from r beyond the JSON values requested.
|
||||||
|
func NewDecoder(r io.Reader) *Decoder {
|
||||||
|
return &Decoder{r: r}
|
||||||
|
}
|
||||||
|
|
||||||
|
// UseNumber causes the Decoder to unmarshal a number into an interface{} as a
|
||||||
|
// Number instead of as a float64.
|
||||||
|
func (dec *Decoder) UseNumber() { dec.d.useNumber = true }
|
||||||
|
|
||||||
|
// DisallowUnknownFields causes the Decoder to return an error when the destination
|
||||||
|
// is a struct and the input contains object keys which do not match any
|
||||||
|
// non-ignored, exported fields in the destination.
|
||||||
|
func (dec *Decoder) DisallowUnknownFields() { dec.d.disallowUnknownFields = true }
|
||||||
|
|
||||||
|
// Decode reads the next JSON-encoded value from its
|
||||||
|
// input and stores it in the value pointed to by v.
|
||||||
|
//
|
||||||
|
// See the documentation for Unmarshal for details about
|
||||||
|
// the conversion of JSON into a Go value.
|
||||||
|
func (dec *Decoder) Decode(v any) error {
|
||||||
|
if dec.err != nil {
|
||||||
|
return dec.err
|
||||||
|
}
|
||||||
|
|
||||||
|
if err := dec.tokenPrepareForDecode(); err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
|
||||||
|
if !dec.tokenValueAllowed() {
|
||||||
|
return &SyntaxError{msg: "not at beginning of value", Offset: dec.InputOffset()}
|
||||||
|
}
|
||||||
|
|
||||||
|
// Read whole value into buffer.
|
||||||
|
n, err := dec.readValue()
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
dec.d.init(dec.buf[dec.scanp : dec.scanp+n])
|
||||||
|
dec.scanp += n
|
||||||
|
|
||||||
|
// Don't save err from unmarshal into dec.err:
|
||||||
|
// the connection is still usable since we read a complete JSON
|
||||||
|
// object from it before the error happened.
|
||||||
|
err = dec.d.unmarshal(v)
|
||||||
|
|
||||||
|
// fixup token streaming state
|
||||||
|
dec.tokenValueEnd()
|
||||||
|
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
|
||||||
|
// Buffered returns a reader of the data remaining in the Decoder's
|
||||||
|
// buffer. The reader is valid until the next call to Decode.
|
||||||
|
func (dec *Decoder) Buffered() io.Reader {
|
||||||
|
return bytes.NewReader(dec.buf[dec.scanp:])
|
||||||
|
}
|
||||||
|
|
||||||
|
// readValue reads a JSON value into dec.buf.
|
||||||
|
// It returns the length of the encoding.
|
||||||
|
func (dec *Decoder) readValue() (int, error) {
|
||||||
|
dec.scan.reset()
|
||||||
|
|
||||||
|
scanp := dec.scanp
|
||||||
|
var err error
|
||||||
|
Input:
|
||||||
|
// help the compiler see that scanp is never negative, so it can remove
|
||||||
|
// some bounds checks below.
|
||||||
|
for scanp >= 0 {
|
||||||
|
|
||||||
|
// Look in the buffer for a new value.
|
||||||
|
for ; scanp < len(dec.buf); scanp++ {
|
||||||
|
c := dec.buf[scanp]
|
||||||
|
dec.scan.bytes++
|
||||||
|
switch dec.scan.step(&dec.scan, c) {
|
||||||
|
case scanEnd:
|
||||||
|
// scanEnd is delayed one byte so we decrement
|
||||||
|
// the scanner bytes count by 1 to ensure that
|
||||||
|
// this value is correct in the next call of Decode.
|
||||||
|
dec.scan.bytes--
|
||||||
|
break Input
|
||||||
|
case scanEndObject, scanEndArray:
|
||||||
|
// scanEnd is delayed one byte.
|
||||||
|
// We might block trying to get that byte from src,
|
||||||
|
// so instead invent a space byte.
|
||||||
|
if stateEndValue(&dec.scan, ' ') == scanEnd {
|
||||||
|
scanp++
|
||||||
|
break Input
|
||||||
|
}
|
||||||
|
case scanError:
|
||||||
|
dec.err = dec.scan.err
|
||||||
|
return 0, dec.scan.err
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
// Did the last read have an error?
|
||||||
|
// Delayed until now to allow buffer scan.
|
||||||
|
if err != nil {
|
||||||
|
if err == io.EOF {
|
||||||
|
if dec.scan.step(&dec.scan, ' ') == scanEnd {
|
||||||
|
break Input
|
||||||
|
}
|
||||||
|
if nonSpace(dec.buf) {
|
||||||
|
err = io.ErrUnexpectedEOF
|
||||||
|
}
|
||||||
|
}
|
||||||
|
dec.err = err
|
||||||
|
return 0, err
|
||||||
|
}
|
||||||
|
|
||||||
|
n := scanp - dec.scanp
|
||||||
|
err = dec.refill()
|
||||||
|
scanp = dec.scanp + n
|
||||||
|
}
|
||||||
|
return scanp - dec.scanp, nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func (dec *Decoder) refill() error {
|
||||||
|
// Make room to read more into the buffer.
|
||||||
|
// First slide down data already consumed.
|
||||||
|
if dec.scanp > 0 {
|
||||||
|
dec.scanned += int64(dec.scanp)
|
||||||
|
n := copy(dec.buf, dec.buf[dec.scanp:])
|
||||||
|
dec.buf = dec.buf[:n]
|
||||||
|
dec.scanp = 0
|
||||||
|
}
|
||||||
|
|
||||||
|
// Grow buffer if not large enough.
|
||||||
|
const minRead = 512
|
||||||
|
if cap(dec.buf)-len(dec.buf) < minRead {
|
||||||
|
newBuf := make([]byte, len(dec.buf), 2*cap(dec.buf)+minRead)
|
||||||
|
copy(newBuf, dec.buf)
|
||||||
|
dec.buf = newBuf
|
||||||
|
}
|
||||||
|
|
||||||
|
// Read. Delay error for next iteration (after scan).
|
||||||
|
n, err := dec.r.Read(dec.buf[len(dec.buf):cap(dec.buf)])
|
||||||
|
dec.buf = dec.buf[0 : len(dec.buf)+n]
|
||||||
|
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
|
||||||
|
func nonSpace(b []byte) bool {
|
||||||
|
for _, c := range b {
|
||||||
|
if !isSpace(c) {
|
||||||
|
return true
|
||||||
|
}
|
||||||
|
}
|
||||||
|
return false
|
||||||
|
}
|
||||||
|
|
||||||
|
// An Encoder writes JSON values to an output stream.
|
||||||
|
type Encoder struct {
|
||||||
|
w io.Writer
|
||||||
|
err error
|
||||||
|
escapeHTML bool
|
||||||
|
nilSafeSlices bool
|
||||||
|
nilSafeMaps bool
|
||||||
|
|
||||||
|
indentBuf *bytes.Buffer
|
||||||
|
indentPrefix string
|
||||||
|
indentValue string
|
||||||
|
}
|
||||||
|
|
||||||
|
// NewEncoder returns a new encoder that writes to w.
|
||||||
|
func NewEncoder(w io.Writer) *Encoder {
|
||||||
|
return &Encoder{w: w, escapeHTML: true}
|
||||||
|
}
|
||||||
|
|
||||||
|
// Encode writes the JSON encoding of v to the stream,
|
||||||
|
// followed by a newline character.
|
||||||
|
//
|
||||||
|
// See the documentation for Marshal for details about the
|
||||||
|
// conversion of Go values to JSON.
|
||||||
|
func (enc *Encoder) Encode(v any) error {
|
||||||
|
if enc.err != nil {
|
||||||
|
return enc.err
|
||||||
|
}
|
||||||
|
|
||||||
|
e := newEncodeState()
|
||||||
|
defer encodeStatePool.Put(e)
|
||||||
|
|
||||||
|
err := e.marshal(v, encOpts{escapeHTML: enc.escapeHTML, nilSafeMaps: enc.nilSafeMaps, nilSafeSlices: enc.nilSafeSlices})
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
|
||||||
|
// Terminate each value with a newline.
|
||||||
|
// This makes the output look a little nicer
|
||||||
|
// when debugging, and some kind of space
|
||||||
|
// is required if the encoded value was a number,
|
||||||
|
// so that the reader knows there aren't more
|
||||||
|
// digits coming.
|
||||||
|
e.WriteByte('\n')
|
||||||
|
|
||||||
|
b := e.Bytes()
|
||||||
|
if enc.indentPrefix != "" || enc.indentValue != "" {
|
||||||
|
if enc.indentBuf == nil {
|
||||||
|
enc.indentBuf = new(bytes.Buffer)
|
||||||
|
}
|
||||||
|
enc.indentBuf.Reset()
|
||||||
|
err = Indent(enc.indentBuf, b, enc.indentPrefix, enc.indentValue)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
b = enc.indentBuf.Bytes()
|
||||||
|
}
|
||||||
|
if _, err = enc.w.Write(b); err != nil {
|
||||||
|
enc.err = err
|
||||||
|
}
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
|
||||||
|
// SetIndent instructs the encoder to format each subsequent encoded
|
||||||
|
// value as if indented by the package-level function Indent(dst, src, prefix, indent).
|
||||||
|
// Calling SetIndent("", "") disables indentation.
|
||||||
|
func (enc *Encoder) SetIndent(prefix, indent string) {
|
||||||
|
enc.indentPrefix = prefix
|
||||||
|
enc.indentValue = indent
|
||||||
|
}
|
||||||
|
|
||||||
|
// SetNilSafeCollection specifies whether to represent nil slices and maps as
|
||||||
|
// '[]' or '{}' respectfully (flag on) instead of 'null' (default) when marshaling json.
|
||||||
|
func (enc *Encoder) SetNilSafeCollection(nilSafeSlices bool, nilSafeMaps bool) {
|
||||||
|
enc.nilSafeSlices = nilSafeSlices
|
||||||
|
enc.nilSafeMaps = nilSafeMaps
|
||||||
|
}
|
||||||
|
|
||||||
|
// SetEscapeHTML specifies whether problematic HTML characters
|
||||||
|
// should be escaped inside JSON quoted strings.
|
||||||
|
// The default behavior is to escape &, <, and > to \u0026, \u003c, and \u003e
|
||||||
|
// to avoid certain safety problems that can arise when embedding JSON in HTML.
|
||||||
|
//
|
||||||
|
// In non-HTML settings where the escaping interferes with the readability
|
||||||
|
// of the output, SetEscapeHTML(false) disables this behavior.
|
||||||
|
func (enc *Encoder) SetEscapeHTML(on bool) {
|
||||||
|
enc.escapeHTML = on
|
||||||
|
}
|
||||||
|
|
||||||
|
// RawMessage is a raw encoded JSON value.
|
||||||
|
// It implements Marshaler and Unmarshaler and can
|
||||||
|
// be used to delay JSON decoding or precompute a JSON encoding.
|
||||||
|
type RawMessage []byte
|
||||||
|
|
||||||
|
// MarshalJSON returns m as the JSON encoding of m.
|
||||||
|
func (m RawMessage) MarshalJSON() ([]byte, error) {
|
||||||
|
if m == nil {
|
||||||
|
return []byte("null"), nil
|
||||||
|
}
|
||||||
|
return m, nil
|
||||||
|
}
|
||||||
|
|
||||||
|
// UnmarshalJSON sets *m to a copy of data.
|
||||||
|
func (m *RawMessage) UnmarshalJSON(data []byte) error {
|
||||||
|
if m == nil {
|
||||||
|
return errors.New("json.RawMessage: UnmarshalJSON on nil pointer")
|
||||||
|
}
|
||||||
|
*m = append((*m)[0:0], data...)
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
|
var _ Marshaler = (*RawMessage)(nil)
|
||||||
|
var _ Unmarshaler = (*RawMessage)(nil)
|
||||||
|
|
||||||
|
// A Token holds a value of one of these types:
|
||||||
|
//
|
||||||
|
// Delim, for the four JSON delimiters [ ] { }
|
||||||
|
// bool, for JSON booleans
|
||||||
|
// float64, for JSON numbers
|
||||||
|
// Number, for JSON numbers
|
||||||
|
// string, for JSON string literals
|
||||||
|
// nil, for JSON null
|
||||||
|
type Token any
|
||||||
|
|
||||||
|
const (
|
||||||
|
tokenTopValue = iota
|
||||||
|
tokenArrayStart
|
||||||
|
tokenArrayValue
|
||||||
|
tokenArrayComma
|
||||||
|
tokenObjectStart
|
||||||
|
tokenObjectKey
|
||||||
|
tokenObjectColon
|
||||||
|
tokenObjectValue
|
||||||
|
tokenObjectComma
|
||||||
|
)
|
||||||
|
|
||||||
|
// advance tokenstate from a separator state to a value state
|
||||||
|
func (dec *Decoder) tokenPrepareForDecode() error {
|
||||||
|
// Note: Not calling peek before switch, to avoid
|
||||||
|
// putting peek into the standard Decode path.
|
||||||
|
// peek is only called when using the Token API.
|
||||||
|
switch dec.tokenState {
|
||||||
|
case tokenArrayComma:
|
||||||
|
c, err := dec.peek()
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
if c != ',' {
|
||||||
|
return &SyntaxError{"expected comma after array element", dec.InputOffset()}
|
||||||
|
}
|
||||||
|
dec.scanp++
|
||||||
|
dec.tokenState = tokenArrayValue
|
||||||
|
case tokenObjectColon:
|
||||||
|
c, err := dec.peek()
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
if c != ':' {
|
||||||
|
return &SyntaxError{"expected colon after object key", dec.InputOffset()}
|
||||||
|
}
|
||||||
|
dec.scanp++
|
||||||
|
dec.tokenState = tokenObjectValue
|
||||||
|
}
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func (dec *Decoder) tokenValueAllowed() bool {
|
||||||
|
switch dec.tokenState {
|
||||||
|
case tokenTopValue, tokenArrayStart, tokenArrayValue, tokenObjectValue:
|
||||||
|
return true
|
||||||
|
}
|
||||||
|
return false
|
||||||
|
}
|
||||||
|
|
||||||
|
func (dec *Decoder) tokenValueEnd() {
|
||||||
|
switch dec.tokenState {
|
||||||
|
case tokenArrayStart, tokenArrayValue:
|
||||||
|
dec.tokenState = tokenArrayComma
|
||||||
|
case tokenObjectValue:
|
||||||
|
dec.tokenState = tokenObjectComma
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
// A Delim is a JSON array or object delimiter, one of [ ] { or }.
|
||||||
|
type Delim rune
|
||||||
|
|
||||||
|
func (d Delim) String() string {
|
||||||
|
return string(d)
|
||||||
|
}
|
||||||
|
|
||||||
|
// Token returns the next JSON token in the input stream.
|
||||||
|
// At the end of the input stream, Token returns nil, io.EOF.
|
||||||
|
//
|
||||||
|
// Token guarantees that the delimiters [ ] { } it returns are
|
||||||
|
// properly nested and matched: if Token encounters an unexpected
|
||||||
|
// delimiter in the input, it will return an error.
|
||||||
|
//
|
||||||
|
// The input stream consists of basic JSON values—bool, string,
|
||||||
|
// number, and null—along with delimiters [ ] { } of type Delim
|
||||||
|
// to mark the start and end of arrays and objects.
|
||||||
|
// Commas and colons are elided.
|
||||||
|
func (dec *Decoder) Token() (Token, error) {
|
||||||
|
for {
|
||||||
|
c, err := dec.peek()
|
||||||
|
if err != nil {
|
||||||
|
return nil, err
|
||||||
|
}
|
||||||
|
switch c {
|
||||||
|
case '[':
|
||||||
|
if !dec.tokenValueAllowed() {
|
||||||
|
return dec.tokenError(c)
|
||||||
|
}
|
||||||
|
dec.scanp++
|
||||||
|
dec.tokenStack = append(dec.tokenStack, dec.tokenState)
|
||||||
|
dec.tokenState = tokenArrayStart
|
||||||
|
return Delim('['), nil
|
||||||
|
|
||||||
|
case ']':
|
||||||
|
if dec.tokenState != tokenArrayStart && dec.tokenState != tokenArrayComma {
|
||||||
|
return dec.tokenError(c)
|
||||||
|
}
|
||||||
|
dec.scanp++
|
||||||
|
dec.tokenState = dec.tokenStack[len(dec.tokenStack)-1]
|
||||||
|
dec.tokenStack = dec.tokenStack[:len(dec.tokenStack)-1]
|
||||||
|
dec.tokenValueEnd()
|
||||||
|
return Delim(']'), nil
|
||||||
|
|
||||||
|
case '{':
|
||||||
|
if !dec.tokenValueAllowed() {
|
||||||
|
return dec.tokenError(c)
|
||||||
|
}
|
||||||
|
dec.scanp++
|
||||||
|
dec.tokenStack = append(dec.tokenStack, dec.tokenState)
|
||||||
|
dec.tokenState = tokenObjectStart
|
||||||
|
return Delim('{'), nil
|
||||||
|
|
||||||
|
case '}':
|
||||||
|
if dec.tokenState != tokenObjectStart && dec.tokenState != tokenObjectComma {
|
||||||
|
return dec.tokenError(c)
|
||||||
|
}
|
||||||
|
dec.scanp++
|
||||||
|
dec.tokenState = dec.tokenStack[len(dec.tokenStack)-1]
|
||||||
|
dec.tokenStack = dec.tokenStack[:len(dec.tokenStack)-1]
|
||||||
|
dec.tokenValueEnd()
|
||||||
|
return Delim('}'), nil
|
||||||
|
|
||||||
|
case ':':
|
||||||
|
if dec.tokenState != tokenObjectColon {
|
||||||
|
return dec.tokenError(c)
|
||||||
|
}
|
||||||
|
dec.scanp++
|
||||||
|
dec.tokenState = tokenObjectValue
|
||||||
|
continue
|
||||||
|
|
||||||
|
case ',':
|
||||||
|
if dec.tokenState == tokenArrayComma {
|
||||||
|
dec.scanp++
|
||||||
|
dec.tokenState = tokenArrayValue
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
if dec.tokenState == tokenObjectComma {
|
||||||
|
dec.scanp++
|
||||||
|
dec.tokenState = tokenObjectKey
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
return dec.tokenError(c)
|
||||||
|
|
||||||
|
case '"':
|
||||||
|
if dec.tokenState == tokenObjectStart || dec.tokenState == tokenObjectKey {
|
||||||
|
var x string
|
||||||
|
old := dec.tokenState
|
||||||
|
dec.tokenState = tokenTopValue
|
||||||
|
err := dec.Decode(&x)
|
||||||
|
dec.tokenState = old
|
||||||
|
if err != nil {
|
||||||
|
return nil, err
|
||||||
|
}
|
||||||
|
dec.tokenState = tokenObjectColon
|
||||||
|
return x, nil
|
||||||
|
}
|
||||||
|
fallthrough
|
||||||
|
|
||||||
|
default:
|
||||||
|
if !dec.tokenValueAllowed() {
|
||||||
|
return dec.tokenError(c)
|
||||||
|
}
|
||||||
|
var x any
|
||||||
|
if err := dec.Decode(&x); err != nil {
|
||||||
|
return nil, err
|
||||||
|
}
|
||||||
|
return x, nil
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
func (dec *Decoder) tokenError(c byte) (Token, error) {
|
||||||
|
var context string
|
||||||
|
switch dec.tokenState {
|
||||||
|
case tokenTopValue:
|
||||||
|
context = " looking for beginning of value"
|
||||||
|
case tokenArrayStart, tokenArrayValue, tokenObjectValue:
|
||||||
|
context = " looking for beginning of value"
|
||||||
|
case tokenArrayComma:
|
||||||
|
context = " after array element"
|
||||||
|
case tokenObjectKey:
|
||||||
|
context = " looking for beginning of object key string"
|
||||||
|
case tokenObjectColon:
|
||||||
|
context = " after object key"
|
||||||
|
case tokenObjectComma:
|
||||||
|
context = " after object key:value pair"
|
||||||
|
}
|
||||||
|
return nil, &SyntaxError{"invalid character " + quoteChar(c) + context, dec.InputOffset()}
|
||||||
|
}
|
||||||
|
|
||||||
|
// More reports whether there is another element in the
|
||||||
|
// current array or object being parsed.
|
||||||
|
func (dec *Decoder) More() bool {
|
||||||
|
c, err := dec.peek()
|
||||||
|
return err == nil && c != ']' && c != '}'
|
||||||
|
}
|
||||||
|
|
||||||
|
func (dec *Decoder) peek() (byte, error) {
|
||||||
|
var err error
|
||||||
|
for {
|
||||||
|
for i := dec.scanp; i < len(dec.buf); i++ {
|
||||||
|
c := dec.buf[i]
|
||||||
|
if isSpace(c) {
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
dec.scanp = i
|
||||||
|
return c, nil
|
||||||
|
}
|
||||||
|
// buffer has been scanned, now report any error
|
||||||
|
if err != nil {
|
||||||
|
return 0, err
|
||||||
|
}
|
||||||
|
err = dec.refill()
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
// InputOffset returns the input stream byte offset of the current decoder position.
|
||||||
|
// The offset gives the location of the end of the most recently returned token
|
||||||
|
// and the beginning of the next token.
|
||||||
|
func (dec *Decoder) InputOffset() int64 {
|
||||||
|
return dec.scanned + int64(dec.scanp)
|
||||||
|
}
|
539
gojson/stream_test.go
Normal file
539
gojson/stream_test.go
Normal file
@@ -0,0 +1,539 @@
|
|||||||
|
// Copyright 2010 The Go Authors. All rights reserved.
|
||||||
|
// Use of this source code is governed by a BSD-style
|
||||||
|
// license that can be found in the LICENSE file.
|
||||||
|
|
||||||
|
package json
|
||||||
|
|
||||||
|
import (
|
||||||
|
"bytes"
|
||||||
|
"io"
|
||||||
|
"log"
|
||||||
|
"net"
|
||||||
|
"net/http"
|
||||||
|
"net/http/httptest"
|
||||||
|
"reflect"
|
||||||
|
"runtime/debug"
|
||||||
|
"strings"
|
||||||
|
"testing"
|
||||||
|
)
|
||||||
|
|
||||||
|
// Test values for the stream test.
|
||||||
|
// One of each JSON kind.
|
||||||
|
var streamTest = []any{
|
||||||
|
0.1,
|
||||||
|
"hello",
|
||||||
|
nil,
|
||||||
|
true,
|
||||||
|
false,
|
||||||
|
[]any{"a", "b", "c"},
|
||||||
|
map[string]any{"K": "Kelvin", "ß": "long s"},
|
||||||
|
3.14, // another value to make sure something can follow map
|
||||||
|
}
|
||||||
|
|
||||||
|
var streamEncoded = `0.1
|
||||||
|
"hello"
|
||||||
|
null
|
||||||
|
true
|
||||||
|
false
|
||||||
|
["a","b","c"]
|
||||||
|
{"ß":"long s","K":"Kelvin"}
|
||||||
|
3.14
|
||||||
|
`
|
||||||
|
|
||||||
|
func TestEncoder(t *testing.T) {
|
||||||
|
for i := 0; i <= len(streamTest); i++ {
|
||||||
|
var buf strings.Builder
|
||||||
|
enc := NewEncoder(&buf)
|
||||||
|
// Check that enc.SetIndent("", "") turns off indentation.
|
||||||
|
enc.SetIndent(">", ".")
|
||||||
|
enc.SetIndent("", "")
|
||||||
|
for j, v := range streamTest[0:i] {
|
||||||
|
if err := enc.Encode(v); err != nil {
|
||||||
|
t.Fatalf("encode #%d: %v", j, err)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
if have, want := buf.String(), nlines(streamEncoded, i); have != want {
|
||||||
|
t.Errorf("encoding %d items: mismatch", i)
|
||||||
|
diff(t, []byte(have), []byte(want))
|
||||||
|
break
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
func TestEncoderErrorAndReuseEncodeState(t *testing.T) {
|
||||||
|
// Disable the GC temporarily to prevent encodeState's in Pool being cleaned away during the test.
|
||||||
|
percent := debug.SetGCPercent(-1)
|
||||||
|
defer debug.SetGCPercent(percent)
|
||||||
|
|
||||||
|
// Trigger an error in Marshal with cyclic data.
|
||||||
|
type Dummy struct {
|
||||||
|
Name string
|
||||||
|
Next *Dummy
|
||||||
|
}
|
||||||
|
dummy := Dummy{Name: "Dummy"}
|
||||||
|
dummy.Next = &dummy
|
||||||
|
|
||||||
|
var buf bytes.Buffer
|
||||||
|
enc := NewEncoder(&buf)
|
||||||
|
if err := enc.Encode(dummy); err == nil {
|
||||||
|
t.Errorf("Encode(dummy) == nil; want error")
|
||||||
|
}
|
||||||
|
|
||||||
|
type Data struct {
|
||||||
|
A string
|
||||||
|
I int
|
||||||
|
}
|
||||||
|
data := Data{A: "a", I: 1}
|
||||||
|
if err := enc.Encode(data); err != nil {
|
||||||
|
t.Errorf("Marshal(%v) = %v", data, err)
|
||||||
|
}
|
||||||
|
|
||||||
|
var data2 Data
|
||||||
|
if err := Unmarshal(buf.Bytes(), &data2); err != nil {
|
||||||
|
t.Errorf("Unmarshal(%v) = %v", data2, err)
|
||||||
|
}
|
||||||
|
if data2 != data {
|
||||||
|
t.Errorf("expect: %v, but get: %v", data, data2)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
var streamEncodedIndent = `0.1
|
||||||
|
"hello"
|
||||||
|
null
|
||||||
|
true
|
||||||
|
false
|
||||||
|
[
|
||||||
|
>."a",
|
||||||
|
>."b",
|
||||||
|
>."c"
|
||||||
|
>]
|
||||||
|
{
|
||||||
|
>."ß": "long s",
|
||||||
|
>."K": "Kelvin"
|
||||||
|
>}
|
||||||
|
3.14
|
||||||
|
`
|
||||||
|
|
||||||
|
func TestEncoderIndent(t *testing.T) {
|
||||||
|
var buf strings.Builder
|
||||||
|
enc := NewEncoder(&buf)
|
||||||
|
enc.SetIndent(">", ".")
|
||||||
|
for _, v := range streamTest {
|
||||||
|
enc.Encode(v)
|
||||||
|
}
|
||||||
|
if have, want := buf.String(), streamEncodedIndent; have != want {
|
||||||
|
t.Error("indented encoding mismatch")
|
||||||
|
diff(t, []byte(have), []byte(want))
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
type strMarshaler string
|
||||||
|
|
||||||
|
func (s strMarshaler) MarshalJSON() ([]byte, error) {
|
||||||
|
return []byte(s), nil
|
||||||
|
}
|
||||||
|
|
||||||
|
type strPtrMarshaler string
|
||||||
|
|
||||||
|
func (s *strPtrMarshaler) MarshalJSON() ([]byte, error) {
|
||||||
|
return []byte(*s), nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func TestEncoderSetEscapeHTML(t *testing.T) {
|
||||||
|
var c C
|
||||||
|
var ct CText
|
||||||
|
var tagStruct struct {
|
||||||
|
Valid int `json:"<>&#! "`
|
||||||
|
Invalid int `json:"\\"`
|
||||||
|
}
|
||||||
|
|
||||||
|
// This case is particularly interesting, as we force the encoder to
|
||||||
|
// take the address of the Ptr field to use its MarshalJSON method. This
|
||||||
|
// is why the '&' is important.
|
||||||
|
marshalerStruct := &struct {
|
||||||
|
NonPtr strMarshaler
|
||||||
|
Ptr strPtrMarshaler
|
||||||
|
}{`"<str>"`, `"<str>"`}
|
||||||
|
|
||||||
|
// https://golang.org/issue/34154
|
||||||
|
stringOption := struct {
|
||||||
|
Bar string `json:"bar,string"`
|
||||||
|
}{`<html>foobar</html>`}
|
||||||
|
|
||||||
|
for _, tt := range []struct {
|
||||||
|
name string
|
||||||
|
v any
|
||||||
|
wantEscape string
|
||||||
|
want string
|
||||||
|
}{
|
||||||
|
{"c", c, `"\u003c\u0026\u003e"`, `"<&>"`},
|
||||||
|
{"ct", ct, `"\"\u003c\u0026\u003e\""`, `"\"<&>\""`},
|
||||||
|
{`"<&>"`, "<&>", `"\u003c\u0026\u003e"`, `"<&>"`},
|
||||||
|
{
|
||||||
|
"tagStruct", tagStruct,
|
||||||
|
`{"\u003c\u003e\u0026#! ":0,"Invalid":0}`,
|
||||||
|
`{"<>&#! ":0,"Invalid":0}`,
|
||||||
|
},
|
||||||
|
{
|
||||||
|
`"<str>"`, marshalerStruct,
|
||||||
|
`{"NonPtr":"\u003cstr\u003e","Ptr":"\u003cstr\u003e"}`,
|
||||||
|
`{"NonPtr":"<str>","Ptr":"<str>"}`,
|
||||||
|
},
|
||||||
|
{
|
||||||
|
"stringOption", stringOption,
|
||||||
|
`{"bar":"\"\\u003chtml\\u003efoobar\\u003c/html\\u003e\""}`,
|
||||||
|
`{"bar":"\"<html>foobar</html>\""}`,
|
||||||
|
},
|
||||||
|
} {
|
||||||
|
var buf strings.Builder
|
||||||
|
enc := NewEncoder(&buf)
|
||||||
|
if err := enc.Encode(tt.v); err != nil {
|
||||||
|
t.Errorf("Encode(%s): %s", tt.name, err)
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
if got := strings.TrimSpace(buf.String()); got != tt.wantEscape {
|
||||||
|
t.Errorf("Encode(%s) = %#q, want %#q", tt.name, got, tt.wantEscape)
|
||||||
|
}
|
||||||
|
buf.Reset()
|
||||||
|
enc.SetEscapeHTML(false)
|
||||||
|
if err := enc.Encode(tt.v); err != nil {
|
||||||
|
t.Errorf("SetEscapeHTML(false) Encode(%s): %s", tt.name, err)
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
if got := strings.TrimSpace(buf.String()); got != tt.want {
|
||||||
|
t.Errorf("SetEscapeHTML(false) Encode(%s) = %#q, want %#q",
|
||||||
|
tt.name, got, tt.want)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
func TestDecoder(t *testing.T) {
|
||||||
|
for i := 0; i <= len(streamTest); i++ {
|
||||||
|
// Use stream without newlines as input,
|
||||||
|
// just to stress the decoder even more.
|
||||||
|
// Our test input does not include back-to-back numbers.
|
||||||
|
// Otherwise stripping the newlines would
|
||||||
|
// merge two adjacent JSON values.
|
||||||
|
var buf bytes.Buffer
|
||||||
|
for _, c := range nlines(streamEncoded, i) {
|
||||||
|
if c != '\n' {
|
||||||
|
buf.WriteRune(c)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
out := make([]any, i)
|
||||||
|
dec := NewDecoder(&buf)
|
||||||
|
for j := range out {
|
||||||
|
if err := dec.Decode(&out[j]); err != nil {
|
||||||
|
t.Fatalf("decode #%d/%d: %v", j, i, err)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
if !reflect.DeepEqual(out, streamTest[0:i]) {
|
||||||
|
t.Errorf("decoding %d items: mismatch", i)
|
||||||
|
for j := range out {
|
||||||
|
if !reflect.DeepEqual(out[j], streamTest[j]) {
|
||||||
|
t.Errorf("#%d: have %v want %v", j, out[j], streamTest[j])
|
||||||
|
}
|
||||||
|
}
|
||||||
|
break
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
func TestDecoderBuffered(t *testing.T) {
|
||||||
|
r := strings.NewReader(`{"Name": "Gopher"} extra `)
|
||||||
|
var m struct {
|
||||||
|
Name string
|
||||||
|
}
|
||||||
|
d := NewDecoder(r)
|
||||||
|
err := d.Decode(&m)
|
||||||
|
if err != nil {
|
||||||
|
t.Fatal(err)
|
||||||
|
}
|
||||||
|
if m.Name != "Gopher" {
|
||||||
|
t.Errorf("Name = %q; want Gopher", m.Name)
|
||||||
|
}
|
||||||
|
rest, err := io.ReadAll(d.Buffered())
|
||||||
|
if err != nil {
|
||||||
|
t.Fatal(err)
|
||||||
|
}
|
||||||
|
if g, w := string(rest), " extra "; g != w {
|
||||||
|
t.Errorf("Remaining = %q; want %q", g, w)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
func nlines(s string, n int) string {
|
||||||
|
if n <= 0 {
|
||||||
|
return ""
|
||||||
|
}
|
||||||
|
for i, c := range s {
|
||||||
|
if c == '\n' {
|
||||||
|
if n--; n == 0 {
|
||||||
|
return s[0 : i+1]
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
return s
|
||||||
|
}
|
||||||
|
|
||||||
|
func TestRawMessage(t *testing.T) {
|
||||||
|
var data struct {
|
||||||
|
X float64
|
||||||
|
Id RawMessage
|
||||||
|
Y float32
|
||||||
|
}
|
||||||
|
const raw = `["\u0056",null]`
|
||||||
|
const msg = `{"X":0.1,"Id":["\u0056",null],"Y":0.2}`
|
||||||
|
err := Unmarshal([]byte(msg), &data)
|
||||||
|
if err != nil {
|
||||||
|
t.Fatalf("Unmarshal: %v", err)
|
||||||
|
}
|
||||||
|
if string([]byte(data.Id)) != raw {
|
||||||
|
t.Fatalf("Raw mismatch: have %#q want %#q", []byte(data.Id), raw)
|
||||||
|
}
|
||||||
|
b, err := Marshal(&data)
|
||||||
|
if err != nil {
|
||||||
|
t.Fatalf("Marshal: %v", err)
|
||||||
|
}
|
||||||
|
if string(b) != msg {
|
||||||
|
t.Fatalf("Marshal: have %#q want %#q", b, msg)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
func TestNullRawMessage(t *testing.T) {
|
||||||
|
var data struct {
|
||||||
|
X float64
|
||||||
|
Id RawMessage
|
||||||
|
IdPtr *RawMessage
|
||||||
|
Y float32
|
||||||
|
}
|
||||||
|
const msg = `{"X":0.1,"Id":null,"IdPtr":null,"Y":0.2}`
|
||||||
|
err := Unmarshal([]byte(msg), &data)
|
||||||
|
if err != nil {
|
||||||
|
t.Fatalf("Unmarshal: %v", err)
|
||||||
|
}
|
||||||
|
if want, got := "null", string(data.Id); want != got {
|
||||||
|
t.Fatalf("Raw mismatch: have %q, want %q", got, want)
|
||||||
|
}
|
||||||
|
if data.IdPtr != nil {
|
||||||
|
t.Fatalf("Raw pointer mismatch: have non-nil, want nil")
|
||||||
|
}
|
||||||
|
b, err := Marshal(&data)
|
||||||
|
if err != nil {
|
||||||
|
t.Fatalf("Marshal: %v", err)
|
||||||
|
}
|
||||||
|
if string(b) != msg {
|
||||||
|
t.Fatalf("Marshal: have %#q want %#q", b, msg)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
var blockingTests = []string{
|
||||||
|
`{"x": 1}`,
|
||||||
|
`[1, 2, 3]`,
|
||||||
|
}
|
||||||
|
|
||||||
|
func TestBlocking(t *testing.T) {
|
||||||
|
for _, enc := range blockingTests {
|
||||||
|
r, w := net.Pipe()
|
||||||
|
go w.Write([]byte(enc))
|
||||||
|
var val any
|
||||||
|
|
||||||
|
// If Decode reads beyond what w.Write writes above,
|
||||||
|
// it will block, and the test will deadlock.
|
||||||
|
if err := NewDecoder(r).Decode(&val); err != nil {
|
||||||
|
t.Errorf("decoding %s: %v", enc, err)
|
||||||
|
}
|
||||||
|
r.Close()
|
||||||
|
w.Close()
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
type tokenStreamCase struct {
|
||||||
|
json string
|
||||||
|
expTokens []any
|
||||||
|
}
|
||||||
|
|
||||||
|
type decodeThis struct {
|
||||||
|
v any
|
||||||
|
}
|
||||||
|
|
||||||
|
var tokenStreamCases = []tokenStreamCase{
|
||||||
|
// streaming token cases
|
||||||
|
{json: `10`, expTokens: []any{float64(10)}},
|
||||||
|
{json: ` [10] `, expTokens: []any{
|
||||||
|
Delim('['), float64(10), Delim(']')}},
|
||||||
|
{json: ` [false,10,"b"] `, expTokens: []any{
|
||||||
|
Delim('['), false, float64(10), "b", Delim(']')}},
|
||||||
|
{json: `{ "a": 1 }`, expTokens: []any{
|
||||||
|
Delim('{'), "a", float64(1), Delim('}')}},
|
||||||
|
{json: `{"a": 1, "b":"3"}`, expTokens: []any{
|
||||||
|
Delim('{'), "a", float64(1), "b", "3", Delim('}')}},
|
||||||
|
{json: ` [{"a": 1},{"a": 2}] `, expTokens: []any{
|
||||||
|
Delim('['),
|
||||||
|
Delim('{'), "a", float64(1), Delim('}'),
|
||||||
|
Delim('{'), "a", float64(2), Delim('}'),
|
||||||
|
Delim(']')}},
|
||||||
|
{json: `{"obj": {"a": 1}}`, expTokens: []any{
|
||||||
|
Delim('{'), "obj", Delim('{'), "a", float64(1), Delim('}'),
|
||||||
|
Delim('}')}},
|
||||||
|
{json: `{"obj": [{"a": 1}]}`, expTokens: []any{
|
||||||
|
Delim('{'), "obj", Delim('['),
|
||||||
|
Delim('{'), "a", float64(1), Delim('}'),
|
||||||
|
Delim(']'), Delim('}')}},
|
||||||
|
|
||||||
|
// streaming tokens with intermittent Decode()
|
||||||
|
{json: `{ "a": 1 }`, expTokens: []any{
|
||||||
|
Delim('{'), "a",
|
||||||
|
decodeThis{float64(1)},
|
||||||
|
Delim('}')}},
|
||||||
|
{json: ` [ { "a" : 1 } ] `, expTokens: []any{
|
||||||
|
Delim('['),
|
||||||
|
decodeThis{map[string]any{"a": float64(1)}},
|
||||||
|
Delim(']')}},
|
||||||
|
{json: ` [{"a": 1},{"a": 2}] `, expTokens: []any{
|
||||||
|
Delim('['),
|
||||||
|
decodeThis{map[string]any{"a": float64(1)}},
|
||||||
|
decodeThis{map[string]any{"a": float64(2)}},
|
||||||
|
Delim(']')}},
|
||||||
|
{json: `{ "obj" : [ { "a" : 1 } ] }`, expTokens: []any{
|
||||||
|
Delim('{'), "obj", Delim('['),
|
||||||
|
decodeThis{map[string]any{"a": float64(1)}},
|
||||||
|
Delim(']'), Delim('}')}},
|
||||||
|
|
||||||
|
{json: `{"obj": {"a": 1}}`, expTokens: []any{
|
||||||
|
Delim('{'), "obj",
|
||||||
|
decodeThis{map[string]any{"a": float64(1)}},
|
||||||
|
Delim('}')}},
|
||||||
|
{json: `{"obj": [{"a": 1}]}`, expTokens: []any{
|
||||||
|
Delim('{'), "obj",
|
||||||
|
decodeThis{[]any{
|
||||||
|
map[string]any{"a": float64(1)},
|
||||||
|
}},
|
||||||
|
Delim('}')}},
|
||||||
|
{json: ` [{"a": 1} {"a": 2}] `, expTokens: []any{
|
||||||
|
Delim('['),
|
||||||
|
decodeThis{map[string]any{"a": float64(1)}},
|
||||||
|
decodeThis{&SyntaxError{"expected comma after array element", 11}},
|
||||||
|
}},
|
||||||
|
{json: `{ "` + strings.Repeat("a", 513) + `" 1 }`, expTokens: []any{
|
||||||
|
Delim('{'), strings.Repeat("a", 513),
|
||||||
|
decodeThis{&SyntaxError{"expected colon after object key", 518}},
|
||||||
|
}},
|
||||||
|
{json: `{ "\a" }`, expTokens: []any{
|
||||||
|
Delim('{'),
|
||||||
|
&SyntaxError{"invalid character 'a' in string escape code", 3},
|
||||||
|
}},
|
||||||
|
{json: ` \a`, expTokens: []any{
|
||||||
|
&SyntaxError{"invalid character '\\\\' looking for beginning of value", 1},
|
||||||
|
}},
|
||||||
|
}
|
||||||
|
|
||||||
|
func TestDecodeInStream(t *testing.T) {
|
||||||
|
for ci, tcase := range tokenStreamCases {
|
||||||
|
|
||||||
|
dec := NewDecoder(strings.NewReader(tcase.json))
|
||||||
|
for i, etk := range tcase.expTokens {
|
||||||
|
|
||||||
|
var tk any
|
||||||
|
var err error
|
||||||
|
|
||||||
|
if dt, ok := etk.(decodeThis); ok {
|
||||||
|
etk = dt.v
|
||||||
|
err = dec.Decode(&tk)
|
||||||
|
} else {
|
||||||
|
tk, err = dec.Token()
|
||||||
|
}
|
||||||
|
if experr, ok := etk.(error); ok {
|
||||||
|
if err == nil || !reflect.DeepEqual(err, experr) {
|
||||||
|
t.Errorf("case %v: Expected error %#v in %q, but was %#v", ci, experr, tcase.json, err)
|
||||||
|
}
|
||||||
|
break
|
||||||
|
} else if err == io.EOF {
|
||||||
|
t.Errorf("case %v: Unexpected EOF in %q", ci, tcase.json)
|
||||||
|
break
|
||||||
|
} else if err != nil {
|
||||||
|
t.Errorf("case %v: Unexpected error '%#v' in %q", ci, err, tcase.json)
|
||||||
|
break
|
||||||
|
}
|
||||||
|
if !reflect.DeepEqual(tk, etk) {
|
||||||
|
t.Errorf(`case %v: %q @ %v expected %T(%v) was %T(%v)`, ci, tcase.json, i, etk, etk, tk, tk)
|
||||||
|
break
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
// Test from golang.org/issue/11893
|
||||||
|
func TestHTTPDecoding(t *testing.T) {
|
||||||
|
const raw = `{ "foo": "bar" }`
|
||||||
|
|
||||||
|
ts := httptest.NewServer(http.HandlerFunc(func(w http.ResponseWriter, r *http.Request) {
|
||||||
|
w.Write([]byte(raw))
|
||||||
|
}))
|
||||||
|
defer ts.Close()
|
||||||
|
res, err := http.Get(ts.URL)
|
||||||
|
if err != nil {
|
||||||
|
log.Fatalf("GET failed: %v", err)
|
||||||
|
}
|
||||||
|
defer res.Body.Close()
|
||||||
|
|
||||||
|
foo := struct {
|
||||||
|
Foo string
|
||||||
|
}{}
|
||||||
|
|
||||||
|
d := NewDecoder(res.Body)
|
||||||
|
err = d.Decode(&foo)
|
||||||
|
if err != nil {
|
||||||
|
t.Fatalf("Decode: %v", err)
|
||||||
|
}
|
||||||
|
if foo.Foo != "bar" {
|
||||||
|
t.Errorf("decoded %q; want \"bar\"", foo.Foo)
|
||||||
|
}
|
||||||
|
|
||||||
|
// make sure we get the EOF the second time
|
||||||
|
err = d.Decode(&foo)
|
||||||
|
if err != io.EOF {
|
||||||
|
t.Errorf("err = %v; want io.EOF", err)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
func TestEncoderSetNilSafeCollection(t *testing.T) {
|
||||||
|
var (
|
||||||
|
nilSlice []interface{}
|
||||||
|
pNilSlice *[]interface{}
|
||||||
|
nilMap map[string]interface{}
|
||||||
|
pNilMap *map[string]interface{}
|
||||||
|
)
|
||||||
|
for _, tt := range []struct {
|
||||||
|
name string
|
||||||
|
v interface{}
|
||||||
|
want string
|
||||||
|
rescuedWant string
|
||||||
|
}{
|
||||||
|
{"nilSlice", nilSlice, "null", "[]"},
|
||||||
|
{"nonNilSlice", []interface{}{}, "[]", "[]"},
|
||||||
|
{"sliceWithValues", []interface{}{1, 2, 3}, "[1,2,3]", "[1,2,3]"},
|
||||||
|
{"pNilSlice", pNilSlice, "null", "null"},
|
||||||
|
{"nilMap", nilMap, "null", "{}"},
|
||||||
|
{"nonNilMap", map[string]interface{}{}, "{}", "{}"},
|
||||||
|
{"mapWithValues", map[string]interface{}{"1": 1, "2": 2, "3": 3}, "{\"1\":1,\"2\":2,\"3\":3}", "{\"1\":1,\"2\":2,\"3\":3}"},
|
||||||
|
{"pNilMap", pNilMap, "null", "null"},
|
||||||
|
} {
|
||||||
|
var buf bytes.Buffer
|
||||||
|
enc := NewEncoder(&buf)
|
||||||
|
if err := enc.Encode(tt.v); err != nil {
|
||||||
|
t.Fatalf("Encode(%s): %s", tt.name, err)
|
||||||
|
}
|
||||||
|
if got := strings.TrimSpace(buf.String()); got != tt.want {
|
||||||
|
t.Errorf("Encode(%s) = %#q, want %#q", tt.name, got, tt.want)
|
||||||
|
}
|
||||||
|
buf.Reset()
|
||||||
|
enc.SetNilSafeCollection(true, true)
|
||||||
|
if err := enc.Encode(tt.v); err != nil {
|
||||||
|
t.Fatalf("SetNilSafeCollection(true) Encode(%s): %s", tt.name, err)
|
||||||
|
}
|
||||||
|
if got := strings.TrimSpace(buf.String()); got != tt.rescuedWant {
|
||||||
|
t.Errorf("SetNilSafeCollection(true) Encode(%s) = %#q, want %#q",
|
||||||
|
tt.name, got, tt.want)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
218
gojson/tables.go
Normal file
218
gojson/tables.go
Normal file
@@ -0,0 +1,218 @@
|
|||||||
|
// Copyright 2016 The Go Authors. All rights reserved.
|
||||||
|
// Use of this source code is governed by a BSD-style
|
||||||
|
// license that can be found in the LICENSE file.
|
||||||
|
|
||||||
|
package json
|
||||||
|
|
||||||
|
import "unicode/utf8"
|
||||||
|
|
||||||
|
// safeSet holds the value true if the ASCII character with the given array
|
||||||
|
// position can be represented inside a JSON string without any further
|
||||||
|
// escaping.
|
||||||
|
//
|
||||||
|
// All values are true except for the ASCII control characters (0-31), the
|
||||||
|
// double quote ("), and the backslash character ("\").
|
||||||
|
var safeSet = [utf8.RuneSelf]bool{
|
||||||
|
' ': true,
|
||||||
|
'!': true,
|
||||||
|
'"': false,
|
||||||
|
'#': true,
|
||||||
|
'$': true,
|
||||||
|
'%': true,
|
||||||
|
'&': true,
|
||||||
|
'\'': true,
|
||||||
|
'(': true,
|
||||||
|
')': true,
|
||||||
|
'*': true,
|
||||||
|
'+': true,
|
||||||
|
',': true,
|
||||||
|
'-': true,
|
||||||
|
'.': true,
|
||||||
|
'/': true,
|
||||||
|
'0': true,
|
||||||
|
'1': true,
|
||||||
|
'2': true,
|
||||||
|
'3': true,
|
||||||
|
'4': true,
|
||||||
|
'5': true,
|
||||||
|
'6': true,
|
||||||
|
'7': true,
|
||||||
|
'8': true,
|
||||||
|
'9': true,
|
||||||
|
':': true,
|
||||||
|
';': true,
|
||||||
|
'<': true,
|
||||||
|
'=': true,
|
||||||
|
'>': true,
|
||||||
|
'?': true,
|
||||||
|
'@': true,
|
||||||
|
'A': true,
|
||||||
|
'B': true,
|
||||||
|
'C': true,
|
||||||
|
'D': true,
|
||||||
|
'E': true,
|
||||||
|
'F': true,
|
||||||
|
'G': true,
|
||||||
|
'H': true,
|
||||||
|
'I': true,
|
||||||
|
'J': true,
|
||||||
|
'K': true,
|
||||||
|
'L': true,
|
||||||
|
'M': true,
|
||||||
|
'N': true,
|
||||||
|
'O': true,
|
||||||
|
'P': true,
|
||||||
|
'Q': true,
|
||||||
|
'R': true,
|
||||||
|
'S': true,
|
||||||
|
'T': true,
|
||||||
|
'U': true,
|
||||||
|
'V': true,
|
||||||
|
'W': true,
|
||||||
|
'X': true,
|
||||||
|
'Y': true,
|
||||||
|
'Z': true,
|
||||||
|
'[': true,
|
||||||
|
'\\': false,
|
||||||
|
']': true,
|
||||||
|
'^': true,
|
||||||
|
'_': true,
|
||||||
|
'`': true,
|
||||||
|
'a': true,
|
||||||
|
'b': true,
|
||||||
|
'c': true,
|
||||||
|
'd': true,
|
||||||
|
'e': true,
|
||||||
|
'f': true,
|
||||||
|
'g': true,
|
||||||
|
'h': true,
|
||||||
|
'i': true,
|
||||||
|
'j': true,
|
||||||
|
'k': true,
|
||||||
|
'l': true,
|
||||||
|
'm': true,
|
||||||
|
'n': true,
|
||||||
|
'o': true,
|
||||||
|
'p': true,
|
||||||
|
'q': true,
|
||||||
|
'r': true,
|
||||||
|
's': true,
|
||||||
|
't': true,
|
||||||
|
'u': true,
|
||||||
|
'v': true,
|
||||||
|
'w': true,
|
||||||
|
'x': true,
|
||||||
|
'y': true,
|
||||||
|
'z': true,
|
||||||
|
'{': true,
|
||||||
|
'|': true,
|
||||||
|
'}': true,
|
||||||
|
'~': true,
|
||||||
|
'\u007f': true,
|
||||||
|
}
|
||||||
|
|
||||||
|
// htmlSafeSet holds the value true if the ASCII character with the given
|
||||||
|
// array position can be safely represented inside a JSON string, embedded
|
||||||
|
// inside of HTML <script> tags, without any additional escaping.
|
||||||
|
//
|
||||||
|
// All values are true except for the ASCII control characters (0-31), the
|
||||||
|
// double quote ("), the backslash character ("\"), HTML opening and closing
|
||||||
|
// tags ("<" and ">"), and the ampersand ("&").
|
||||||
|
var htmlSafeSet = [utf8.RuneSelf]bool{
|
||||||
|
' ': true,
|
||||||
|
'!': true,
|
||||||
|
'"': false,
|
||||||
|
'#': true,
|
||||||
|
'$': true,
|
||||||
|
'%': true,
|
||||||
|
'&': false,
|
||||||
|
'\'': true,
|
||||||
|
'(': true,
|
||||||
|
')': true,
|
||||||
|
'*': true,
|
||||||
|
'+': true,
|
||||||
|
',': true,
|
||||||
|
'-': true,
|
||||||
|
'.': true,
|
||||||
|
'/': true,
|
||||||
|
'0': true,
|
||||||
|
'1': true,
|
||||||
|
'2': true,
|
||||||
|
'3': true,
|
||||||
|
'4': true,
|
||||||
|
'5': true,
|
||||||
|
'6': true,
|
||||||
|
'7': true,
|
||||||
|
'8': true,
|
||||||
|
'9': true,
|
||||||
|
':': true,
|
||||||
|
';': true,
|
||||||
|
'<': false,
|
||||||
|
'=': true,
|
||||||
|
'>': false,
|
||||||
|
'?': true,
|
||||||
|
'@': true,
|
||||||
|
'A': true,
|
||||||
|
'B': true,
|
||||||
|
'C': true,
|
||||||
|
'D': true,
|
||||||
|
'E': true,
|
||||||
|
'F': true,
|
||||||
|
'G': true,
|
||||||
|
'H': true,
|
||||||
|
'I': true,
|
||||||
|
'J': true,
|
||||||
|
'K': true,
|
||||||
|
'L': true,
|
||||||
|
'M': true,
|
||||||
|
'N': true,
|
||||||
|
'O': true,
|
||||||
|
'P': true,
|
||||||
|
'Q': true,
|
||||||
|
'R': true,
|
||||||
|
'S': true,
|
||||||
|
'T': true,
|
||||||
|
'U': true,
|
||||||
|
'V': true,
|
||||||
|
'W': true,
|
||||||
|
'X': true,
|
||||||
|
'Y': true,
|
||||||
|
'Z': true,
|
||||||
|
'[': true,
|
||||||
|
'\\': false,
|
||||||
|
']': true,
|
||||||
|
'^': true,
|
||||||
|
'_': true,
|
||||||
|
'`': true,
|
||||||
|
'a': true,
|
||||||
|
'b': true,
|
||||||
|
'c': true,
|
||||||
|
'd': true,
|
||||||
|
'e': true,
|
||||||
|
'f': true,
|
||||||
|
'g': true,
|
||||||
|
'h': true,
|
||||||
|
'i': true,
|
||||||
|
'j': true,
|
||||||
|
'k': true,
|
||||||
|
'l': true,
|
||||||
|
'm': true,
|
||||||
|
'n': true,
|
||||||
|
'o': true,
|
||||||
|
'p': true,
|
||||||
|
'q': true,
|
||||||
|
'r': true,
|
||||||
|
's': true,
|
||||||
|
't': true,
|
||||||
|
'u': true,
|
||||||
|
'v': true,
|
||||||
|
'w': true,
|
||||||
|
'x': true,
|
||||||
|
'y': true,
|
||||||
|
'z': true,
|
||||||
|
'{': true,
|
||||||
|
'|': true,
|
||||||
|
'}': true,
|
||||||
|
'~': true,
|
||||||
|
'\u007f': true,
|
||||||
|
}
|
120
gojson/tagkey_test.go
Normal file
120
gojson/tagkey_test.go
Normal file
@@ -0,0 +1,120 @@
|
|||||||
|
// Copyright 2011 The Go Authors. All rights reserved.
|
||||||
|
// Use of this source code is governed by a BSD-style
|
||||||
|
// license that can be found in the LICENSE file.
|
||||||
|
|
||||||
|
package json
|
||||||
|
|
||||||
|
import (
|
||||||
|
"testing"
|
||||||
|
)
|
||||||
|
|
||||||
|
type basicLatin2xTag struct {
|
||||||
|
V string `json:"$%-/"`
|
||||||
|
}
|
||||||
|
|
||||||
|
type basicLatin3xTag struct {
|
||||||
|
V string `json:"0123456789"`
|
||||||
|
}
|
||||||
|
|
||||||
|
type basicLatin4xTag struct {
|
||||||
|
V string `json:"ABCDEFGHIJKLMO"`
|
||||||
|
}
|
||||||
|
|
||||||
|
type basicLatin5xTag struct {
|
||||||
|
V string `json:"PQRSTUVWXYZ_"`
|
||||||
|
}
|
||||||
|
|
||||||
|
type basicLatin6xTag struct {
|
||||||
|
V string `json:"abcdefghijklmno"`
|
||||||
|
}
|
||||||
|
|
||||||
|
type basicLatin7xTag struct {
|
||||||
|
V string `json:"pqrstuvwxyz"`
|
||||||
|
}
|
||||||
|
|
||||||
|
type miscPlaneTag struct {
|
||||||
|
V string `json:"色は匂へど"`
|
||||||
|
}
|
||||||
|
|
||||||
|
type percentSlashTag struct {
|
||||||
|
V string `json:"text/html%"` // https://golang.org/issue/2718
|
||||||
|
}
|
||||||
|
|
||||||
|
type punctuationTag struct {
|
||||||
|
V string `json:"!#$%&()*+-./:;<=>?@[]^_{|}~ "` // https://golang.org/issue/3546
|
||||||
|
}
|
||||||
|
|
||||||
|
type dashTag struct {
|
||||||
|
V string `json:"-,"`
|
||||||
|
}
|
||||||
|
|
||||||
|
type emptyTag struct {
|
||||||
|
W string
|
||||||
|
}
|
||||||
|
|
||||||
|
type misnamedTag struct {
|
||||||
|
X string `jsom:"Misnamed"`
|
||||||
|
}
|
||||||
|
|
||||||
|
type badFormatTag struct {
|
||||||
|
Y string `:"BadFormat"`
|
||||||
|
}
|
||||||
|
|
||||||
|
type badCodeTag struct {
|
||||||
|
Z string `json:" !\"#&'()*+,."`
|
||||||
|
}
|
||||||
|
|
||||||
|
type spaceTag struct {
|
||||||
|
Q string `json:"With space"`
|
||||||
|
}
|
||||||
|
|
||||||
|
type unicodeTag struct {
|
||||||
|
W string `json:"Ελλάδα"`
|
||||||
|
}
|
||||||
|
|
||||||
|
var structTagObjectKeyTests = []struct {
|
||||||
|
raw any
|
||||||
|
value string
|
||||||
|
key string
|
||||||
|
}{
|
||||||
|
{basicLatin2xTag{"2x"}, "2x", "$%-/"},
|
||||||
|
{basicLatin3xTag{"3x"}, "3x", "0123456789"},
|
||||||
|
{basicLatin4xTag{"4x"}, "4x", "ABCDEFGHIJKLMO"},
|
||||||
|
{basicLatin5xTag{"5x"}, "5x", "PQRSTUVWXYZ_"},
|
||||||
|
{basicLatin6xTag{"6x"}, "6x", "abcdefghijklmno"},
|
||||||
|
{basicLatin7xTag{"7x"}, "7x", "pqrstuvwxyz"},
|
||||||
|
{miscPlaneTag{"いろはにほへと"}, "いろはにほへと", "色は匂へど"},
|
||||||
|
{dashTag{"foo"}, "foo", "-"},
|
||||||
|
{emptyTag{"Pour Moi"}, "Pour Moi", "W"},
|
||||||
|
{misnamedTag{"Animal Kingdom"}, "Animal Kingdom", "X"},
|
||||||
|
{badFormatTag{"Orfevre"}, "Orfevre", "Y"},
|
||||||
|
{badCodeTag{"Reliable Man"}, "Reliable Man", "Z"},
|
||||||
|
{percentSlashTag{"brut"}, "brut", "text/html%"},
|
||||||
|
{punctuationTag{"Union Rags"}, "Union Rags", "!#$%&()*+-./:;<=>?@[]^_{|}~ "},
|
||||||
|
{spaceTag{"Perreddu"}, "Perreddu", "With space"},
|
||||||
|
{unicodeTag{"Loukanikos"}, "Loukanikos", "Ελλάδα"},
|
||||||
|
}
|
||||||
|
|
||||||
|
func TestStructTagObjectKey(t *testing.T) {
|
||||||
|
for _, tt := range structTagObjectKeyTests {
|
||||||
|
b, err := Marshal(tt.raw)
|
||||||
|
if err != nil {
|
||||||
|
t.Fatalf("Marshal(%#q) failed: %v", tt.raw, err)
|
||||||
|
}
|
||||||
|
var f any
|
||||||
|
err = Unmarshal(b, &f)
|
||||||
|
if err != nil {
|
||||||
|
t.Fatalf("Unmarshal(%#q) failed: %v", b, err)
|
||||||
|
}
|
||||||
|
for i, v := range f.(map[string]any) {
|
||||||
|
switch i {
|
||||||
|
case tt.key:
|
||||||
|
if s, ok := v.(string); !ok || s != tt.value {
|
||||||
|
t.Fatalf("Unexpected value: %#q, want %v", s, tt.value)
|
||||||
|
}
|
||||||
|
default:
|
||||||
|
t.Fatalf("Unexpected key: %#q, from %#q", i, b)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
38
gojson/tags.go
Normal file
38
gojson/tags.go
Normal file
@@ -0,0 +1,38 @@
|
|||||||
|
// Copyright 2011 The Go Authors. All rights reserved.
|
||||||
|
// Use of this source code is governed by a BSD-style
|
||||||
|
// license that can be found in the LICENSE file.
|
||||||
|
|
||||||
|
package json
|
||||||
|
|
||||||
|
import (
|
||||||
|
"strings"
|
||||||
|
)
|
||||||
|
|
||||||
|
// tagOptions is the string following a comma in a struct field's "json"
|
||||||
|
// tag, or the empty string. It does not include the leading comma.
|
||||||
|
type tagOptions string
|
||||||
|
|
||||||
|
// parseTag splits a struct field's json tag into its name and
|
||||||
|
// comma-separated options.
|
||||||
|
func parseTag(tag string) (string, tagOptions) {
|
||||||
|
tag, opt, _ := strings.Cut(tag, ",")
|
||||||
|
return tag, tagOptions(opt)
|
||||||
|
}
|
||||||
|
|
||||||
|
// Contains reports whether a comma-separated list of options
|
||||||
|
// contains a particular substr flag. substr must be surrounded by a
|
||||||
|
// string boundary or commas.
|
||||||
|
func (o tagOptions) Contains(optionName string) bool {
|
||||||
|
if len(o) == 0 {
|
||||||
|
return false
|
||||||
|
}
|
||||||
|
s := string(o)
|
||||||
|
for s != "" {
|
||||||
|
var name string
|
||||||
|
name, s, _ = strings.Cut(s, ",")
|
||||||
|
if name == optionName {
|
||||||
|
return true
|
||||||
|
}
|
||||||
|
}
|
||||||
|
return false
|
||||||
|
}
|
28
gojson/tags_test.go
Normal file
28
gojson/tags_test.go
Normal file
@@ -0,0 +1,28 @@
|
|||||||
|
// Copyright 2011 The Go Authors. All rights reserved.
|
||||||
|
// Use of this source code is governed by a BSD-style
|
||||||
|
// license that can be found in the LICENSE file.
|
||||||
|
|
||||||
|
package json
|
||||||
|
|
||||||
|
import (
|
||||||
|
"testing"
|
||||||
|
)
|
||||||
|
|
||||||
|
func TestTagParsing(t *testing.T) {
|
||||||
|
name, opts := parseTag("field,foobar,foo")
|
||||||
|
if name != "field" {
|
||||||
|
t.Fatalf("name = %q, want field", name)
|
||||||
|
}
|
||||||
|
for _, tt := range []struct {
|
||||||
|
opt string
|
||||||
|
want bool
|
||||||
|
}{
|
||||||
|
{"foobar", true},
|
||||||
|
{"foo", true},
|
||||||
|
{"bar", false},
|
||||||
|
} {
|
||||||
|
if opts.Contains(tt.opt) != tt.want {
|
||||||
|
t.Errorf("Contains(%q) = %v", tt.opt, !tt.want)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
BIN
gojson/testdata/code.json.gz
vendored
Normal file
BIN
gojson/testdata/code.json.gz
vendored
Normal file
Binary file not shown.
@@ -1,6 +1,8 @@
|
|||||||
package langext
|
package langext
|
||||||
|
|
||||||
import (
|
import (
|
||||||
|
"errors"
|
||||||
|
"fmt"
|
||||||
"reflect"
|
"reflect"
|
||||||
)
|
)
|
||||||
|
|
||||||
@@ -217,6 +219,15 @@ func ArrFirst[T any](arr []T, comp func(v T) bool) (T, bool) {
|
|||||||
return *new(T), false
|
return *new(T), false
|
||||||
}
|
}
|
||||||
|
|
||||||
|
func ArrFirstOrNil[T any](arr []T, comp func(v T) bool) *T {
|
||||||
|
for _, v := range arr {
|
||||||
|
if comp(v) {
|
||||||
|
return Ptr(v)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
func ArrLast[T any](arr []T, comp func(v T) bool) (T, bool) {
|
func ArrLast[T any](arr []T, comp func(v T) bool) (T, bool) {
|
||||||
found := false
|
found := false
|
||||||
result := *new(T)
|
result := *new(T)
|
||||||
@@ -229,6 +240,22 @@ func ArrLast[T any](arr []T, comp func(v T) bool) (T, bool) {
|
|||||||
return result, found
|
return result, found
|
||||||
}
|
}
|
||||||
|
|
||||||
|
func ArrLastOrNil[T any](arr []T, comp func(v T) bool) *T {
|
||||||
|
found := false
|
||||||
|
result := *new(T)
|
||||||
|
for _, v := range arr {
|
||||||
|
if comp(v) {
|
||||||
|
found = true
|
||||||
|
result = v
|
||||||
|
}
|
||||||
|
}
|
||||||
|
if found {
|
||||||
|
return Ptr(result)
|
||||||
|
} else {
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
func ArrFirstIndex[T comparable](arr []T, needle T) int {
|
func ArrFirstIndex[T comparable](arr []T, needle T) int {
|
||||||
for i, v := range arr {
|
for i, v := range arr {
|
||||||
if v == needle {
|
if v == needle {
|
||||||
@@ -348,3 +375,68 @@ func ArrFlattenDirect[T1 any](arr [][]T1) []T1 {
|
|||||||
}
|
}
|
||||||
return r
|
return r
|
||||||
}
|
}
|
||||||
|
|
||||||
|
func ArrCastToAny[T1 any](arr []T1) []any {
|
||||||
|
r := make([]any, len(arr))
|
||||||
|
for i, v := range arr {
|
||||||
|
r[i] = any(v)
|
||||||
|
}
|
||||||
|
return r
|
||||||
|
}
|
||||||
|
|
||||||
|
func ArrCastSafe[T1 any, T2 any](arr []T1) []T2 {
|
||||||
|
r := make([]T2, 0, len(arr))
|
||||||
|
for _, v := range arr {
|
||||||
|
if vcast, ok := any(v).(T2); ok {
|
||||||
|
r = append(r, vcast)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
return r
|
||||||
|
}
|
||||||
|
|
||||||
|
func ArrCastErr[T1 any, T2 any](arr []T1) ([]T2, error) {
|
||||||
|
r := make([]T2, len(arr))
|
||||||
|
for i, v := range arr {
|
||||||
|
if vcast, ok := any(v).(T2); ok {
|
||||||
|
r[i] = vcast
|
||||||
|
} else {
|
||||||
|
return nil, errors.New(fmt.Sprintf("Cannot cast element %d of type %T to type %s", i, v, *new(T2)))
|
||||||
|
}
|
||||||
|
}
|
||||||
|
return r, nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func ArrCastPanic[T1 any, T2 any](arr []T1) []T2 {
|
||||||
|
r := make([]T2, len(arr))
|
||||||
|
for i, v := range arr {
|
||||||
|
if vcast, ok := any(v).(T2); ok {
|
||||||
|
r[i] = vcast
|
||||||
|
} else {
|
||||||
|
panic(fmt.Sprintf("Cannot cast element %d of type %T to type %s", i, v, *new(T2)))
|
||||||
|
}
|
||||||
|
}
|
||||||
|
return r
|
||||||
|
}
|
||||||
|
|
||||||
|
func ArrConcat[T any](arr ...[]T) []T {
|
||||||
|
c := 0
|
||||||
|
for _, v := range arr {
|
||||||
|
c += len(v)
|
||||||
|
}
|
||||||
|
r := make([]T, c)
|
||||||
|
i := 0
|
||||||
|
for _, av := range arr {
|
||||||
|
for _, v := range av {
|
||||||
|
r[i] = v
|
||||||
|
i++
|
||||||
|
}
|
||||||
|
}
|
||||||
|
return r
|
||||||
|
}
|
||||||
|
|
||||||
|
// ArrCopy does a shallow copy of the 'in' array
|
||||||
|
func ArrCopy[T any](in []T) []T {
|
||||||
|
out := make([]T, len(in))
|
||||||
|
copy(out, in)
|
||||||
|
return out
|
||||||
|
}
|
||||||
|
@@ -21,46 +21,46 @@ func _decStr(t *testing.T, enc *B58Encoding, v string) string {
|
|||||||
}
|
}
|
||||||
|
|
||||||
func TestBase58DefaultEncoding(t *testing.T) {
|
func TestBase58DefaultEncoding(t *testing.T) {
|
||||||
assertEqual(t, _encStr(t, Base58DefaultEncoding, "Hello"), "9Ajdvzr")
|
tst.AssertEqual(t, _encStr(t, Base58DefaultEncoding, "Hello"), "9Ajdvzr")
|
||||||
assertEqual(t, _encStr(t, Base58DefaultEncoding, "If debugging is the process of removing software bugs, then programming must be the process of putting them in."), "48638SMcJuah5okqPx4kCVf5d8QAdgbdNf28g7ReY13prUENNbMyssjq5GjsrJHF5zeZfqs4uJMUJHr7VbrU4XBUZ2Fw9DVtqtn9N1eXucEWSEZahXV6w4ysGSWqGdpeYTJf1MdDzTg8vfcQViifJjZX")
|
tst.AssertEqual(t, _encStr(t, Base58DefaultEncoding, "If debugging is the process of removing software bugs, then programming must be the process of putting them in."), "48638SMcJuah5okqPx4kCVf5d8QAdgbdNf28g7ReY13prUENNbMyssjq5GjsrJHF5zeZfqs4uJMUJHr7VbrU4XBUZ2Fw9DVtqtn9N1eXucEWSEZahXV6w4ysGSWqGdpeYTJf1MdDzTg8vfcQViifJjZX")
|
||||||
}
|
}
|
||||||
|
|
||||||
func TestBase58DefaultDecoding(t *testing.T) {
|
func TestBase58DefaultDecoding(t *testing.T) {
|
||||||
assertEqual(t, _decStr(t, Base58DefaultEncoding, "9Ajdvzr"), "Hello")
|
tst.AssertEqual(t, _decStr(t, Base58DefaultEncoding, "9Ajdvzr"), "Hello")
|
||||||
assertEqual(t, _decStr(t, Base58DefaultEncoding, "48638SMcJuah5okqPx4kCVf5d8QAdgbdNf28g7ReY13prUENNbMyssjq5GjsrJHF5zeZfqs4uJMUJHr7VbrU4XBUZ2Fw9DVtqtn9N1eXucEWSEZahXV6w4ysGSWqGdpeYTJf1MdDzTg8vfcQViifJjZX"), "If debugging is the process of removing software bugs, then programming must be the process of putting them in.")
|
tst.AssertEqual(t, _decStr(t, Base58DefaultEncoding, "48638SMcJuah5okqPx4kCVf5d8QAdgbdNf28g7ReY13prUENNbMyssjq5GjsrJHF5zeZfqs4uJMUJHr7VbrU4XBUZ2Fw9DVtqtn9N1eXucEWSEZahXV6w4ysGSWqGdpeYTJf1MdDzTg8vfcQViifJjZX"), "If debugging is the process of removing software bugs, then programming must be the process of putting them in.")
|
||||||
}
|
}
|
||||||
|
|
||||||
func TestBase58RippleEncoding(t *testing.T) {
|
func TestBase58RippleEncoding(t *testing.T) {
|
||||||
assertEqual(t, _encStr(t, Base58RippleEncoding, "Hello"), "9wjdvzi")
|
tst.AssertEqual(t, _encStr(t, Base58RippleEncoding, "Hello"), "9wjdvzi")
|
||||||
assertEqual(t, _encStr(t, Base58RippleEncoding, "If debugging is the process of removing software bugs, then programming must be the process of putting them in."), "h3as3SMcJu26nokqPxhkUVCnd3Qwdgbd4Cp3gfReYrsFi7N44bMy11jqnGj1iJHEnzeZCq1huJM7JHifVbi7hXB7ZpEA9DVtqt894reXucNWSNZ26XVaAhy1GSWqGdFeYTJCrMdDzTg3vCcQV55CJjZX")
|
tst.AssertEqual(t, _encStr(t, Base58RippleEncoding, "If debugging is the process of removing software bugs, then programming must be the process of putting them in."), "h3as3SMcJu26nokqPxhkUVCnd3Qwdgbd4Cp3gfReYrsFi7N44bMy11jqnGj1iJHEnzeZCq1huJM7JHifVbi7hXB7ZpEA9DVtqt894reXucNWSNZ26XVaAhy1GSWqGdFeYTJCrMdDzTg3vCcQV55CJjZX")
|
||||||
}
|
}
|
||||||
|
|
||||||
func TestBase58RippleDecoding(t *testing.T) {
|
func TestBase58RippleDecoding(t *testing.T) {
|
||||||
assertEqual(t, _decStr(t, Base58RippleEncoding, "9wjdvzi"), "Hello")
|
tst.AssertEqual(t, _decStr(t, Base58RippleEncoding, "9wjdvzi"), "Hello")
|
||||||
assertEqual(t, _decStr(t, Base58RippleEncoding, "h3as3SMcJu26nokqPxhkUVCnd3Qwdgbd4Cp3gfReYrsFi7N44bMy11jqnGj1iJHEnzeZCq1huJM7JHifVbi7hXB7ZpEA9DVtqt894reXucNWSNZ26XVaAhy1GSWqGdFeYTJCrMdDzTg3vCcQV55CJjZX"), "If debugging is the process of removing software bugs, then programming must be the process of putting them in.")
|
tst.AssertEqual(t, _decStr(t, Base58RippleEncoding, "h3as3SMcJu26nokqPxhkUVCnd3Qwdgbd4Cp3gfReYrsFi7N44bMy11jqnGj1iJHEnzeZCq1huJM7JHifVbi7hXB7ZpEA9DVtqt894reXucNWSNZ26XVaAhy1GSWqGdFeYTJCrMdDzTg3vCcQV55CJjZX"), "If debugging is the process of removing software bugs, then programming must be the process of putting them in.")
|
||||||
}
|
}
|
||||||
|
|
||||||
func TestBase58BitcoinEncoding(t *testing.T) {
|
func TestBase58BitcoinEncoding(t *testing.T) {
|
||||||
assertEqual(t, _encStr(t, Base58BitcoinEncoding, "Hello"), "9Ajdvzr")
|
tst.AssertEqual(t, _encStr(t, Base58BitcoinEncoding, "Hello"), "9Ajdvzr")
|
||||||
assertEqual(t, _encStr(t, Base58BitcoinEncoding, "If debugging is the process of removing software bugs, then programming must be the process of putting them in."), "48638SMcJuah5okqPx4kCVf5d8QAdgbdNf28g7ReY13prUENNbMyssjq5GjsrJHF5zeZfqs4uJMUJHr7VbrU4XBUZ2Fw9DVtqtn9N1eXucEWSEZahXV6w4ysGSWqGdpeYTJf1MdDzTg8vfcQViifJjZX")
|
tst.AssertEqual(t, _encStr(t, Base58BitcoinEncoding, "If debugging is the process of removing software bugs, then programming must be the process of putting them in."), "48638SMcJuah5okqPx4kCVf5d8QAdgbdNf28g7ReY13prUENNbMyssjq5GjsrJHF5zeZfqs4uJMUJHr7VbrU4XBUZ2Fw9DVtqtn9N1eXucEWSEZahXV6w4ysGSWqGdpeYTJf1MdDzTg8vfcQViifJjZX")
|
||||||
}
|
}
|
||||||
|
|
||||||
func TestBase58BitcoinDecoding(t *testing.T) {
|
func TestBase58BitcoinDecoding(t *testing.T) {
|
||||||
assertEqual(t, _decStr(t, Base58BitcoinEncoding, "9Ajdvzr"), "Hello")
|
tst.AssertEqual(t, _decStr(t, Base58BitcoinEncoding, "9Ajdvzr"), "Hello")
|
||||||
assertEqual(t, _decStr(t, Base58BitcoinEncoding, "48638SMcJuah5okqPx4kCVf5d8QAdgbdNf28g7ReY13prUENNbMyssjq5GjsrJHF5zeZfqs4uJMUJHr7VbrU4XBUZ2Fw9DVtqtn9N1eXucEWSEZahXV6w4ysGSWqGdpeYTJf1MdDzTg8vfcQViifJjZX"), "If debugging is the process of removing software bugs, then programming must be the process of putting them in.")
|
tst.AssertEqual(t, _decStr(t, Base58BitcoinEncoding, "48638SMcJuah5okqPx4kCVf5d8QAdgbdNf28g7ReY13prUENNbMyssjq5GjsrJHF5zeZfqs4uJMUJHr7VbrU4XBUZ2Fw9DVtqtn9N1eXucEWSEZahXV6w4ysGSWqGdpeYTJf1MdDzTg8vfcQViifJjZX"), "If debugging is the process of removing software bugs, then programming must be the process of putting them in.")
|
||||||
}
|
}
|
||||||
|
|
||||||
func TestBase58FlickrEncoding(t *testing.T) {
|
func TestBase58FlickrEncoding(t *testing.T) {
|
||||||
assertEqual(t, _encStr(t, Base58FlickrEncoding, "Hello"), "9aJCVZR")
|
tst.AssertEqual(t, _encStr(t, Base58FlickrEncoding, "Hello"), "9aJCVZR")
|
||||||
assertEqual(t, _encStr(t, Base58FlickrEncoding, "If debugging is the process of removing software bugs, then programming must be the process of putting them in."), "48638rmBiUzG5NKQoX4KcuE5C8paCFACnE28F7qDx13PRtennAmYSSJQ5gJSRihf5ZDyEQS4UimtihR7uARt4wbty2fW9duTQTM9n1DwUBevreyzGwu6W4YSgrvQgCPDxsiE1mCdZsF8VEBpuHHEiJyw")
|
tst.AssertEqual(t, _encStr(t, Base58FlickrEncoding, "If debugging is the process of removing software bugs, then programming must be the process of putting them in."), "48638rmBiUzG5NKQoX4KcuE5C8paCFACnE28F7qDx13PRtennAmYSSJQ5gJSRihf5ZDyEQS4UimtihR7uARt4wbty2fW9duTQTM9n1DwUBevreyzGwu6W4YSgrvQgCPDxsiE1mCdZsF8VEBpuHHEiJyw")
|
||||||
}
|
}
|
||||||
|
|
||||||
func TestBase58FlickrDecoding(t *testing.T) {
|
func TestBase58FlickrDecoding(t *testing.T) {
|
||||||
assertEqual(t, _decStr(t, Base58FlickrEncoding, "9aJCVZR"), "Hello")
|
tst.AssertEqual(t, _decStr(t, Base58FlickrEncoding, "9aJCVZR"), "Hello")
|
||||||
assertEqual(t, _decStr(t, Base58FlickrEncoding, "48638rmBiUzG5NKQoX4KcuE5C8paCFACnE28F7qDx13PRtennAmYSSJQ5gJSRihf5ZDyEQS4UimtihR7uARt4wbty2fW9duTQTM9n1DwUBevreyzGwu6W4YSgrvQgCPDxsiE1mCdZsF8VEBpuHHEiJyw"), "If debugging is the process of removing software bugs, then programming must be the process of putting them in.")
|
tst.AssertEqual(t, _decStr(t, Base58FlickrEncoding, "48638rmBiUzG5NKQoX4KcuE5C8paCFACnE28F7qDx13PRtennAmYSSJQ5gJSRihf5ZDyEQS4UimtihR7uARt4wbty2fW9duTQTM9n1DwUBevreyzGwu6W4YSgrvQgCPDxsiE1mCdZsF8VEBpuHHEiJyw"), "If debugging is the process of removing software bugs, then programming must be the process of putting them in.")
|
||||||
}
|
}
|
||||||
|
|
||||||
func assertEqual(t *testing.T, actual string, expected string) {
|
func tst.AssertEqual(t *testing.T, actual string, expected string) {
|
||||||
if actual != expected {
|
if actual != expected {
|
||||||
t.Errorf("values differ: Actual: '%v', Expected: '%v'", actual, expected)
|
t.Errorf("values differ: Actual: '%v', Expected: '%v'", actual, expected)
|
||||||
}
|
}
|
||||||
|
@@ -31,16 +31,16 @@ func CompareIntArr(arr1 []int, arr2 []int) bool {
|
|||||||
return false
|
return false
|
||||||
}
|
}
|
||||||
|
|
||||||
func CompareArr[T OrderedConstraint](arr1 []T, arr2 []T) bool {
|
func CompareArr[T OrderedConstraint](arr1 []T, arr2 []T) int {
|
||||||
|
|
||||||
for i := 0; i < len(arr1) || i < len(arr2); i++ {
|
for i := 0; i < len(arr1) || i < len(arr2); i++ {
|
||||||
|
|
||||||
if i < len(arr1) && i < len(arr2) {
|
if i < len(arr1) && i < len(arr2) {
|
||||||
|
|
||||||
if arr1[i] < arr2[i] {
|
if arr1[i] < arr2[i] {
|
||||||
return true
|
return -1
|
||||||
} else if arr1[i] > arr2[i] {
|
} else if arr1[i] > arr2[i] {
|
||||||
return false
|
return +2
|
||||||
} else {
|
} else {
|
||||||
continue
|
continue
|
||||||
}
|
}
|
||||||
@@ -49,15 +49,55 @@ func CompareArr[T OrderedConstraint](arr1 []T, arr2 []T) bool {
|
|||||||
|
|
||||||
if i < len(arr1) {
|
if i < len(arr1) {
|
||||||
|
|
||||||
return true
|
return +1
|
||||||
|
|
||||||
} else { // if i < len(arr2)
|
} else { // if i < len(arr2)
|
||||||
|
|
||||||
return false
|
return -1
|
||||||
|
|
||||||
}
|
}
|
||||||
|
|
||||||
}
|
}
|
||||||
|
|
||||||
return false
|
return 0
|
||||||
|
}
|
||||||
|
|
||||||
|
func CompareString(a, b string) int {
|
||||||
|
if a == b {
|
||||||
|
return 0
|
||||||
|
}
|
||||||
|
if a < b {
|
||||||
|
return -1
|
||||||
|
}
|
||||||
|
return +1
|
||||||
|
}
|
||||||
|
|
||||||
|
func CompareInt(a, b int) int {
|
||||||
|
if a == b {
|
||||||
|
return 0
|
||||||
|
}
|
||||||
|
if a < b {
|
||||||
|
return -1
|
||||||
|
}
|
||||||
|
return +1
|
||||||
|
}
|
||||||
|
|
||||||
|
func CompareInt64(a, b int64) int {
|
||||||
|
if a == b {
|
||||||
|
return 0
|
||||||
|
}
|
||||||
|
if a < b {
|
||||||
|
return -1
|
||||||
|
}
|
||||||
|
return +1
|
||||||
|
}
|
||||||
|
|
||||||
|
func Compare[T OrderedConstraint](a, b T) int {
|
||||||
|
if a == b {
|
||||||
|
return 0
|
||||||
|
}
|
||||||
|
if a < b {
|
||||||
|
return -1
|
||||||
|
}
|
||||||
|
return +1
|
||||||
}
|
}
|
||||||
|
@@ -1,5 +1,10 @@
|
|||||||
package langext
|
package langext
|
||||||
|
|
||||||
|
type MapEntry[T comparable, V any] struct {
|
||||||
|
Key T
|
||||||
|
Value V
|
||||||
|
}
|
||||||
|
|
||||||
func MapKeyArr[T comparable, V any](v map[T]V) []T {
|
func MapKeyArr[T comparable, V any](v map[T]V) []T {
|
||||||
result := make([]T, 0, len(v))
|
result := make([]T, 0, len(v))
|
||||||
for k := range v {
|
for k := range v {
|
||||||
@@ -8,6 +13,14 @@ func MapKeyArr[T comparable, V any](v map[T]V) []T {
|
|||||||
return result
|
return result
|
||||||
}
|
}
|
||||||
|
|
||||||
|
func MapValueArr[T comparable, V any](v map[T]V) []V {
|
||||||
|
result := make([]V, 0, len(v))
|
||||||
|
for _, mv := range v {
|
||||||
|
result = append(result, mv)
|
||||||
|
}
|
||||||
|
return result
|
||||||
|
}
|
||||||
|
|
||||||
func ArrToMap[T comparable, V any](a []V, keyfunc func(V) T) map[T]V {
|
func ArrToMap[T comparable, V any](a []V, keyfunc func(V) T) map[T]V {
|
||||||
result := make(map[T]V, len(a))
|
result := make(map[T]V, len(a))
|
||||||
for _, v := range a {
|
for _, v := range a {
|
||||||
@@ -15,3 +28,30 @@ func ArrToMap[T comparable, V any](a []V, keyfunc func(V) T) map[T]V {
|
|||||||
}
|
}
|
||||||
return result
|
return result
|
||||||
}
|
}
|
||||||
|
|
||||||
|
func MapToArr[T comparable, V any](v map[T]V) []MapEntry[T, V] {
|
||||||
|
result := make([]MapEntry[T, V], 0, len(v))
|
||||||
|
for mk, mv := range v {
|
||||||
|
result = append(result, MapEntry[T, V]{
|
||||||
|
Key: mk,
|
||||||
|
Value: mv,
|
||||||
|
})
|
||||||
|
}
|
||||||
|
return result
|
||||||
|
}
|
||||||
|
|
||||||
|
func CopyMap[K comparable, V any](a map[K]V) map[K]V {
|
||||||
|
result := make(map[K]V, len(a))
|
||||||
|
for k, v := range a {
|
||||||
|
result[k] = v
|
||||||
|
}
|
||||||
|
return result
|
||||||
|
}
|
||||||
|
|
||||||
|
func ForceMap[K comparable, V any](v map[K]V) map[K]V {
|
||||||
|
if v == nil {
|
||||||
|
return make(map[K]V, 0)
|
||||||
|
} else {
|
||||||
|
return v
|
||||||
|
}
|
||||||
|
}
|
||||||
|
71
langext/panic.go
Normal file
71
langext/panic.go
Normal file
@@ -0,0 +1,71 @@
|
|||||||
|
package langext
|
||||||
|
|
||||||
|
type PanicWrappedErr struct {
|
||||||
|
panic any
|
||||||
|
}
|
||||||
|
|
||||||
|
func (p PanicWrappedErr) Error() string {
|
||||||
|
return "A panic occured"
|
||||||
|
}
|
||||||
|
|
||||||
|
func (p PanicWrappedErr) ReoveredObj() any {
|
||||||
|
return p.panic
|
||||||
|
}
|
||||||
|
|
||||||
|
func RunPanicSafe(fn func()) (err error) {
|
||||||
|
defer func() {
|
||||||
|
if rec := recover(); rec != nil {
|
||||||
|
err = PanicWrappedErr{panic: rec}
|
||||||
|
}
|
||||||
|
}()
|
||||||
|
|
||||||
|
fn()
|
||||||
|
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func RunPanicSafeR1(fn func() error) (err error) {
|
||||||
|
defer func() {
|
||||||
|
if rec := recover(); rec != nil {
|
||||||
|
err = PanicWrappedErr{panic: rec}
|
||||||
|
}
|
||||||
|
}()
|
||||||
|
|
||||||
|
return fn()
|
||||||
|
}
|
||||||
|
|
||||||
|
func RunPanicSafeR2[T1 any](fn func() (T1, error)) (r1 T1, err error) {
|
||||||
|
defer func() {
|
||||||
|
if rec := recover(); rec != nil {
|
||||||
|
r1 = *new(T1)
|
||||||
|
err = PanicWrappedErr{panic: rec}
|
||||||
|
}
|
||||||
|
}()
|
||||||
|
|
||||||
|
return fn()
|
||||||
|
}
|
||||||
|
|
||||||
|
func RunPanicSafeR3[T1 any, T2 any](fn func() (T1, T2, error)) (r1 T1, r2 T2, err error) {
|
||||||
|
defer func() {
|
||||||
|
if rec := recover(); rec != nil {
|
||||||
|
r1 = *new(T1)
|
||||||
|
r2 = *new(T2)
|
||||||
|
err = PanicWrappedErr{panic: rec}
|
||||||
|
}
|
||||||
|
}()
|
||||||
|
|
||||||
|
return fn()
|
||||||
|
}
|
||||||
|
|
||||||
|
func RunPanicSafeR4[T1 any, T2 any, T3 any](fn func() (T1, T2, T3, error)) (r1 T1, r2 T2, r3 T3, err error) {
|
||||||
|
defer func() {
|
||||||
|
if rec := recover(); rec != nil {
|
||||||
|
r1 = *new(T1)
|
||||||
|
r2 = *new(T2)
|
||||||
|
r3 = *new(T3)
|
||||||
|
err = PanicWrappedErr{panic: rec}
|
||||||
|
}
|
||||||
|
}()
|
||||||
|
|
||||||
|
return fn()
|
||||||
|
}
|
@@ -4,6 +4,12 @@ import (
|
|||||||
"reflect"
|
"reflect"
|
||||||
)
|
)
|
||||||
|
|
||||||
|
// PTrue := &true
|
||||||
|
var PTrue = Ptr(true)
|
||||||
|
|
||||||
|
// PFalse := &false
|
||||||
|
var PFalse = Ptr(false)
|
||||||
|
|
||||||
func Ptr[T any](v T) *T {
|
func Ptr[T any](v T) *T {
|
||||||
return &v
|
return &v
|
||||||
}
|
}
|
||||||
|
@@ -41,6 +41,14 @@ func NewHexUUID() (string, error) {
|
|||||||
return string(dst), nil
|
return string(dst), nil
|
||||||
}
|
}
|
||||||
|
|
||||||
|
func MustHexUUID() string {
|
||||||
|
v, err := NewHexUUID()
|
||||||
|
if err != nil {
|
||||||
|
panic(err)
|
||||||
|
}
|
||||||
|
return v
|
||||||
|
}
|
||||||
|
|
||||||
func NewUpperHexUUID() (string, error) {
|
func NewUpperHexUUID() (string, error) {
|
||||||
uuid, err := NewUUID()
|
uuid, err := NewUUID()
|
||||||
if err != nil {
|
if err != nil {
|
||||||
@@ -64,6 +72,14 @@ func NewUpperHexUUID() (string, error) {
|
|||||||
return strings.ToUpper(string(dst)), nil
|
return strings.ToUpper(string(dst)), nil
|
||||||
}
|
}
|
||||||
|
|
||||||
|
func MustUpperHexUUID() string {
|
||||||
|
v, err := NewUpperHexUUID()
|
||||||
|
if err != nil {
|
||||||
|
panic(err)
|
||||||
|
}
|
||||||
|
return v
|
||||||
|
}
|
||||||
|
|
||||||
func NewRawHexUUID() (string, error) {
|
func NewRawHexUUID() (string, error) {
|
||||||
uuid, err := NewUUID()
|
uuid, err := NewUUID()
|
||||||
if err != nil {
|
if err != nil {
|
||||||
@@ -83,6 +99,14 @@ func NewRawHexUUID() (string, error) {
|
|||||||
return strings.ToUpper(string(dst)), nil
|
return strings.ToUpper(string(dst)), nil
|
||||||
}
|
}
|
||||||
|
|
||||||
|
func MustRawHexUUID() string {
|
||||||
|
v, err := NewRawHexUUID()
|
||||||
|
if err != nil {
|
||||||
|
panic(err)
|
||||||
|
}
|
||||||
|
return v
|
||||||
|
}
|
||||||
|
|
||||||
func NewBracesUUID() (string, error) {
|
func NewBracesUUID() (string, error) {
|
||||||
uuid, err := NewUUID()
|
uuid, err := NewUUID()
|
||||||
if err != nil {
|
if err != nil {
|
||||||
@@ -108,6 +132,14 @@ func NewBracesUUID() (string, error) {
|
|||||||
return strings.ToUpper(string(dst)), nil
|
return strings.ToUpper(string(dst)), nil
|
||||||
}
|
}
|
||||||
|
|
||||||
|
func MustBracesUUID() string {
|
||||||
|
v, err := NewBracesUUID()
|
||||||
|
if err != nil {
|
||||||
|
panic(err)
|
||||||
|
}
|
||||||
|
return v
|
||||||
|
}
|
||||||
|
|
||||||
func NewParensUUID() (string, error) {
|
func NewParensUUID() (string, error) {
|
||||||
uuid, err := NewUUID()
|
uuid, err := NewUUID()
|
||||||
if err != nil {
|
if err != nil {
|
||||||
@@ -132,3 +164,11 @@ func NewParensUUID() (string, error) {
|
|||||||
|
|
||||||
return strings.ToUpper(string(dst)), nil
|
return strings.ToUpper(string(dst)), nil
|
||||||
}
|
}
|
||||||
|
|
||||||
|
func MustParensUUID() string {
|
||||||
|
v, err := NewParensUUID()
|
||||||
|
if err != nil {
|
||||||
|
panic(err)
|
||||||
|
}
|
||||||
|
return v
|
||||||
|
}
|
||||||
|
@@ -22,6 +22,31 @@ func Max[T langext.OrderedConstraint](v1 T, v2 T) T {
|
|||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
|
func Max3[T langext.OrderedConstraint](v1 T, v2 T, v3 T) T {
|
||||||
|
result := v1
|
||||||
|
if v2 > result {
|
||||||
|
result = v2
|
||||||
|
}
|
||||||
|
if v3 > result {
|
||||||
|
result = v3
|
||||||
|
}
|
||||||
|
return result
|
||||||
|
}
|
||||||
|
|
||||||
|
func Max4[T langext.OrderedConstraint](v1 T, v2 T, v3 T, v4 T) T {
|
||||||
|
result := v1
|
||||||
|
if v2 > result {
|
||||||
|
result = v2
|
||||||
|
}
|
||||||
|
if v3 > result {
|
||||||
|
result = v3
|
||||||
|
}
|
||||||
|
if v4 > result {
|
||||||
|
result = v4
|
||||||
|
}
|
||||||
|
return result
|
||||||
|
}
|
||||||
|
|
||||||
func Min[T langext.OrderedConstraint](v1 T, v2 T) T {
|
func Min[T langext.OrderedConstraint](v1 T, v2 T) T {
|
||||||
if v1 < v2 {
|
if v1 < v2 {
|
||||||
return v1
|
return v1
|
||||||
@@ -30,6 +55,31 @@ func Min[T langext.OrderedConstraint](v1 T, v2 T) T {
|
|||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
|
func Min3[T langext.OrderedConstraint](v1 T, v2 T, v3 T) T {
|
||||||
|
result := v1
|
||||||
|
if v2 < result {
|
||||||
|
result = v2
|
||||||
|
}
|
||||||
|
if v3 < result {
|
||||||
|
result = v3
|
||||||
|
}
|
||||||
|
return result
|
||||||
|
}
|
||||||
|
|
||||||
|
func Min4[T langext.OrderedConstraint](v1 T, v2 T, v3 T, v4 T) T {
|
||||||
|
result := v1
|
||||||
|
if v2 < result {
|
||||||
|
result = v2
|
||||||
|
}
|
||||||
|
if v3 < result {
|
||||||
|
result = v3
|
||||||
|
}
|
||||||
|
if v4 < result {
|
||||||
|
result = v4
|
||||||
|
}
|
||||||
|
return result
|
||||||
|
}
|
||||||
|
|
||||||
func Abs[T langext.NumberConstraint](v T) T {
|
func Abs[T langext.NumberConstraint](v T) T {
|
||||||
if v < 0 {
|
if v < 0 {
|
||||||
return -v
|
return -v
|
||||||
|
49
mongoext/pipeline.go
Normal file
49
mongoext/pipeline.go
Normal file
@@ -0,0 +1,49 @@
|
|||||||
|
package mongoext
|
||||||
|
|
||||||
|
import (
|
||||||
|
"go.mongodb.org/mongo-driver/bson"
|
||||||
|
"go.mongodb.org/mongo-driver/mongo"
|
||||||
|
)
|
||||||
|
|
||||||
|
// FixTextSearchPipeline moves {$match:{$text:{$search}}} entries to the front of the pipeline (otherwise its an mongo error)
|
||||||
|
func FixTextSearchPipeline(pipeline mongo.Pipeline) mongo.Pipeline {
|
||||||
|
|
||||||
|
dget := func(v bson.D, k string) (bson.M, bool) {
|
||||||
|
for _, e := range v {
|
||||||
|
if e.Key == k {
|
||||||
|
if mv, ok := e.Value.(bson.M); ok {
|
||||||
|
return mv, true
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
return nil, false
|
||||||
|
}
|
||||||
|
mget := func(v bson.M, k string) (bson.M, bool) {
|
||||||
|
for ekey, eval := range v {
|
||||||
|
if ekey == k {
|
||||||
|
if mv, ok := eval.(bson.M); ok {
|
||||||
|
return mv, true
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
return nil, false
|
||||||
|
}
|
||||||
|
|
||||||
|
result := make([]bson.D, 0, len(pipeline))
|
||||||
|
|
||||||
|
for _, entry := range pipeline {
|
||||||
|
|
||||||
|
if v0, ok := dget(entry, "$match"); ok {
|
||||||
|
if v1, ok := mget(v0, "$text"); ok {
|
||||||
|
if _, ok := v1["$search"]; ok {
|
||||||
|
result = append([]bson.D{entry}, result...)
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
result = append(result, entry)
|
||||||
|
}
|
||||||
|
|
||||||
|
return result
|
||||||
|
}
|
30
mongoext/projections.go
Normal file
30
mongoext/projections.go
Normal file
@@ -0,0 +1,30 @@
|
|||||||
|
package mongoext
|
||||||
|
|
||||||
|
import (
|
||||||
|
"go.mongodb.org/mongo-driver/bson"
|
||||||
|
"reflect"
|
||||||
|
"strings"
|
||||||
|
)
|
||||||
|
|
||||||
|
// ProjectionFromStruct automatically generated a mongodb projection for a struct
|
||||||
|
// This way you can pretty much always write
|
||||||
|
// `options.FindOne().SetProjection(mongoutils.ProjectionFromStruct(...your_model...))`
|
||||||
|
// to only get the data from mongodb that you will actually use in the later decode step
|
||||||
|
func ProjectionFromStruct(obj interface{}) bson.M {
|
||||||
|
v := reflect.ValueOf(obj)
|
||||||
|
t := v.Type()
|
||||||
|
|
||||||
|
result := bson.M{}
|
||||||
|
|
||||||
|
for i := 0; i < v.NumField(); i++ {
|
||||||
|
tag := t.Field(i).Tag.Get("bson")
|
||||||
|
if tag == "" {
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
tag = strings.Split(tag, ",")[0]
|
||||||
|
|
||||||
|
result[tag] = 1
|
||||||
|
}
|
||||||
|
|
||||||
|
return result
|
||||||
|
}
|
28
mongoext/registry.go
Normal file
28
mongoext/registry.go
Normal file
@@ -0,0 +1,28 @@
|
|||||||
|
package mongoext
|
||||||
|
|
||||||
|
import (
|
||||||
|
"go.mongodb.org/mongo-driver/bson"
|
||||||
|
"go.mongodb.org/mongo-driver/bson/bsoncodec"
|
||||||
|
"gogs.mikescher.com/BlackForestBytes/goext/rfctime"
|
||||||
|
"reflect"
|
||||||
|
)
|
||||||
|
|
||||||
|
func CreateGoExtBsonRegistry() *bsoncodec.Registry {
|
||||||
|
rb := bsoncodec.NewRegistryBuilder()
|
||||||
|
|
||||||
|
rb.RegisterTypeDecoder(reflect.TypeOf(rfctime.RFC3339Time{}), rfctime.RFC3339Time{})
|
||||||
|
rb.RegisterTypeDecoder(reflect.TypeOf(&rfctime.RFC3339Time{}), rfctime.RFC3339Time{})
|
||||||
|
|
||||||
|
rb.RegisterTypeDecoder(reflect.TypeOf(rfctime.RFC3339NanoTime{}), rfctime.RFC3339NanoTime{})
|
||||||
|
rb.RegisterTypeDecoder(reflect.TypeOf(&rfctime.RFC3339NanoTime{}), rfctime.RFC3339NanoTime{})
|
||||||
|
|
||||||
|
rb.RegisterTypeDecoder(reflect.TypeOf(rfctime.Date{}), rfctime.Date{})
|
||||||
|
rb.RegisterTypeDecoder(reflect.TypeOf(&rfctime.Date{}), rfctime.Date{})
|
||||||
|
|
||||||
|
bsoncodec.DefaultValueEncoders{}.RegisterDefaultEncoders(rb)
|
||||||
|
bsoncodec.DefaultValueDecoders{}.RegisterDefaultDecoders(rb)
|
||||||
|
|
||||||
|
bson.PrimitiveCodecs{}.RegisterPrimitiveCodecs(rb)
|
||||||
|
|
||||||
|
return rb.Build()
|
||||||
|
}
|
136
reflectext/casting.go
Normal file
136
reflectext/casting.go
Normal file
@@ -0,0 +1,136 @@
|
|||||||
|
package reflectext
|
||||||
|
|
||||||
|
import (
|
||||||
|
"reflect"
|
||||||
|
)
|
||||||
|
|
||||||
|
var reflectBasicTypes = map[reflect.Kind]reflect.Type{
|
||||||
|
reflect.Bool: reflect.TypeOf(false),
|
||||||
|
reflect.Int: reflect.TypeOf(int(0)),
|
||||||
|
reflect.Int8: reflect.TypeOf(int8(0)),
|
||||||
|
reflect.Int16: reflect.TypeOf(int16(0)),
|
||||||
|
reflect.Int32: reflect.TypeOf(int32(0)),
|
||||||
|
reflect.Int64: reflect.TypeOf(int64(0)),
|
||||||
|
reflect.Uint: reflect.TypeOf(uint(0)),
|
||||||
|
reflect.Uint8: reflect.TypeOf(uint8(0)),
|
||||||
|
reflect.Uint16: reflect.TypeOf(uint16(0)),
|
||||||
|
reflect.Uint32: reflect.TypeOf(uint32(0)),
|
||||||
|
reflect.Uint64: reflect.TypeOf(uint64(0)),
|
||||||
|
reflect.Uintptr: reflect.TypeOf(uintptr(0)),
|
||||||
|
reflect.Float32: reflect.TypeOf(float32(0)),
|
||||||
|
reflect.Float64: reflect.TypeOf(float64(0)),
|
||||||
|
reflect.Complex64: reflect.TypeOf(complex64(0)),
|
||||||
|
reflect.Complex128: reflect.TypeOf(complex128(0)),
|
||||||
|
reflect.String: reflect.TypeOf(""),
|
||||||
|
}
|
||||||
|
|
||||||
|
// Underlying returns the underlying type of t (without type alias)
|
||||||
|
//
|
||||||
|
// https://github.com/golang/go/issues/39574#issuecomment-655664772
|
||||||
|
func Underlying(t reflect.Type) (ret reflect.Type) {
|
||||||
|
if t.Name() == "" {
|
||||||
|
// t is an unnamed type. the underlying type is t itself
|
||||||
|
return t
|
||||||
|
}
|
||||||
|
kind := t.Kind()
|
||||||
|
if ret = reflectBasicTypes[kind]; ret != nil {
|
||||||
|
return ret
|
||||||
|
}
|
||||||
|
switch kind {
|
||||||
|
case reflect.Array:
|
||||||
|
ret = reflect.ArrayOf(t.Len(), t.Elem())
|
||||||
|
case reflect.Chan:
|
||||||
|
ret = reflect.ChanOf(t.ChanDir(), t.Elem())
|
||||||
|
case reflect.Map:
|
||||||
|
ret = reflect.MapOf(t.Key(), t.Elem())
|
||||||
|
case reflect.Func:
|
||||||
|
nIn := t.NumIn()
|
||||||
|
nOut := t.NumOut()
|
||||||
|
in := make([]reflect.Type, nIn)
|
||||||
|
out := make([]reflect.Type, nOut)
|
||||||
|
for i := 0; i < nIn; i++ {
|
||||||
|
in[i] = t.In(i)
|
||||||
|
}
|
||||||
|
for i := 0; i < nOut; i++ {
|
||||||
|
out[i] = t.Out(i)
|
||||||
|
}
|
||||||
|
ret = reflect.FuncOf(in, out, t.IsVariadic())
|
||||||
|
case reflect.Interface:
|
||||||
|
// not supported
|
||||||
|
case reflect.Ptr:
|
||||||
|
ret = reflect.PtrTo(t.Elem())
|
||||||
|
case reflect.Slice:
|
||||||
|
ret = reflect.SliceOf(t.Elem())
|
||||||
|
case reflect.Struct:
|
||||||
|
// only partially supported: embedded fields
|
||||||
|
// and unexported fields may cause panic in reflect.StructOf()
|
||||||
|
defer func() {
|
||||||
|
// if a panic happens, return t unmodified
|
||||||
|
if recover() != nil && ret == nil {
|
||||||
|
ret = t
|
||||||
|
}
|
||||||
|
}()
|
||||||
|
n := t.NumField()
|
||||||
|
fields := make([]reflect.StructField, n)
|
||||||
|
for i := 0; i < n; i++ {
|
||||||
|
fields[i] = t.Field(i)
|
||||||
|
}
|
||||||
|
ret = reflect.StructOf(fields)
|
||||||
|
}
|
||||||
|
return ret
|
||||||
|
}
|
||||||
|
|
||||||
|
// TryCast works similar to `v2, ok := v.(T)`
|
||||||
|
// Except it works through type alias'
|
||||||
|
func TryCast[T any](v any) (T, bool) {
|
||||||
|
|
||||||
|
underlying := Underlying(reflect.TypeOf(v))
|
||||||
|
|
||||||
|
def := *new(T)
|
||||||
|
|
||||||
|
if underlying != Underlying(reflect.TypeOf(def)) {
|
||||||
|
return def, false
|
||||||
|
}
|
||||||
|
|
||||||
|
r1 := reflect.ValueOf(v)
|
||||||
|
|
||||||
|
if !r1.CanConvert(underlying) {
|
||||||
|
return def, false
|
||||||
|
}
|
||||||
|
|
||||||
|
r2 := r1.Convert(underlying)
|
||||||
|
|
||||||
|
r3 := r2.Interface()
|
||||||
|
|
||||||
|
r4, ok := r3.(T)
|
||||||
|
if !ok {
|
||||||
|
return def, false
|
||||||
|
}
|
||||||
|
|
||||||
|
return r4, true
|
||||||
|
}
|
||||||
|
|
||||||
|
func TryCastType(v any, dest reflect.Type) (any, bool) {
|
||||||
|
|
||||||
|
underlying := Underlying(reflect.TypeOf(v))
|
||||||
|
|
||||||
|
if underlying != Underlying(dest) {
|
||||||
|
return nil, false
|
||||||
|
}
|
||||||
|
|
||||||
|
r1 := reflect.ValueOf(v)
|
||||||
|
|
||||||
|
if !r1.CanConvert(underlying) {
|
||||||
|
return nil, false
|
||||||
|
}
|
||||||
|
|
||||||
|
r2 := r1.Convert(underlying)
|
||||||
|
|
||||||
|
if !r2.CanConvert(dest) {
|
||||||
|
return nil, false
|
||||||
|
}
|
||||||
|
|
||||||
|
r4 := r2.Convert(dest)
|
||||||
|
|
||||||
|
return r4.Interface(), true
|
||||||
|
}
|
136
reflectext/primStrSer.go
Normal file
136
reflectext/primStrSer.go
Normal file
@@ -0,0 +1,136 @@
|
|||||||
|
package reflectext
|
||||||
|
|
||||||
|
import (
|
||||||
|
"errors"
|
||||||
|
"fmt"
|
||||||
|
"go.mongodb.org/mongo-driver/bson/primitive"
|
||||||
|
"gogs.mikescher.com/BlackForestBytes/goext/langext"
|
||||||
|
"reflect"
|
||||||
|
"strconv"
|
||||||
|
"strings"
|
||||||
|
"time"
|
||||||
|
)
|
||||||
|
|
||||||
|
var primitiveSerializer = map[reflect.Type]genSerializer{
|
||||||
|
|
||||||
|
reflect.TypeOf(""): newGenSerializer(serStringToString, serStringToString),
|
||||||
|
|
||||||
|
reflect.TypeOf(int(0)): newGenSerializer(serIntNumToString[int], serStringToSIntNum[int]),
|
||||||
|
reflect.TypeOf(int32(0)): newGenSerializer(serIntNumToString[int32], serStringToSIntNum[int32]),
|
||||||
|
reflect.TypeOf(int64(0)): newGenSerializer(serIntNumToString[int64], serStringToSIntNum[int64]),
|
||||||
|
|
||||||
|
reflect.TypeOf(uint(0)): newGenSerializer(serIntNumToString[uint], serStringToUIntNum[uint]),
|
||||||
|
reflect.TypeOf(uint32(0)): newGenSerializer(serIntNumToString[uint32], serStringToUIntNum[uint32]),
|
||||||
|
reflect.TypeOf(uint64(0)): newGenSerializer(serIntNumToString[uint64], serStringToUIntNum[uint64]),
|
||||||
|
|
||||||
|
reflect.TypeOf(float32(0)): newGenSerializer(serFloatNumToString[float32], serStringToFloatNum[float32]),
|
||||||
|
reflect.TypeOf(float64(0)): newGenSerializer(serFloatNumToString[float64], serStringToFloatNum[float64]),
|
||||||
|
|
||||||
|
reflect.TypeOf(true): newGenSerializer(serBoolToString, serStringToBool),
|
||||||
|
|
||||||
|
reflect.TypeOf(primitive.ObjectID{}): newGenSerializer(serObjectIDToString, serStringToObjectID),
|
||||||
|
|
||||||
|
reflect.TypeOf(time.Time{}): newGenSerializer(serTimeToString, serStringToTime),
|
||||||
|
}
|
||||||
|
|
||||||
|
type genSerializer struct {
|
||||||
|
ToString func(v any) (string, error)
|
||||||
|
FromString func(v string) (any, error)
|
||||||
|
}
|
||||||
|
|
||||||
|
func newGenSerializer[TData any](tostr func(v TData) (string, error), fromstr func(v string) (TData, error)) genSerializer {
|
||||||
|
return genSerializer{
|
||||||
|
ToString: func(v any) (string, error) {
|
||||||
|
if tdv, ok := v.(TData); ok {
|
||||||
|
rv, err := tostr(tdv)
|
||||||
|
if err != nil {
|
||||||
|
return "", err
|
||||||
|
}
|
||||||
|
return rv, nil
|
||||||
|
} else {
|
||||||
|
return "", errors.New(fmt.Sprintf("cannot convert type %T to TData (%T)", v, *new(TData)))
|
||||||
|
}
|
||||||
|
},
|
||||||
|
FromString: func(v string) (any, error) {
|
||||||
|
nv, err := fromstr(v)
|
||||||
|
if err != nil {
|
||||||
|
return "", err
|
||||||
|
}
|
||||||
|
return nv, nil
|
||||||
|
},
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
func serStringToString(v string) (string, error) {
|
||||||
|
return v, nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func serIntNumToString[TNum langext.IntegerConstraint](v TNum) (string, error) {
|
||||||
|
return strconv.FormatInt(int64(v), 10), nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func serStringToSIntNum[TNum langext.SignedConstraint](v string) (TNum, error) {
|
||||||
|
r, err := strconv.ParseInt(v, 10, 64)
|
||||||
|
if err != nil {
|
||||||
|
return 0, err
|
||||||
|
}
|
||||||
|
return TNum(r), nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func serStringToUIntNum[TNum langext.UnsignedConstraint](v string) (TNum, error) {
|
||||||
|
r, err := strconv.ParseUint(v, 10, 64)
|
||||||
|
if err != nil {
|
||||||
|
return 0, err
|
||||||
|
}
|
||||||
|
return TNum(r), nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func serFloatNumToString[TNum langext.FloatConstraint](v TNum) (string, error) {
|
||||||
|
return strconv.FormatFloat(float64(v), 'f', -1, 64), nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func serStringToFloatNum[TNum langext.FloatConstraint](v string) (TNum, error) {
|
||||||
|
r, err := strconv.ParseFloat(v, 64)
|
||||||
|
if err != nil {
|
||||||
|
return 0, err
|
||||||
|
}
|
||||||
|
return TNum(r), nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func serBoolToString(v bool) (string, error) {
|
||||||
|
return langext.Conditional(v, "true", "false"), nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func serStringToBool(v string) (bool, error) {
|
||||||
|
if strings.ToLower(v) == "true" {
|
||||||
|
return true, nil
|
||||||
|
}
|
||||||
|
if strings.ToLower(v) == "false" {
|
||||||
|
return true, nil
|
||||||
|
}
|
||||||
|
return false, errors.New(fmt.Sprintf("invalid boolean value '%s'", v))
|
||||||
|
}
|
||||||
|
|
||||||
|
func serObjectIDToString(v primitive.ObjectID) (string, error) {
|
||||||
|
return v.Hex(), nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func serStringToObjectID(v string) (primitive.ObjectID, error) {
|
||||||
|
if rv, err := primitive.ObjectIDFromHex(v); err == nil {
|
||||||
|
return rv, nil
|
||||||
|
} else {
|
||||||
|
return primitive.ObjectID{}, err
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
func serTimeToString(v time.Time) (string, error) {
|
||||||
|
return v.Format(time.RFC3339Nano), nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func serStringToTime(v string) (time.Time, error) {
|
||||||
|
if rv, err := time.Parse(time.RFC3339Nano, v); err == nil {
|
||||||
|
return rv, nil
|
||||||
|
} else {
|
||||||
|
return time.Time{}, err
|
||||||
|
}
|
||||||
|
}
|
92
reflectext/primitiveStringSerializer.go
Normal file
92
reflectext/primitiveStringSerializer.go
Normal file
@@ -0,0 +1,92 @@
|
|||||||
|
package reflectext
|
||||||
|
|
||||||
|
import (
|
||||||
|
"errors"
|
||||||
|
"fmt"
|
||||||
|
"gogs.mikescher.com/BlackForestBytes/goext/langext"
|
||||||
|
"reflect"
|
||||||
|
)
|
||||||
|
|
||||||
|
// PrimitiveStringSerializer is used to serialize primitive types (and a few more) from and to string
|
||||||
|
// This is not really intended to be user facing, and more as a simple building block for other mechanisms
|
||||||
|
// supports:
|
||||||
|
// - golang primitives (ints, uints, floats, bool, string)
|
||||||
|
// - type aliases
|
||||||
|
// - time.Time
|
||||||
|
// - primitive.ObjectID
|
||||||
|
type PrimitiveStringSerializer struct{}
|
||||||
|
|
||||||
|
func (pss PrimitiveStringSerializer) ValueToString(v any) (string, error) {
|
||||||
|
|
||||||
|
inType := reflect.TypeOf(v)
|
||||||
|
|
||||||
|
if inType.Kind() == reflect.Ptr && langext.IsNil(v) {
|
||||||
|
return "", nil
|
||||||
|
}
|
||||||
|
|
||||||
|
if inType.Kind() == reflect.Ptr {
|
||||||
|
rval1 := reflect.ValueOf(v)
|
||||||
|
rval2 := rval1.Elem()
|
||||||
|
rval3 := rval2.Interface()
|
||||||
|
return pss.ValueToString(rval3)
|
||||||
|
}
|
||||||
|
|
||||||
|
if conv, ok := primitiveSerializer[inType]; ok {
|
||||||
|
return conv.ToString(v)
|
||||||
|
}
|
||||||
|
|
||||||
|
for convType, conv := range primitiveSerializer {
|
||||||
|
if castV, ok := TryCastType(v, convType); ok {
|
||||||
|
return conv.ToString(castV)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
return "", errors.New(fmt.Sprintf("failed to find a matching generic <toString> conversion fo type %T", v))
|
||||||
|
}
|
||||||
|
|
||||||
|
func (pss PrimitiveStringSerializer) ValueFromString(str string, outType reflect.Type) (any, error) {
|
||||||
|
|
||||||
|
if outType.Kind() == reflect.Ptr && str == "" {
|
||||||
|
return reflect.Zero(outType).Interface(), nil // = nil.(outType), nil
|
||||||
|
}
|
||||||
|
|
||||||
|
if str == "" {
|
||||||
|
return reflect.Zero(outType).Interface(), nil // = <default>(outType), nil
|
||||||
|
}
|
||||||
|
|
||||||
|
if outType.Kind() == reflect.Ptr {
|
||||||
|
|
||||||
|
innerValue, err := pss.ValueFromString(str, outType.Elem())
|
||||||
|
if err != nil {
|
||||||
|
return nil, err
|
||||||
|
}
|
||||||
|
|
||||||
|
// this weird piece of shit converts innerValue to &innerValue (while keeping types)
|
||||||
|
|
||||||
|
rval1 := reflect.ValueOf(innerValue)
|
||||||
|
rval2 := rval1.Convert(outType.Elem())
|
||||||
|
rval3 := reflect.New(outType.Elem())
|
||||||
|
rval3.Elem().Set(rval2)
|
||||||
|
rval4 := rval3.Interface()
|
||||||
|
|
||||||
|
return rval4, nil
|
||||||
|
}
|
||||||
|
|
||||||
|
if conv, ok := primitiveSerializer[outType]; ok {
|
||||||
|
return conv.FromString(str)
|
||||||
|
}
|
||||||
|
|
||||||
|
emptyResultVal := reflect.Zero(outType).Interface()
|
||||||
|
|
||||||
|
for convType, conv := range primitiveSerializer {
|
||||||
|
if _, ok := TryCastType(emptyResultVal, convType); ok {
|
||||||
|
if convVal, err := conv.FromString(str); err == nil {
|
||||||
|
if resVal, ok := TryCastType(convVal, outType); ok {
|
||||||
|
return resVal, nil
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
return "", errors.New(fmt.Sprintf("failed to find a matching generic <toString> conversion fo type %s", outType.String()))
|
||||||
|
}
|
@@ -1,6 +1,9 @@
|
|||||||
package rext
|
package rext
|
||||||
|
|
||||||
import "regexp"
|
import (
|
||||||
|
"gogs.mikescher.com/BlackForestBytes/goext/langext"
|
||||||
|
"regexp"
|
||||||
|
)
|
||||||
|
|
||||||
type Regex interface {
|
type Regex interface {
|
||||||
IsMatch(haystack string) bool
|
IsMatch(haystack string) bool
|
||||||
@@ -29,6 +32,10 @@ type RegexMatchGroup struct {
|
|||||||
end int
|
end int
|
||||||
}
|
}
|
||||||
|
|
||||||
|
type OptRegexMatchGroup struct {
|
||||||
|
v *RegexMatchGroup
|
||||||
|
}
|
||||||
|
|
||||||
func W(rex *regexp.Regexp) Regex {
|
func W(rex *regexp.Regexp) Regex {
|
||||||
return ®exWrapper{rex: rex, subnames: rex.SubexpNames()}
|
return ®exWrapper{rex: rex, subnames: rex.SubexpNames()}
|
||||||
}
|
}
|
||||||
@@ -97,7 +104,7 @@ func (m RegexMatch) GroupByIndex(idx int) RegexMatchGroup {
|
|||||||
return RegexMatchGroup{haystack: m.haystack, start: m.submatchesIndex[idx*2], end: m.submatchesIndex[idx*2+1]}
|
return RegexMatchGroup{haystack: m.haystack, start: m.submatchesIndex[idx*2], end: m.submatchesIndex[idx*2+1]}
|
||||||
}
|
}
|
||||||
|
|
||||||
// GroupByName returns the value of a matched group (group 0 == whole match)
|
// GroupByName returns the value of a matched group (panics if not found!)
|
||||||
func (m RegexMatch) GroupByName(name string) RegexMatchGroup {
|
func (m RegexMatch) GroupByName(name string) RegexMatchGroup {
|
||||||
for idx, subname := range m.subnames {
|
for idx, subname := range m.subnames {
|
||||||
if subname == name {
|
if subname == name {
|
||||||
@@ -107,6 +114,16 @@ func (m RegexMatch) GroupByName(name string) RegexMatchGroup {
|
|||||||
panic("failed to find regex-group by name")
|
panic("failed to find regex-group by name")
|
||||||
}
|
}
|
||||||
|
|
||||||
|
// GroupByName returns the value of a matched group (returns empty OptRegexMatchGroup if not found)
|
||||||
|
func (m RegexMatch) GroupByNameOrEmpty(name string) OptRegexMatchGroup {
|
||||||
|
for idx, subname := range m.subnames {
|
||||||
|
if subname == name && (m.submatchesIndex[idx*2] != -1 || m.submatchesIndex[idx*2+1] != -1) {
|
||||||
|
return OptRegexMatchGroup{&RegexMatchGroup{haystack: m.haystack, start: m.submatchesIndex[idx*2], end: m.submatchesIndex[idx*2+1]}}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
return OptRegexMatchGroup{}
|
||||||
|
}
|
||||||
|
|
||||||
// ---------------------------------------------------------------------------------------------------------------------
|
// ---------------------------------------------------------------------------------------------------------------------
|
||||||
|
|
||||||
func (g RegexMatchGroup) Value() string {
|
func (g RegexMatchGroup) Value() string {
|
||||||
@@ -128,3 +145,47 @@ func (g RegexMatchGroup) Range() (int, int) {
|
|||||||
func (g RegexMatchGroup) Length() int {
|
func (g RegexMatchGroup) Length() int {
|
||||||
return g.end - g.start
|
return g.end - g.start
|
||||||
}
|
}
|
||||||
|
|
||||||
|
// ---------------------------------------------------------------------------------------------------------------------
|
||||||
|
|
||||||
|
func (g OptRegexMatchGroup) Value() string {
|
||||||
|
return g.v.Value()
|
||||||
|
}
|
||||||
|
|
||||||
|
func (g OptRegexMatchGroup) ValueOrEmpty() string {
|
||||||
|
if g.v == nil {
|
||||||
|
return ""
|
||||||
|
}
|
||||||
|
return g.v.Value()
|
||||||
|
}
|
||||||
|
|
||||||
|
func (g OptRegexMatchGroup) ValueOrNil() *string {
|
||||||
|
if g.v == nil {
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
return langext.Ptr(g.v.Value())
|
||||||
|
}
|
||||||
|
|
||||||
|
func (g OptRegexMatchGroup) IsEmpty() bool {
|
||||||
|
return g.v == nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func (g OptRegexMatchGroup) Exists() bool {
|
||||||
|
return g.v != nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func (g OptRegexMatchGroup) Start() int {
|
||||||
|
return g.v.Start()
|
||||||
|
}
|
||||||
|
|
||||||
|
func (g OptRegexMatchGroup) End() int {
|
||||||
|
return g.v.End()
|
||||||
|
}
|
||||||
|
|
||||||
|
func (g OptRegexMatchGroup) Range() (int, int) {
|
||||||
|
return g.v.Range()
|
||||||
|
}
|
||||||
|
|
||||||
|
func (g OptRegexMatchGroup) Length() int {
|
||||||
|
return g.v.Length()
|
||||||
|
}
|
||||||
|
47
rext/wrapper_test.go
Normal file
47
rext/wrapper_test.go
Normal file
@@ -0,0 +1,47 @@
|
|||||||
|
package rext
|
||||||
|
|
||||||
|
import (
|
||||||
|
"gogs.mikescher.com/BlackForestBytes/goext/tst"
|
||||||
|
"regexp"
|
||||||
|
"testing"
|
||||||
|
)
|
||||||
|
|
||||||
|
func TestGroupByNameOrEmpty1(t *testing.T) {
|
||||||
|
|
||||||
|
regex1 := W(regexp.MustCompile("0(?P<group1>A+)B(?P<group2>C+)0"))
|
||||||
|
|
||||||
|
match1, ok1 := regex1.MatchFirst("Hello 0AAAABCCC0 Bye.")
|
||||||
|
|
||||||
|
tst.AssertTrue(t, ok1)
|
||||||
|
|
||||||
|
tst.AssertFalse(t, match1.GroupByNameOrEmpty("group1").IsEmpty())
|
||||||
|
tst.AssertEqual(t, match1.GroupByNameOrEmpty("group1").ValueOrEmpty(), "AAAA")
|
||||||
|
tst.AssertEqual(t, *match1.GroupByNameOrEmpty("group1").ValueOrNil(), "AAAA")
|
||||||
|
|
||||||
|
tst.AssertFalse(t, match1.GroupByNameOrEmpty("group2").IsEmpty())
|
||||||
|
tst.AssertEqual(t, match1.GroupByNameOrEmpty("group2").ValueOrEmpty(), "CCC")
|
||||||
|
tst.AssertEqual(t, *match1.GroupByNameOrEmpty("group2").ValueOrNil(), "CCC")
|
||||||
|
|
||||||
|
}
|
||||||
|
|
||||||
|
func TestGroupByNameOrEmpty2(t *testing.T) {
|
||||||
|
|
||||||
|
regex1 := W(regexp.MustCompile("0(?P<group1>A+)B(?P<group2>C+)(?P<group3>C+)?0"))
|
||||||
|
|
||||||
|
match1, ok1 := regex1.MatchFirst("Hello 0AAAABCCC0 Bye.")
|
||||||
|
|
||||||
|
tst.AssertTrue(t, ok1)
|
||||||
|
|
||||||
|
tst.AssertFalse(t, match1.GroupByNameOrEmpty("group1").IsEmpty())
|
||||||
|
tst.AssertEqual(t, match1.GroupByNameOrEmpty("group1").ValueOrEmpty(), "AAAA")
|
||||||
|
tst.AssertEqual(t, *match1.GroupByNameOrEmpty("group1").ValueOrNil(), "AAAA")
|
||||||
|
|
||||||
|
tst.AssertFalse(t, match1.GroupByNameOrEmpty("group2").IsEmpty())
|
||||||
|
tst.AssertEqual(t, match1.GroupByNameOrEmpty("group2").ValueOrEmpty(), "CCC")
|
||||||
|
tst.AssertEqual(t, *match1.GroupByNameOrEmpty("group2").ValueOrNil(), "CCC")
|
||||||
|
|
||||||
|
tst.AssertTrue(t, match1.GroupByNameOrEmpty("group3").IsEmpty())
|
||||||
|
tst.AssertEqual(t, match1.GroupByNameOrEmpty("group3").ValueOrEmpty(), "")
|
||||||
|
tst.AssertPtrEqual(t, match1.GroupByNameOrEmpty("group3").ValueOrNil(), nil)
|
||||||
|
|
||||||
|
}
|
240
rfctime/date.go
Normal file
240
rfctime/date.go
Normal file
@@ -0,0 +1,240 @@
|
|||||||
|
package rfctime
|
||||||
|
|
||||||
|
import (
|
||||||
|
"encoding/json"
|
||||||
|
"errors"
|
||||||
|
"fmt"
|
||||||
|
"go.mongodb.org/mongo-driver/bson"
|
||||||
|
"go.mongodb.org/mongo-driver/bson/bsoncodec"
|
||||||
|
"go.mongodb.org/mongo-driver/bson/bsonrw"
|
||||||
|
"go.mongodb.org/mongo-driver/bson/bsontype"
|
||||||
|
"reflect"
|
||||||
|
"time"
|
||||||
|
)
|
||||||
|
|
||||||
|
type Date struct {
|
||||||
|
Year int
|
||||||
|
Month int
|
||||||
|
Day int
|
||||||
|
}
|
||||||
|
|
||||||
|
func (t Date) Time(loc *time.Location) time.Time {
|
||||||
|
return time.Date(t.Year, time.Month(t.Month), t.Day, 0, 0, 0, 0, loc)
|
||||||
|
}
|
||||||
|
|
||||||
|
func (t Date) TimeUTC() time.Time {
|
||||||
|
return time.Date(t.Year, time.Month(t.Month), t.Day, 0, 0, 0, 0, time.UTC)
|
||||||
|
}
|
||||||
|
|
||||||
|
func (t Date) TimeLocal() time.Time {
|
||||||
|
return time.Date(t.Year, time.Month(t.Month), t.Day, 0, 0, 0, 0, time.Local)
|
||||||
|
}
|
||||||
|
|
||||||
|
func (t Date) MarshalBinary() ([]byte, error) {
|
||||||
|
return t.TimeUTC().MarshalBinary()
|
||||||
|
}
|
||||||
|
|
||||||
|
func (t *Date) UnmarshalBinary(data []byte) error {
|
||||||
|
nt := time.Time{}
|
||||||
|
if err := nt.UnmarshalBinary(data); err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
t.Year = nt.Year()
|
||||||
|
t.Month = int(nt.Month())
|
||||||
|
t.Day = nt.Day()
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func (t Date) GobEncode() ([]byte, error) {
|
||||||
|
return t.TimeUTC().GobEncode()
|
||||||
|
}
|
||||||
|
|
||||||
|
func (t *Date) GobDecode(data []byte) error {
|
||||||
|
nt := time.Time{}
|
||||||
|
if err := nt.GobDecode(data); err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
t.Year = nt.Year()
|
||||||
|
t.Month = int(nt.Month())
|
||||||
|
t.Day = nt.Day()
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func (t *Date) UnmarshalJSON(data []byte) error {
|
||||||
|
str := ""
|
||||||
|
if err := json.Unmarshal(data, &str); err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
t0, err := time.Parse(t.FormatStr(), str)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
t.Year = t0.Year()
|
||||||
|
t.Month = int(t0.Month())
|
||||||
|
t.Day = t0.Day()
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func (t Date) MarshalJSON() ([]byte, error) {
|
||||||
|
str := t.TimeUTC().Format(t.FormatStr())
|
||||||
|
return json.Marshal(str)
|
||||||
|
}
|
||||||
|
|
||||||
|
func (t Date) MarshalText() ([]byte, error) {
|
||||||
|
b := make([]byte, 0, len(t.FormatStr()))
|
||||||
|
return t.TimeUTC().AppendFormat(b, t.FormatStr()), nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func (t *Date) UnmarshalText(data []byte) error {
|
||||||
|
var err error
|
||||||
|
v, err := time.Parse(t.FormatStr(), string(data))
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
t.Year = v.Year()
|
||||||
|
t.Month = int(v.Month())
|
||||||
|
t.Day = v.Day()
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func (t *Date) UnmarshalBSONValue(bt bsontype.Type, data []byte) error {
|
||||||
|
if bt == bsontype.Null {
|
||||||
|
// we can't set nil in UnmarshalBSONValue (so we use default(struct))
|
||||||
|
// Use mongoext.CreateGoExtBsonRegistry if you need to unmarsh pointer values
|
||||||
|
// https://stackoverflow.com/questions/75167597
|
||||||
|
// https://jira.mongodb.org/browse/GODRIVER-2252
|
||||||
|
*t = Date{}
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
if bt != bsontype.String {
|
||||||
|
return errors.New(fmt.Sprintf("cannot unmarshal %v into Date", bt))
|
||||||
|
}
|
||||||
|
|
||||||
|
var tt string
|
||||||
|
err := bson.RawValue{Type: bt, Value: data}.Unmarshal(&tt)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
|
||||||
|
v, err := time.Parse(t.FormatStr(), tt)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
t.Year = v.Year()
|
||||||
|
t.Month = int(v.Month())
|
||||||
|
t.Day = v.Day()
|
||||||
|
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func (t Date) MarshalBSONValue() (bsontype.Type, []byte, error) {
|
||||||
|
return bson.MarshalValue(t.TimeUTC().Format(t.FormatStr()))
|
||||||
|
}
|
||||||
|
|
||||||
|
func (t Date) DecodeValue(dc bsoncodec.DecodeContext, vr bsonrw.ValueReader, val reflect.Value) error {
|
||||||
|
if val.Kind() == reflect.Ptr && val.IsNil() {
|
||||||
|
if !val.CanSet() {
|
||||||
|
return errors.New("ValueUnmarshalerDecodeValue")
|
||||||
|
}
|
||||||
|
val.Set(reflect.New(val.Type().Elem()))
|
||||||
|
}
|
||||||
|
|
||||||
|
tp, src, err := bsonrw.Copier{}.CopyValueToBytes(vr)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
|
||||||
|
if val.Kind() == reflect.Ptr && len(src) == 0 {
|
||||||
|
val.Set(reflect.Zero(val.Type()))
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
|
err = t.UnmarshalBSONValue(tp, src)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
|
||||||
|
if val.Kind() == reflect.Ptr {
|
||||||
|
val.Set(reflect.ValueOf(&t))
|
||||||
|
} else {
|
||||||
|
val.Set(reflect.ValueOf(t))
|
||||||
|
}
|
||||||
|
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func (t Date) Serialize() string {
|
||||||
|
return t.TimeUTC().Format(t.FormatStr())
|
||||||
|
}
|
||||||
|
|
||||||
|
func (t Date) FormatStr() string {
|
||||||
|
return "2006-01-02"
|
||||||
|
}
|
||||||
|
|
||||||
|
func (t Date) Date() (year int, month time.Month, day int) {
|
||||||
|
return t.TimeUTC().Date()
|
||||||
|
}
|
||||||
|
|
||||||
|
func (t Date) Weekday() time.Weekday {
|
||||||
|
return t.TimeUTC().Weekday()
|
||||||
|
}
|
||||||
|
|
||||||
|
func (t Date) ISOWeek() (year, week int) {
|
||||||
|
return t.TimeUTC().ISOWeek()
|
||||||
|
}
|
||||||
|
|
||||||
|
func (t Date) YearDay() int {
|
||||||
|
return t.TimeUTC().YearDay()
|
||||||
|
}
|
||||||
|
|
||||||
|
func (t Date) AddDate(years int, months int, days int) Date {
|
||||||
|
return NewDate(t.TimeUTC().AddDate(years, months, days))
|
||||||
|
}
|
||||||
|
|
||||||
|
func (t Date) Unix() int64 {
|
||||||
|
return t.TimeUTC().Unix()
|
||||||
|
}
|
||||||
|
|
||||||
|
func (t Date) UnixMilli() int64 {
|
||||||
|
return t.TimeUTC().UnixMilli()
|
||||||
|
}
|
||||||
|
|
||||||
|
func (t Date) UnixMicro() int64 {
|
||||||
|
return t.TimeUTC().UnixMicro()
|
||||||
|
}
|
||||||
|
|
||||||
|
func (t Date) UnixNano() int64 {
|
||||||
|
return t.TimeUTC().UnixNano()
|
||||||
|
}
|
||||||
|
|
||||||
|
func (t Date) Format(layout string) string {
|
||||||
|
return t.TimeUTC().Format(layout)
|
||||||
|
}
|
||||||
|
|
||||||
|
func (t Date) GoString() string {
|
||||||
|
return t.TimeUTC().GoString()
|
||||||
|
}
|
||||||
|
|
||||||
|
func (t Date) String() string {
|
||||||
|
return t.TimeUTC().String()
|
||||||
|
}
|
||||||
|
|
||||||
|
func NewDate(t time.Time) Date {
|
||||||
|
return Date{
|
||||||
|
Year: t.Year(),
|
||||||
|
Month: int(t.Month()),
|
||||||
|
Day: t.Day(),
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
func NowDate(loc *time.Location) Date {
|
||||||
|
return NewDate(time.Now().In(loc))
|
||||||
|
}
|
||||||
|
|
||||||
|
func NowDateLoc() Date {
|
||||||
|
return NewDate(time.Now().In(time.UTC))
|
||||||
|
}
|
||||||
|
|
||||||
|
func NowDateUTC() Date {
|
||||||
|
return NewDate(time.Now().In(time.Local))
|
||||||
|
}
|
@@ -1,6 +1,7 @@
|
|||||||
package rfctime
|
package rfctime
|
||||||
|
|
||||||
import (
|
import (
|
||||||
|
"gogs.mikescher.com/BlackForestBytes/goext/tst"
|
||||||
"testing"
|
"testing"
|
||||||
"time"
|
"time"
|
||||||
)
|
)
|
||||||
@@ -10,22 +11,22 @@ func TestAnyTimeInterface(t *testing.T) {
|
|||||||
var v AnyTime
|
var v AnyTime
|
||||||
|
|
||||||
v = NowRFC3339Nano()
|
v = NowRFC3339Nano()
|
||||||
assertEqual(t, v.String(), v.String())
|
tst.AssertEqual(t, v.String(), v.String())
|
||||||
|
|
||||||
v = NowRFC3339()
|
v = NowRFC3339()
|
||||||
assertEqual(t, v.String(), v.String())
|
tst.AssertEqual(t, v.String(), v.String())
|
||||||
|
|
||||||
v = NowUnix()
|
v = NowUnix()
|
||||||
assertEqual(t, v.String(), v.String())
|
tst.AssertEqual(t, v.String(), v.String())
|
||||||
|
|
||||||
v = NowUnixMilli()
|
v = NowUnixMilli()
|
||||||
assertEqual(t, v.String(), v.String())
|
tst.AssertEqual(t, v.String(), v.String())
|
||||||
|
|
||||||
v = NowUnixNano()
|
v = NowUnixNano()
|
||||||
assertEqual(t, v.String(), v.String())
|
tst.AssertEqual(t, v.String(), v.String())
|
||||||
|
|
||||||
v = time.Now()
|
v = time.Now()
|
||||||
assertEqual(t, v.String(), v.String())
|
tst.AssertEqual(t, v.String(), v.String())
|
||||||
|
|
||||||
}
|
}
|
||||||
|
|
||||||
@@ -33,18 +34,18 @@ func TestRFCTimeInterface(t *testing.T) {
|
|||||||
var v RFCTime
|
var v RFCTime
|
||||||
|
|
||||||
v = NowRFC3339Nano()
|
v = NowRFC3339Nano()
|
||||||
assertEqual(t, v.String(), v.String())
|
tst.AssertEqual(t, v.String(), v.String())
|
||||||
|
|
||||||
v = NowRFC3339()
|
v = NowRFC3339()
|
||||||
assertEqual(t, v.String(), v.String())
|
tst.AssertEqual(t, v.String(), v.String())
|
||||||
|
|
||||||
v = NowUnix()
|
v = NowUnix()
|
||||||
assertEqual(t, v.String(), v.String())
|
tst.AssertEqual(t, v.String(), v.String())
|
||||||
|
|
||||||
v = NowUnixMilli()
|
v = NowUnixMilli()
|
||||||
assertEqual(t, v.String(), v.String())
|
tst.AssertEqual(t, v.String(), v.String())
|
||||||
|
|
||||||
v = NowUnixNano()
|
v = NowUnixNano()
|
||||||
assertEqual(t, v.String(), v.String())
|
tst.AssertEqual(t, v.String(), v.String())
|
||||||
|
|
||||||
}
|
}
|
||||||
|
@@ -5,7 +5,10 @@ import (
|
|||||||
"errors"
|
"errors"
|
||||||
"fmt"
|
"fmt"
|
||||||
"go.mongodb.org/mongo-driver/bson"
|
"go.mongodb.org/mongo-driver/bson"
|
||||||
|
"go.mongodb.org/mongo-driver/bson/bsoncodec"
|
||||||
|
"go.mongodb.org/mongo-driver/bson/bsonrw"
|
||||||
"go.mongodb.org/mongo-driver/bson/bsontype"
|
"go.mongodb.org/mongo-driver/bson/bsontype"
|
||||||
|
"reflect"
|
||||||
"time"
|
"time"
|
||||||
)
|
)
|
||||||
|
|
||||||
@@ -66,11 +69,19 @@ func (t *RFC3339Time) UnmarshalText(data []byte) error {
|
|||||||
}
|
}
|
||||||
|
|
||||||
func (t *RFC3339Time) UnmarshalBSONValue(bt bsontype.Type, data []byte) error {
|
func (t *RFC3339Time) UnmarshalBSONValue(bt bsontype.Type, data []byte) error {
|
||||||
|
if bt == bsontype.Null {
|
||||||
|
// we can't set nil in UnmarshalBSONValue (so we use default(struct))
|
||||||
|
// Use mongoext.CreateGoExtBsonRegistry if you need to unmarsh pointer values
|
||||||
|
// https://stackoverflow.com/questions/75167597
|
||||||
|
// https://jira.mongodb.org/browse/GODRIVER-2252
|
||||||
|
*t = RFC3339Time{}
|
||||||
|
return nil
|
||||||
|
}
|
||||||
if bt != bsontype.DateTime {
|
if bt != bsontype.DateTime {
|
||||||
return errors.New(fmt.Sprintf("cannot unmarshal %v into RFC3339Time", bt))
|
return errors.New(fmt.Sprintf("cannot unmarshal %v into RFC3339Time", bt))
|
||||||
}
|
}
|
||||||
var tt time.Time
|
var tt time.Time
|
||||||
err := bson.Unmarshal(data, &tt)
|
err := bson.RawValue{Type: bt, Value: data}.Unmarshal(&tt)
|
||||||
if err != nil {
|
if err != nil {
|
||||||
return err
|
return err
|
||||||
}
|
}
|
||||||
@@ -82,6 +93,38 @@ func (t RFC3339Time) MarshalBSONValue() (bsontype.Type, []byte, error) {
|
|||||||
return bson.MarshalValue(time.Time(t))
|
return bson.MarshalValue(time.Time(t))
|
||||||
}
|
}
|
||||||
|
|
||||||
|
func (t RFC3339Time) DecodeValue(dc bsoncodec.DecodeContext, vr bsonrw.ValueReader, val reflect.Value) error {
|
||||||
|
if val.Kind() == reflect.Ptr && val.IsNil() {
|
||||||
|
if !val.CanSet() {
|
||||||
|
return errors.New("ValueUnmarshalerDecodeValue")
|
||||||
|
}
|
||||||
|
val.Set(reflect.New(val.Type().Elem()))
|
||||||
|
}
|
||||||
|
|
||||||
|
tp, src, err := bsonrw.Copier{}.CopyValueToBytes(vr)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
|
||||||
|
if val.Kind() == reflect.Ptr && len(src) == 0 {
|
||||||
|
val.Set(reflect.Zero(val.Type()))
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
|
err = t.UnmarshalBSONValue(tp, src)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
|
||||||
|
if val.Kind() == reflect.Ptr {
|
||||||
|
val.Set(reflect.ValueOf(&t))
|
||||||
|
} else {
|
||||||
|
val.Set(reflect.ValueOf(t))
|
||||||
|
}
|
||||||
|
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
func (t RFC3339Time) Serialize() string {
|
func (t RFC3339Time) Serialize() string {
|
||||||
return t.Time().Format(t.FormatStr())
|
return t.Time().Format(t.FormatStr())
|
||||||
}
|
}
|
||||||
|
@@ -5,7 +5,10 @@ import (
|
|||||||
"errors"
|
"errors"
|
||||||
"fmt"
|
"fmt"
|
||||||
"go.mongodb.org/mongo-driver/bson"
|
"go.mongodb.org/mongo-driver/bson"
|
||||||
|
"go.mongodb.org/mongo-driver/bson/bsoncodec"
|
||||||
|
"go.mongodb.org/mongo-driver/bson/bsonrw"
|
||||||
"go.mongodb.org/mongo-driver/bson/bsontype"
|
"go.mongodb.org/mongo-driver/bson/bsontype"
|
||||||
|
"reflect"
|
||||||
"time"
|
"time"
|
||||||
)
|
)
|
||||||
|
|
||||||
@@ -66,6 +69,14 @@ func (t *RFC3339NanoTime) UnmarshalText(data []byte) error {
|
|||||||
}
|
}
|
||||||
|
|
||||||
func (t *RFC3339NanoTime) UnmarshalBSONValue(bt bsontype.Type, data []byte) error {
|
func (t *RFC3339NanoTime) UnmarshalBSONValue(bt bsontype.Type, data []byte) error {
|
||||||
|
if bt == bsontype.Null {
|
||||||
|
// we can't set nil in UnmarshalBSONValue (so we use default(struct))
|
||||||
|
// Use mongoext.CreateGoExtBsonRegistry if you need to unmarsh pointer values
|
||||||
|
// https://stackoverflow.com/questions/75167597
|
||||||
|
// https://jira.mongodb.org/browse/GODRIVER-2252
|
||||||
|
*t = RFC3339NanoTime{}
|
||||||
|
return nil
|
||||||
|
}
|
||||||
if bt != bsontype.DateTime {
|
if bt != bsontype.DateTime {
|
||||||
return errors.New(fmt.Sprintf("cannot unmarshal %v into RFC3339NanoTime", bt))
|
return errors.New(fmt.Sprintf("cannot unmarshal %v into RFC3339NanoTime", bt))
|
||||||
}
|
}
|
||||||
@@ -82,6 +93,38 @@ func (t RFC3339NanoTime) MarshalBSONValue() (bsontype.Type, []byte, error) {
|
|||||||
return bson.MarshalValue(time.Time(t))
|
return bson.MarshalValue(time.Time(t))
|
||||||
}
|
}
|
||||||
|
|
||||||
|
func (t RFC3339NanoTime) DecodeValue(dc bsoncodec.DecodeContext, vr bsonrw.ValueReader, val reflect.Value) error {
|
||||||
|
if val.Kind() == reflect.Ptr && val.IsNil() {
|
||||||
|
if !val.CanSet() {
|
||||||
|
return errors.New("ValueUnmarshalerDecodeValue")
|
||||||
|
}
|
||||||
|
val.Set(reflect.New(val.Type().Elem()))
|
||||||
|
}
|
||||||
|
|
||||||
|
tp, src, err := bsonrw.Copier{}.CopyValueToBytes(vr)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
|
||||||
|
if val.Kind() == reflect.Ptr && len(src) == 0 {
|
||||||
|
val.Set(reflect.Zero(val.Type()))
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
|
err = t.UnmarshalBSONValue(tp, src)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
|
||||||
|
if val.Kind() == reflect.Ptr {
|
||||||
|
val.Set(reflect.ValueOf(&t))
|
||||||
|
} else {
|
||||||
|
val.Set(reflect.ValueOf(t))
|
||||||
|
}
|
||||||
|
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
func (t RFC3339NanoTime) Serialize() string {
|
func (t RFC3339NanoTime) Serialize() string {
|
||||||
return t.Time().Format(t.FormatStr())
|
return t.Time().Format(t.FormatStr())
|
||||||
}
|
}
|
||||||
|
@@ -2,6 +2,7 @@ package rfctime
|
|||||||
|
|
||||||
import (
|
import (
|
||||||
"encoding/json"
|
"encoding/json"
|
||||||
|
"gogs.mikescher.com/BlackForestBytes/goext/tst"
|
||||||
"testing"
|
"testing"
|
||||||
"time"
|
"time"
|
||||||
)
|
)
|
||||||
@@ -37,16 +38,10 @@ func TestRoundtrip(t *testing.T) {
|
|||||||
panic(err)
|
panic(err)
|
||||||
}
|
}
|
||||||
|
|
||||||
assertEqual(t, string(jstr1), string(jstr2))
|
tst.AssertEqual(t, string(jstr1), string(jstr2))
|
||||||
|
|
||||||
if !w1.Value.Equal(&w2.Value) {
|
if !w1.Value.Equal(&w2.Value) {
|
||||||
t.Errorf("time differs")
|
t.Errorf("time differs")
|
||||||
}
|
}
|
||||||
|
|
||||||
}
|
}
|
||||||
|
|
||||||
func assertEqual(t *testing.T, actual string, expected string) {
|
|
||||||
if actual != expected {
|
|
||||||
t.Errorf("values differ: Actual: '%v', Expected: '%v'", actual, expected)
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
91
sq/converter.go
Normal file
91
sq/converter.go
Normal file
@@ -0,0 +1,91 @@
|
|||||||
|
package sq
|
||||||
|
|
||||||
|
import (
|
||||||
|
"errors"
|
||||||
|
"fmt"
|
||||||
|
"gogs.mikescher.com/BlackForestBytes/goext/langext"
|
||||||
|
"time"
|
||||||
|
)
|
||||||
|
|
||||||
|
//TODO UNFINISHED
|
||||||
|
// this is not finished
|
||||||
|
// idea was that we can register converter in the database struct
|
||||||
|
// they get inherited from the transactions
|
||||||
|
// and when marshallingunmarshaling (sq.Query | sq.QueryAll)
|
||||||
|
// or marshaling (sq.InsertSingle)
|
||||||
|
// the types get converter automatically...
|
||||||
|
|
||||||
|
type DBTypeConverter interface {
|
||||||
|
ModelTypeString() string
|
||||||
|
DBTypeString() string
|
||||||
|
ModelToDB(v any) (any, error)
|
||||||
|
DBToModel(v any) (any, error)
|
||||||
|
}
|
||||||
|
|
||||||
|
var ConverterBoolToBit = NewDBTypeConverter[bool, int](func(v bool) (int, error) {
|
||||||
|
return langext.Conditional(v, 1, 0), nil
|
||||||
|
}, func(v int) (bool, error) {
|
||||||
|
if v == 0 {
|
||||||
|
return false, nil
|
||||||
|
}
|
||||||
|
if v == 1 {
|
||||||
|
return true, nil
|
||||||
|
}
|
||||||
|
return false, errors.New(fmt.Sprintf("invalid valud for boolean: '%d'", v))
|
||||||
|
})
|
||||||
|
|
||||||
|
var ConverterTimeToUnixMillis = NewDBTypeConverter[time.Time, int64](func(v time.Time) (int64, error) {
|
||||||
|
return v.UnixMilli(), nil
|
||||||
|
}, func(v int64) (time.Time, error) {
|
||||||
|
return time.UnixMilli(v), nil
|
||||||
|
})
|
||||||
|
|
||||||
|
var ConverterOptTimeToUnixMillis = NewDBTypeConverter[*time.Time, *int64](func(v *time.Time) (*int64, error) {
|
||||||
|
if v == nil {
|
||||||
|
return nil, nil
|
||||||
|
}
|
||||||
|
return langext.Ptr(v.UnixMilli()), nil
|
||||||
|
}, func(v *int64) (*time.Time, error) {
|
||||||
|
if v == nil {
|
||||||
|
return nil, nil
|
||||||
|
}
|
||||||
|
return langext.Ptr(time.UnixMilli(*v)), nil
|
||||||
|
})
|
||||||
|
|
||||||
|
type dbTypeConverterImpl[TModelData any, TDBData any] struct {
|
||||||
|
dbTypeString string
|
||||||
|
modelTypeString string
|
||||||
|
todb func(v TModelData) (TDBData, error)
|
||||||
|
tomodel func(v TDBData) (TModelData, error)
|
||||||
|
}
|
||||||
|
|
||||||
|
func (t *dbTypeConverterImpl[TModelData, TDBData]) ModelTypeString() string {
|
||||||
|
return t.modelTypeString
|
||||||
|
}
|
||||||
|
|
||||||
|
func (t *dbTypeConverterImpl[TModelData, TDBData]) DBTypeString() string {
|
||||||
|
return t.dbTypeString
|
||||||
|
}
|
||||||
|
|
||||||
|
func (t *dbTypeConverterImpl[TModelData, TDBData]) ModelToDB(v any) (any, error) {
|
||||||
|
if vv, ok := v.(TModelData); ok {
|
||||||
|
return t.todb(vv)
|
||||||
|
}
|
||||||
|
return nil, errors.New(fmt.Sprintf("Unexpected value in DBTypeConverter, expected '%s', found '%T'", t.modelTypeString, v))
|
||||||
|
}
|
||||||
|
|
||||||
|
func (t *dbTypeConverterImpl[TModelData, TDBData]) DBToModel(v any) (any, error) {
|
||||||
|
if vv, ok := v.(TDBData); ok {
|
||||||
|
return t.tomodel(vv)
|
||||||
|
}
|
||||||
|
return nil, errors.New(fmt.Sprintf("Unexpected value in DBTypeConverter, expected '%s', found '%T'", t.dbTypeString, v))
|
||||||
|
}
|
||||||
|
|
||||||
|
func NewDBTypeConverter[TModelData any, TDBData any](todb func(v TModelData) (TDBData, error), tomodel func(v TDBData) (TModelData, error)) DBTypeConverter {
|
||||||
|
return &dbTypeConverterImpl[TModelData, TDBData]{
|
||||||
|
dbTypeString: fmt.Sprintf("%T", *new(TDBData)),
|
||||||
|
modelTypeString: fmt.Sprintf("%T", *new(TModelData)),
|
||||||
|
todb: todb,
|
||||||
|
tomodel: tomodel,
|
||||||
|
}
|
||||||
|
}
|
199
sq/hasher.go
Normal file
199
sq/hasher.go
Normal file
@@ -0,0 +1,199 @@
|
|||||||
|
package sq
|
||||||
|
|
||||||
|
import (
|
||||||
|
"context"
|
||||||
|
"crypto/sha256"
|
||||||
|
"encoding/hex"
|
||||||
|
"encoding/json"
|
||||||
|
"fmt"
|
||||||
|
"github.com/jmoiron/sqlx"
|
||||||
|
"gogs.mikescher.com/BlackForestBytes/goext/langext"
|
||||||
|
"os"
|
||||||
|
"path/filepath"
|
||||||
|
"strings"
|
||||||
|
)
|
||||||
|
|
||||||
|
func HashSqliteSchema(ctx context.Context, schemaStr string) (string, error) {
|
||||||
|
dbdir := os.TempDir()
|
||||||
|
dbfile1 := filepath.Join(dbdir, langext.MustHexUUID()+".sqlite3")
|
||||||
|
|
||||||
|
err := os.MkdirAll(dbdir, os.ModePerm)
|
||||||
|
if err != nil {
|
||||||
|
return "", err
|
||||||
|
}
|
||||||
|
|
||||||
|
url := fmt.Sprintf("file:%s?_journal=%s&_timeout=%d&_fk=%s&_busy_timeout=%d", dbfile1, "DELETE", 1000, "true", 1000)
|
||||||
|
|
||||||
|
xdb, err := sqlx.Open("sqlite3", url)
|
||||||
|
if err != nil {
|
||||||
|
return "", err
|
||||||
|
}
|
||||||
|
|
||||||
|
db := NewDB(xdb)
|
||||||
|
|
||||||
|
_, err = db.Exec(ctx, schemaStr, PP{})
|
||||||
|
if err != nil {
|
||||||
|
return "", err
|
||||||
|
}
|
||||||
|
|
||||||
|
return HashSqliteDatabase(ctx, db)
|
||||||
|
}
|
||||||
|
|
||||||
|
func HashSqliteDatabase(ctx context.Context, db DB) (string, error) {
|
||||||
|
ss, err := CreateSqliteDatabaseSchemaString(ctx, db)
|
||||||
|
if err != nil {
|
||||||
|
return "", err
|
||||||
|
}
|
||||||
|
|
||||||
|
cs := sha256.Sum256([]byte(ss))
|
||||||
|
|
||||||
|
return hex.EncodeToString(cs[:]), nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func CreateSqliteDatabaseSchemaString(ctx context.Context, db DB) (string, error) {
|
||||||
|
|
||||||
|
type colInfo struct {
|
||||||
|
Name string `db:"name"`
|
||||||
|
Type string `db:"type"`
|
||||||
|
NotNull string `db:"notnull"`
|
||||||
|
Default *string `db:"dflt_value"`
|
||||||
|
PrimaryKey *string `db:"pk"`
|
||||||
|
}
|
||||||
|
|
||||||
|
type idxInfo struct {
|
||||||
|
Name string `json:"name" db:"name"`
|
||||||
|
Unique int `json:"unique" db:"unique"`
|
||||||
|
Origin string `json:"origin" db:"origin"`
|
||||||
|
Patial int `json:"partial" db:"partial"`
|
||||||
|
}
|
||||||
|
|
||||||
|
type fkyInfo struct {
|
||||||
|
TableDest string `json:"table_dest" db:"table"`
|
||||||
|
From string `json:"from" db:"from"`
|
||||||
|
To string `json:"to" db:"to"`
|
||||||
|
OnUpdate string `json:"on_update" db:"on_update"`
|
||||||
|
OnDelete string `json:"on_delete" db:"on_delete"`
|
||||||
|
Match string `json:"match" db:"match"`
|
||||||
|
}
|
||||||
|
|
||||||
|
type tabInfo struct {
|
||||||
|
Name string `json:"name" db:"name"`
|
||||||
|
Type string `json:"type" db:"type"`
|
||||||
|
NumCol int `json:"ncol" db:"ncol"`
|
||||||
|
Strict int `json:"strict" db:"strict"`
|
||||||
|
|
||||||
|
ColumnInfo []colInfo `json:"-"`
|
||||||
|
IndexInfo []idxInfo `json:"-"`
|
||||||
|
FKeyInfo []fkyInfo `json:"-"`
|
||||||
|
}
|
||||||
|
|
||||||
|
rowsTableList, err := db.Query(ctx, "PRAGMA table_list;", PP{})
|
||||||
|
if err != nil {
|
||||||
|
return "", err
|
||||||
|
}
|
||||||
|
tableList, err := ScanAll[tabInfo](rowsTableList, SModeFast, Unsafe, true)
|
||||||
|
if err != nil {
|
||||||
|
return "", err
|
||||||
|
}
|
||||||
|
|
||||||
|
langext.SortBy(tableList, func(v tabInfo) string { return v.Name })
|
||||||
|
|
||||||
|
result := make([]tabInfo, 0)
|
||||||
|
|
||||||
|
for i, tab := range tableList {
|
||||||
|
|
||||||
|
if strings.HasPrefix(tab.Name, "sqlite_") {
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
|
||||||
|
{
|
||||||
|
|
||||||
|
rowsColumnList, err := db.Query(ctx, fmt.Sprintf("PRAGMA table_info(\"%s\");", tab.Name), PP{})
|
||||||
|
if err != nil {
|
||||||
|
return "", err
|
||||||
|
}
|
||||||
|
|
||||||
|
columnList, err := ScanAll[colInfo](rowsColumnList, SModeFast, Unsafe, true)
|
||||||
|
if err != nil {
|
||||||
|
return "", err
|
||||||
|
}
|
||||||
|
|
||||||
|
langext.SortBy(columnList, func(v colInfo) string { return v.Name })
|
||||||
|
|
||||||
|
tableList[i].ColumnInfo = columnList
|
||||||
|
}
|
||||||
|
|
||||||
|
{
|
||||||
|
rowsIdxList, err := db.Query(ctx, fmt.Sprintf("PRAGMA index_list(\"%s\");", tab.Name), PP{})
|
||||||
|
if err != nil {
|
||||||
|
return "", err
|
||||||
|
}
|
||||||
|
idxList, err := ScanAll[idxInfo](rowsIdxList, SModeFast, Unsafe, true)
|
||||||
|
if err != nil {
|
||||||
|
return "", err
|
||||||
|
}
|
||||||
|
|
||||||
|
langext.SortBy(idxList, func(v idxInfo) string { return v.Name })
|
||||||
|
|
||||||
|
tableList[i].IndexInfo = idxList
|
||||||
|
}
|
||||||
|
|
||||||
|
{
|
||||||
|
rowsIdxList, err := db.Query(ctx, fmt.Sprintf("PRAGMA foreign_key_list(\"%s\");", tab.Name), PP{})
|
||||||
|
if err != nil {
|
||||||
|
return "", err
|
||||||
|
}
|
||||||
|
fkyList, err := ScanAll[fkyInfo](rowsIdxList, SModeFast, Unsafe, true)
|
||||||
|
if err != nil {
|
||||||
|
return "", err
|
||||||
|
}
|
||||||
|
|
||||||
|
langext.SortBy(fkyList, func(v fkyInfo) string { return v.From })
|
||||||
|
|
||||||
|
tableList[i].FKeyInfo = fkyList
|
||||||
|
}
|
||||||
|
|
||||||
|
result = append(result, tableList[i])
|
||||||
|
}
|
||||||
|
|
||||||
|
strBuilderResult := ""
|
||||||
|
for _, vTab := range result {
|
||||||
|
jbinTable, err := json.Marshal(vTab)
|
||||||
|
if err != nil {
|
||||||
|
return "", err
|
||||||
|
}
|
||||||
|
|
||||||
|
strBuilderResult += fmt.Sprintf("#TABLE: %s\n{\n", string(jbinTable))
|
||||||
|
|
||||||
|
for _, vCol := range vTab.ColumnInfo {
|
||||||
|
jbinColumn, err := json.Marshal(vCol)
|
||||||
|
if err != nil {
|
||||||
|
return "", err
|
||||||
|
}
|
||||||
|
|
||||||
|
strBuilderResult += fmt.Sprintf(" COLUMN: %s\n", string(jbinColumn))
|
||||||
|
}
|
||||||
|
|
||||||
|
for _, vIdx := range vTab.IndexInfo {
|
||||||
|
jbinIndex, err := json.Marshal(vIdx)
|
||||||
|
if err != nil {
|
||||||
|
return "", err
|
||||||
|
}
|
||||||
|
|
||||||
|
strBuilderResult += fmt.Sprintf(" INDEX: %s\n", string(jbinIndex))
|
||||||
|
}
|
||||||
|
|
||||||
|
for _, vFky := range vTab.FKeyInfo {
|
||||||
|
jbinFKey, err := json.Marshal(vFky)
|
||||||
|
if err != nil {
|
||||||
|
return "", err
|
||||||
|
}
|
||||||
|
|
||||||
|
strBuilderResult += fmt.Sprintf(" FKEY: %s\n", string(jbinFKey))
|
||||||
|
}
|
||||||
|
|
||||||
|
strBuilderResult += "}\n\n"
|
||||||
|
}
|
||||||
|
|
||||||
|
return strBuilderResult, nil
|
||||||
|
}
|
@@ -1,9 +1,13 @@
|
|||||||
package sq
|
package sq
|
||||||
|
|
||||||
import (
|
import (
|
||||||
|
"context"
|
||||||
"database/sql"
|
"database/sql"
|
||||||
"errors"
|
"errors"
|
||||||
|
"fmt"
|
||||||
"github.com/jmoiron/sqlx"
|
"github.com/jmoiron/sqlx"
|
||||||
|
"reflect"
|
||||||
|
"strings"
|
||||||
)
|
)
|
||||||
|
|
||||||
type StructScanMode string
|
type StructScanMode string
|
||||||
@@ -16,10 +20,79 @@ const (
|
|||||||
type StructScanSafety string
|
type StructScanSafety string
|
||||||
|
|
||||||
const (
|
const (
|
||||||
Safe StructScanSafety = "SAFE"
|
Safe StructScanSafety = "SAFE" // return error for missing fields
|
||||||
Unsafe StructScanSafety = "UNSAFE"
|
Unsafe StructScanSafety = "UNSAFE" // ignore missing fields
|
||||||
)
|
)
|
||||||
|
|
||||||
|
func InsertSingle[TData any](ctx context.Context, q Queryable, tableName string, v TData) (sql.Result, error) {
|
||||||
|
|
||||||
|
rval := reflect.ValueOf(v)
|
||||||
|
rtyp := rval.Type()
|
||||||
|
|
||||||
|
columns := make([]string, 0)
|
||||||
|
params := make([]string, 0)
|
||||||
|
pp := PP{}
|
||||||
|
|
||||||
|
for i := 0; i < rtyp.NumField(); i++ {
|
||||||
|
|
||||||
|
rsfield := rtyp.Field(i)
|
||||||
|
rvfield := rval.Field(i)
|
||||||
|
|
||||||
|
if !rsfield.IsExported() {
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
|
||||||
|
columnName := rsfield.Tag.Get("db")
|
||||||
|
if columnName == "" || columnName == "-" {
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
|
||||||
|
paramkey := fmt.Sprintf("_%s", columnName)
|
||||||
|
|
||||||
|
columns = append(columns, "\""+columnName+"\"")
|
||||||
|
params = append(params, ":"+paramkey)
|
||||||
|
pp[paramkey] = rvfield.Interface()
|
||||||
|
|
||||||
|
}
|
||||||
|
|
||||||
|
sqlstr := fmt.Sprintf("INSERT"+" INTO \"%s\" (%s) VALUES (%s)", tableName, strings.Join(columns, ", "), strings.Join(params, ", "))
|
||||||
|
|
||||||
|
sqlr, err := q.Exec(ctx, sqlstr, pp)
|
||||||
|
if err != nil {
|
||||||
|
return nil, err
|
||||||
|
}
|
||||||
|
|
||||||
|
return sqlr, nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func QuerySingle[TData any](ctx context.Context, q Queryable, sql string, pp PP, mode StructScanMode, sec StructScanSafety) (TData, error) {
|
||||||
|
rows, err := q.Query(ctx, sql, pp)
|
||||||
|
if err != nil {
|
||||||
|
return *new(TData), err
|
||||||
|
}
|
||||||
|
|
||||||
|
data, err := ScanSingle[TData](rows, mode, sec, true)
|
||||||
|
if err != nil {
|
||||||
|
return *new(TData), err
|
||||||
|
}
|
||||||
|
|
||||||
|
return data, nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func QueryAll[TData any](ctx context.Context, q Queryable, sql string, pp PP, mode StructScanMode, sec StructScanSafety) ([]TData, error) {
|
||||||
|
rows, err := q.Query(ctx, sql, pp)
|
||||||
|
if err != nil {
|
||||||
|
return nil, err
|
||||||
|
}
|
||||||
|
|
||||||
|
data, err := ScanAll[TData](rows, mode, sec, true)
|
||||||
|
if err != nil {
|
||||||
|
return nil, err
|
||||||
|
}
|
||||||
|
|
||||||
|
return data, nil
|
||||||
|
}
|
||||||
|
|
||||||
func ScanSingle[TData any](rows *sqlx.Rows, mode StructScanMode, sec StructScanSafety, close bool) (TData, error) {
|
func ScanSingle[TData any](rows *sqlx.Rows, mode StructScanMode, sec StructScanSafety, close bool) (TData, error) {
|
||||||
if rows.Next() {
|
if rows.Next() {
|
||||||
var strscan *StructScanner
|
var strscan *StructScanner
|
||||||
|
@@ -14,26 +14,26 @@ func TestSupportsColors(t *testing.T) {
|
|||||||
}
|
}
|
||||||
|
|
||||||
func TestColor(t *testing.T) {
|
func TestColor(t *testing.T) {
|
||||||
assertEqual(t, Red("test"), "\033[31mtest\u001B[0m")
|
tst.AssertEqual(t, Red("test"), "\033[31mtest\u001B[0m")
|
||||||
assertEqual(t, Green("test"), "\033[32mtest\u001B[0m")
|
tst.AssertEqual(t, Green("test"), "\033[32mtest\u001B[0m")
|
||||||
assertEqual(t, Yellow("test"), "\033[33mtest\u001B[0m")
|
tst.AssertEqual(t, Yellow("test"), "\033[33mtest\u001B[0m")
|
||||||
assertEqual(t, Blue("test"), "\033[34mtest\u001B[0m")
|
tst.AssertEqual(t, Blue("test"), "\033[34mtest\u001B[0m")
|
||||||
assertEqual(t, Purple("test"), "\033[35mtest\u001B[0m")
|
tst.AssertEqual(t, Purple("test"), "\033[35mtest\u001B[0m")
|
||||||
assertEqual(t, Cyan("test"), "\033[36mtest\u001B[0m")
|
tst.AssertEqual(t, Cyan("test"), "\033[36mtest\u001B[0m")
|
||||||
assertEqual(t, Gray("test"), "\033[37mtest\u001B[0m")
|
tst.AssertEqual(t, Gray("test"), "\033[37mtest\u001B[0m")
|
||||||
assertEqual(t, White("test"), "\033[97mtest\u001B[0m")
|
tst.AssertEqual(t, White("test"), "\033[97mtest\u001B[0m")
|
||||||
|
|
||||||
assertEqual(t, CleanString(Red("test")), "test")
|
tst.AssertEqual(t, CleanString(Red("test")), "test")
|
||||||
assertEqual(t, CleanString(Green("test")), "test")
|
tst.AssertEqual(t, CleanString(Green("test")), "test")
|
||||||
assertEqual(t, CleanString(Yellow("test")), "test")
|
tst.AssertEqual(t, CleanString(Yellow("test")), "test")
|
||||||
assertEqual(t, CleanString(Blue("test")), "test")
|
tst.AssertEqual(t, CleanString(Blue("test")), "test")
|
||||||
assertEqual(t, CleanString(Purple("test")), "test")
|
tst.AssertEqual(t, CleanString(Purple("test")), "test")
|
||||||
assertEqual(t, CleanString(Cyan("test")), "test")
|
tst.AssertEqual(t, CleanString(Cyan("test")), "test")
|
||||||
assertEqual(t, CleanString(Gray("test")), "test")
|
tst.AssertEqual(t, CleanString(Gray("test")), "test")
|
||||||
assertEqual(t, CleanString(White("test")), "test")
|
tst.AssertEqual(t, CleanString(White("test")), "test")
|
||||||
}
|
}
|
||||||
|
|
||||||
func assertEqual(t *testing.T, actual string, expected string) {
|
func tst.AssertEqual(t *testing.T, actual string, expected string) {
|
||||||
if actual != expected {
|
if actual != expected {
|
||||||
t.Errorf("values differ: Actual: '%v', Expected: '%v'", actual, expected)
|
t.Errorf("values differ: Actual: '%v', Expected: '%v'", actual, expected)
|
||||||
}
|
}
|
||||||
|
@@ -7,56 +7,56 @@ import (
|
|||||||
|
|
||||||
func TestParseDurationShortString(t *testing.T) {
|
func TestParseDurationShortString(t *testing.T) {
|
||||||
|
|
||||||
assertPDSSEqual(t, FromSeconds(1), "1s")
|
tst.AssertPDSSEqual(t, FromSeconds(1), "1s")
|
||||||
assertPDSSEqual(t, FromSeconds(1), "1sec")
|
tst.AssertPDSSEqual(t, FromSeconds(1), "1sec")
|
||||||
assertPDSSEqual(t, FromSeconds(1), "1second")
|
tst.AssertPDSSEqual(t, FromSeconds(1), "1second")
|
||||||
assertPDSSEqual(t, FromSeconds(1), "1seconds")
|
tst.AssertPDSSEqual(t, FromSeconds(1), "1seconds")
|
||||||
assertPDSSEqual(t, FromSeconds(100), "100second")
|
tst.AssertPDSSEqual(t, FromSeconds(100), "100second")
|
||||||
assertPDSSEqual(t, FromSeconds(100), "100seconds")
|
tst.AssertPDSSEqual(t, FromSeconds(100), "100seconds")
|
||||||
assertPDSSEqual(t, FromSeconds(1883639.77), "1883639.77second")
|
tst.AssertPDSSEqual(t, FromSeconds(1883639.77), "1883639.77second")
|
||||||
assertPDSSEqual(t, FromSeconds(1883639.77), "1883639.77seconds")
|
tst.AssertPDSSEqual(t, FromSeconds(1883639.77), "1883639.77seconds")
|
||||||
assertPDSSEqual(t, FromSeconds(50), "50s")
|
tst.AssertPDSSEqual(t, FromSeconds(50), "50s")
|
||||||
assertPDSSEqual(t, FromSeconds(50), "50sec")
|
tst.AssertPDSSEqual(t, FromSeconds(50), "50sec")
|
||||||
assertPDSSEqual(t, FromSeconds(1), "1second")
|
tst.AssertPDSSEqual(t, FromSeconds(1), "1second")
|
||||||
assertPDSSEqual(t, FromSeconds(50), "50seconds")
|
tst.AssertPDSSEqual(t, FromSeconds(50), "50seconds")
|
||||||
|
|
||||||
assertPDSSEqual(t, FromMinutes(10), "10m")
|
tst.AssertPDSSEqual(t, FromMinutes(10), "10m")
|
||||||
assertPDSSEqual(t, FromMinutes(10), "10min")
|
tst.AssertPDSSEqual(t, FromMinutes(10), "10min")
|
||||||
assertPDSSEqual(t, FromMinutes(1), "1minute")
|
tst.AssertPDSSEqual(t, FromMinutes(1), "1minute")
|
||||||
assertPDSSEqual(t, FromMinutes(10), "10minutes")
|
tst.AssertPDSSEqual(t, FromMinutes(10), "10minutes")
|
||||||
assertPDSSEqual(t, FromMinutes(10.5), "10.5minutes")
|
tst.AssertPDSSEqual(t, FromMinutes(10.5), "10.5minutes")
|
||||||
|
|
||||||
assertPDSSEqual(t, FromMilliseconds(100), "100ms")
|
tst.AssertPDSSEqual(t, FromMilliseconds(100), "100ms")
|
||||||
assertPDSSEqual(t, FromMilliseconds(100), "100milliseconds")
|
tst.AssertPDSSEqual(t, FromMilliseconds(100), "100milliseconds")
|
||||||
assertPDSSEqual(t, FromMilliseconds(100), "100millisecond")
|
tst.AssertPDSSEqual(t, FromMilliseconds(100), "100millisecond")
|
||||||
|
|
||||||
assertPDSSEqual(t, FromNanoseconds(99235), "99235ns")
|
tst.AssertPDSSEqual(t, FromNanoseconds(99235), "99235ns")
|
||||||
assertPDSSEqual(t, FromNanoseconds(99235), "99235nanoseconds")
|
tst.AssertPDSSEqual(t, FromNanoseconds(99235), "99235nanoseconds")
|
||||||
assertPDSSEqual(t, FromNanoseconds(99235), "99235nanosecond")
|
tst.AssertPDSSEqual(t, FromNanoseconds(99235), "99235nanosecond")
|
||||||
|
|
||||||
assertPDSSEqual(t, FromMicroseconds(99235), "99235us")
|
tst.AssertPDSSEqual(t, FromMicroseconds(99235), "99235us")
|
||||||
assertPDSSEqual(t, FromMicroseconds(99235), "99235microseconds")
|
tst.AssertPDSSEqual(t, FromMicroseconds(99235), "99235microseconds")
|
||||||
assertPDSSEqual(t, FromMicroseconds(99235), "99235microsecond")
|
tst.AssertPDSSEqual(t, FromMicroseconds(99235), "99235microsecond")
|
||||||
|
|
||||||
assertPDSSEqual(t, FromHours(1), "1h")
|
tst.AssertPDSSEqual(t, FromHours(1), "1h")
|
||||||
assertPDSSEqual(t, FromHours(1), "1hour")
|
tst.AssertPDSSEqual(t, FromHours(1), "1hour")
|
||||||
assertPDSSEqual(t, FromHours(2), "2hours")
|
tst.AssertPDSSEqual(t, FromHours(2), "2hours")
|
||||||
|
|
||||||
assertPDSSEqual(t, FromDays(1), "1d")
|
tst.AssertPDSSEqual(t, FromDays(1), "1d")
|
||||||
assertPDSSEqual(t, FromDays(1), "1day")
|
tst.AssertPDSSEqual(t, FromDays(1), "1day")
|
||||||
assertPDSSEqual(t, FromDays(10), "10days")
|
tst.AssertPDSSEqual(t, FromDays(10), "10days")
|
||||||
assertPDSSEqual(t, FromDays(1), "1days")
|
tst.AssertPDSSEqual(t, FromDays(1), "1days")
|
||||||
assertPDSSEqual(t, FromDays(10), "10day")
|
tst.AssertPDSSEqual(t, FromDays(10), "10day")
|
||||||
|
|
||||||
assertPDSSEqual(t, FromDays(1)+FromMinutes(10), "1d10m")
|
tst.AssertPDSSEqual(t, FromDays(1)+FromMinutes(10), "1d10m")
|
||||||
assertPDSSEqual(t, FromDays(1)+FromMinutes(10)+FromSeconds(200), "1d10m200sec")
|
tst.AssertPDSSEqual(t, FromDays(1)+FromMinutes(10)+FromSeconds(200), "1d10m200sec")
|
||||||
assertPDSSEqual(t, FromDays(1)+FromMinutes(10), "1d:10m")
|
tst.AssertPDSSEqual(t, FromDays(1)+FromMinutes(10), "1d:10m")
|
||||||
assertPDSSEqual(t, FromDays(1)+FromMinutes(10), "1d 10m")
|
tst.AssertPDSSEqual(t, FromDays(1)+FromMinutes(10), "1d 10m")
|
||||||
assertPDSSEqual(t, FromDays(1)+FromMinutes(10), "1d,10m")
|
tst.AssertPDSSEqual(t, FromDays(1)+FromMinutes(10), "1d,10m")
|
||||||
assertPDSSEqual(t, FromDays(1)+FromMinutes(10), "1d, 10m")
|
tst.AssertPDSSEqual(t, FromDays(1)+FromMinutes(10), "1d, 10m")
|
||||||
assertPDSSEqual(t, FromDays(1)+FromSeconds(1000), "1d 1000seconds")
|
tst.AssertPDSSEqual(t, FromDays(1)+FromSeconds(1000), "1d 1000seconds")
|
||||||
|
|
||||||
assertPDSSEqual(t, FromDays(1), "86400s")
|
tst.AssertPDSSEqual(t, FromDays(1), "86400s")
|
||||||
}
|
}
|
||||||
|
|
||||||
func assertPDSSEqual(t *testing.T, expected time.Duration, fmt string) {
|
func assertPDSSEqual(t *testing.T, expected time.Duration, fmt string) {
|
||||||
|
65
tst/assertions.go
Normal file
65
tst/assertions.go
Normal file
@@ -0,0 +1,65 @@
|
|||||||
|
package tst
|
||||||
|
|
||||||
|
import (
|
||||||
|
"encoding/hex"
|
||||||
|
"testing"
|
||||||
|
)
|
||||||
|
|
||||||
|
func AssertEqual[T comparable](t *testing.T, actual T, expected T) {
|
||||||
|
if actual != expected {
|
||||||
|
t.Errorf("values differ: Actual: '%v', Expected: '%v'", actual, expected)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
func AssertNotEqual[T comparable](t *testing.T, actual T, expected T) {
|
||||||
|
if actual == expected {
|
||||||
|
t.Errorf("values do not differ: Actual: '%v', Expected: '%v'", actual, expected)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
func AssertDeRefEqual[T comparable](t *testing.T, actual *T, expected T) {
|
||||||
|
if actual == nil {
|
||||||
|
t.Errorf("values differ: Actual: NIL, Expected: '%v'", expected)
|
||||||
|
}
|
||||||
|
if *actual != expected {
|
||||||
|
t.Errorf("values differ: Actual: '%v', Expected: '%v'", actual, expected)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
func AssertPtrEqual[T comparable](t *testing.T, actual *T, expected *T) {
|
||||||
|
if actual == nil && expected == nil {
|
||||||
|
return
|
||||||
|
}
|
||||||
|
if actual != nil && expected != nil {
|
||||||
|
if *actual != *expected {
|
||||||
|
t.Errorf("values differ: Actual: '%v', Expected: '%v'", *actual, *expected)
|
||||||
|
} else {
|
||||||
|
return
|
||||||
|
}
|
||||||
|
}
|
||||||
|
if actual == nil && expected != nil {
|
||||||
|
t.Errorf("values differ: Actual: nil, Expected: not-nil")
|
||||||
|
}
|
||||||
|
if actual != nil && expected == nil {
|
||||||
|
t.Errorf("values differ: Actual: not-nil, Expected: nil")
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
func AssertHexEqual(t *testing.T, expected string, actual []byte) {
|
||||||
|
actualStr := hex.EncodeToString(actual)
|
||||||
|
if actualStr != expected {
|
||||||
|
t.Errorf("values differ: Actual: '%v', Expected: '%v'", actualStr, expected)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
func AssertTrue(t *testing.T, value bool) {
|
||||||
|
if !value {
|
||||||
|
t.Error("value should be true")
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
func AssertFalse(t *testing.T, value bool) {
|
||||||
|
if value {
|
||||||
|
t.Error("value should be false")
|
||||||
|
}
|
||||||
|
}
|
48
tst/identAssertions.go
Normal file
48
tst/identAssertions.go
Normal file
@@ -0,0 +1,48 @@
|
|||||||
|
package tst
|
||||||
|
|
||||||
|
import (
|
||||||
|
"testing"
|
||||||
|
)
|
||||||
|
|
||||||
|
func AssertIdentEqual[T comparable](t *testing.T, ident string, actual T, expected T) {
|
||||||
|
if actual != expected {
|
||||||
|
t.Errorf("[%s] values differ: Actual: '%v', Expected: '%v'", ident, actual, expected)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
func AssertIdentNotEqual[T comparable](t *testing.T, ident string, actual T, expected T) {
|
||||||
|
if actual == expected {
|
||||||
|
t.Errorf("[%s] values do not differ: Actual: '%v', Expected: '%v'", ident, actual, expected)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
func AssertIdentPtrEqual[T comparable](t *testing.T, ident string, actual *T, expected *T) {
|
||||||
|
if actual == nil && expected == nil {
|
||||||
|
return
|
||||||
|
}
|
||||||
|
if actual != nil && expected != nil {
|
||||||
|
if *actual != *expected {
|
||||||
|
t.Errorf("[%s] values differ: Actual: '%v', Expected: '%v'", ident, *actual, *expected)
|
||||||
|
} else {
|
||||||
|
return
|
||||||
|
}
|
||||||
|
}
|
||||||
|
if actual == nil && expected != nil {
|
||||||
|
t.Errorf("[%s] values differ: Actual: nil, Expected: not-nil", ident)
|
||||||
|
}
|
||||||
|
if actual != nil && expected == nil {
|
||||||
|
t.Errorf("[%s] values differ: Actual: not-nil, Expected: nil", ident)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
func AssertIdentTrue(t *testing.T, ident string, value bool) {
|
||||||
|
if !value {
|
||||||
|
t.Errorf("[%s] value should be true", ident)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
func AssertIdentFalse(t *testing.T, ident string, value bool) {
|
||||||
|
if !value {
|
||||||
|
t.Errorf("[%s] value should be false", ident)
|
||||||
|
}
|
||||||
|
}
|
95
wmo/collection.go
Normal file
95
wmo/collection.go
Normal file
@@ -0,0 +1,95 @@
|
|||||||
|
package wmo
|
||||||
|
|
||||||
|
import (
|
||||||
|
"context"
|
||||||
|
"go.mongodb.org/mongo-driver/bson/bsontype"
|
||||||
|
"go.mongodb.org/mongo-driver/mongo"
|
||||||
|
ct "gogs.mikescher.com/BlackForestBytes/goext/cursortoken"
|
||||||
|
"gogs.mikescher.com/BlackForestBytes/goext/langext"
|
||||||
|
"reflect"
|
||||||
|
)
|
||||||
|
|
||||||
|
type EntityID interface {
|
||||||
|
MarshalBSONValue() (bsontype.Type, []byte, error)
|
||||||
|
String() string
|
||||||
|
}
|
||||||
|
|
||||||
|
type Decodable interface {
|
||||||
|
Decode(v any) error
|
||||||
|
}
|
||||||
|
|
||||||
|
type Cursorable interface {
|
||||||
|
Decode(v any) error
|
||||||
|
Err() error
|
||||||
|
Close(ctx context.Context) error
|
||||||
|
All(ctx context.Context, results any) error
|
||||||
|
RemainingBatchLength() int
|
||||||
|
Next(ctx context.Context) bool
|
||||||
|
}
|
||||||
|
|
||||||
|
type fullTypeRef struct {
|
||||||
|
IsPointer bool
|
||||||
|
Kind reflect.Kind
|
||||||
|
RealType reflect.Type
|
||||||
|
Type reflect.Type
|
||||||
|
UnderlyingType reflect.Type
|
||||||
|
Name string
|
||||||
|
Index []int
|
||||||
|
}
|
||||||
|
|
||||||
|
type Coll[TData any] struct {
|
||||||
|
coll *mongo.Collection // internal mongo collection, access via Collection()
|
||||||
|
dataTypeMap map[string]fullTypeRef // list of TData fields (only if TData is not an interface)
|
||||||
|
implDataTypeMap map[reflect.Type]map[string]fullTypeRef // dynamic list of fields of TData implementations (only if TData is an interface)
|
||||||
|
customDecoder *func(ctx context.Context, dec Decodable) (TData, error) // custom decoding function (useful if TData is an interface)
|
||||||
|
isInterfaceDataType bool // true if TData is an interface (not a struct)
|
||||||
|
}
|
||||||
|
|
||||||
|
func (c *Coll[TData]) Collection() *mongo.Collection {
|
||||||
|
return c.coll
|
||||||
|
}
|
||||||
|
|
||||||
|
func (c *Coll[TData]) Name() string {
|
||||||
|
return c.coll.Name()
|
||||||
|
}
|
||||||
|
|
||||||
|
func (c *Coll[TData]) WithDecodeFunc(cdf func(ctx context.Context, dec Decodable) (TData, error), example TData) *Coll[TData] {
|
||||||
|
|
||||||
|
c.EnsureInitializedReflection(example)
|
||||||
|
|
||||||
|
c.customDecoder = langext.Ptr(cdf)
|
||||||
|
return c
|
||||||
|
}
|
||||||
|
|
||||||
|
func (c *Coll[TData]) Indexes() mongo.IndexView {
|
||||||
|
return c.coll.Indexes()
|
||||||
|
}
|
||||||
|
|
||||||
|
func (c *Coll[TData]) Drop(ctx context.Context) error {
|
||||||
|
return c.coll.Drop(ctx)
|
||||||
|
}
|
||||||
|
|
||||||
|
func (c *Coll[TData]) createToken(fieldPrimary string, dirPrimary ct.SortDirection, fieldSecondary *string, dirSecondary *ct.SortDirection, lastEntity TData, pageSize *int) (ct.CursorToken, error) {
|
||||||
|
|
||||||
|
valuePrimary, err := c.getFieldValueAsTokenString(lastEntity, fieldPrimary)
|
||||||
|
if err != nil {
|
||||||
|
return ct.CursorToken{}, err
|
||||||
|
}
|
||||||
|
|
||||||
|
valueSeconary := ""
|
||||||
|
if fieldSecondary != nil && dirSecondary != nil {
|
||||||
|
valueSeconary, err = c.getFieldValueAsTokenString(lastEntity, *fieldSecondary)
|
||||||
|
if err != nil {
|
||||||
|
return ct.CursorToken{}, err
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
return ct.CursorToken{
|
||||||
|
Mode: ct.CTMNormal,
|
||||||
|
ValuePrimary: valuePrimary,
|
||||||
|
ValueSecondary: valueSeconary,
|
||||||
|
Direction: dirPrimary,
|
||||||
|
PageSize: langext.Coalesce(pageSize, 0),
|
||||||
|
Extra: ct.Extra{},
|
||||||
|
}, nil
|
||||||
|
}
|
54
wmo/decoding.go
Normal file
54
wmo/decoding.go
Normal file
@@ -0,0 +1,54 @@
|
|||||||
|
package wmo
|
||||||
|
|
||||||
|
import (
|
||||||
|
"context"
|
||||||
|
)
|
||||||
|
|
||||||
|
func (c *Coll[TData]) decodeSingle(ctx context.Context, dec Decodable) (TData, error) {
|
||||||
|
if c.customDecoder != nil {
|
||||||
|
|
||||||
|
return (*c.customDecoder)(ctx, dec)
|
||||||
|
|
||||||
|
} else {
|
||||||
|
|
||||||
|
var res TData
|
||||||
|
|
||||||
|
err := dec.Decode(&res)
|
||||||
|
if err != nil {
|
||||||
|
return *new(TData), err
|
||||||
|
}
|
||||||
|
|
||||||
|
return res, nil
|
||||||
|
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
func (c *Coll[TData]) decodeAll(ctx context.Context, cursor Cursorable) ([]TData, error) {
|
||||||
|
if c.customDecoder != nil {
|
||||||
|
|
||||||
|
res := make([]TData, 0, cursor.RemainingBatchLength())
|
||||||
|
|
||||||
|
for cursor.Next(ctx) {
|
||||||
|
entry, err := (*c.customDecoder)(ctx, cursor)
|
||||||
|
if err != nil {
|
||||||
|
return nil, err
|
||||||
|
}
|
||||||
|
res = append(res, entry)
|
||||||
|
}
|
||||||
|
|
||||||
|
return res, nil
|
||||||
|
|
||||||
|
} else {
|
||||||
|
|
||||||
|
res := make([]TData, 0, cursor.RemainingBatchLength())
|
||||||
|
|
||||||
|
err := cursor.All(ctx, &res)
|
||||||
|
if err != nil {
|
||||||
|
return nil, err
|
||||||
|
}
|
||||||
|
|
||||||
|
return res, nil
|
||||||
|
|
||||||
|
}
|
||||||
|
|
||||||
|
}
|
11
wmo/mongo.go
Normal file
11
wmo/mongo.go
Normal file
@@ -0,0 +1,11 @@
|
|||||||
|
package wmo
|
||||||
|
|
||||||
|
import "go.mongodb.org/mongo-driver/mongo"
|
||||||
|
|
||||||
|
func W[TData any](collection *mongo.Collection) *Coll[TData] {
|
||||||
|
c := Coll[TData]{coll: collection}
|
||||||
|
|
||||||
|
c.init()
|
||||||
|
|
||||||
|
return &c
|
||||||
|
}
|
87
wmo/pagination.go
Normal file
87
wmo/pagination.go
Normal file
@@ -0,0 +1,87 @@
|
|||||||
|
package wmo
|
||||||
|
|
||||||
|
import (
|
||||||
|
"errors"
|
||||||
|
"go.mongodb.org/mongo-driver/bson"
|
||||||
|
ct "gogs.mikescher.com/BlackForestBytes/goext/cursortoken"
|
||||||
|
)
|
||||||
|
|
||||||
|
func CreatePagination[TData any](coll *Coll[TData], token ct.CursorToken, fieldPrimary string, sortPrimary ct.SortDirection, fieldSecondary *string, sortSecondary *ct.SortDirection, pageSize *int) ([]bson.D, error) {
|
||||||
|
|
||||||
|
cond := bson.A{}
|
||||||
|
sort := bson.D{}
|
||||||
|
|
||||||
|
valuePrimary, err := coll.getTokenValueAsMongoType(token.ValuePrimary, fieldPrimary)
|
||||||
|
if err != nil {
|
||||||
|
return nil, err
|
||||||
|
}
|
||||||
|
|
||||||
|
if sortPrimary == ct.SortASC {
|
||||||
|
// We sort ASC on <field> - so we want all entries newer ($gt) than the $primary
|
||||||
|
cond = append(cond, bson.M{fieldPrimary: bson.M{"$gt": valuePrimary}})
|
||||||
|
sort = append(sort, bson.E{Key: fieldPrimary, Value: +1})
|
||||||
|
} else if sortPrimary == ct.SortDESC {
|
||||||
|
// We sort DESC on <field> - so we want all entries older ($lt) than the $primary
|
||||||
|
cond = append(cond, bson.M{fieldPrimary: bson.M{"$lt": valuePrimary}})
|
||||||
|
sort = append(sort, bson.E{Key: fieldPrimary, Value: -1})
|
||||||
|
}
|
||||||
|
|
||||||
|
if fieldSecondary != nil && sortSecondary != nil && *fieldSecondary != fieldPrimary {
|
||||||
|
|
||||||
|
valueSecondary, err := coll.getTokenValueAsMongoType(token.ValueSecondary, *fieldSecondary)
|
||||||
|
if err != nil {
|
||||||
|
return nil, err
|
||||||
|
}
|
||||||
|
|
||||||
|
if *sortSecondary == ct.SortASC {
|
||||||
|
|
||||||
|
// the conflict-resolution condition, for entries with the _same_ <field> as the $primary we take the ones with a greater $secondary (= newer)
|
||||||
|
cond = append(cond, bson.M{"$and": bson.A{
|
||||||
|
bson.M{fieldPrimary: valuePrimary},
|
||||||
|
bson.M{*fieldSecondary: bson.M{"$gt": valueSecondary}},
|
||||||
|
}})
|
||||||
|
|
||||||
|
sort = append(sort, bson.E{Key: fieldPrimary, Value: +1})
|
||||||
|
|
||||||
|
} else if *sortSecondary == ct.SortDESC {
|
||||||
|
|
||||||
|
// the conflict-resolution condition, for entries with the _same_ <field> as the $primary we take the ones with a smaller $secondary (= older)
|
||||||
|
cond = append(cond, bson.M{"$and": bson.A{
|
||||||
|
bson.M{fieldPrimary: valuePrimary},
|
||||||
|
bson.M{*fieldSecondary: bson.M{"$lt": valueSecondary}},
|
||||||
|
}})
|
||||||
|
|
||||||
|
sort = append(sort, bson.E{Key: fieldPrimary, Value: -1})
|
||||||
|
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
pipeline := make([]bson.D, 0, 3)
|
||||||
|
|
||||||
|
if token.Mode == ct.CTMStart {
|
||||||
|
|
||||||
|
// no gt/lt condition
|
||||||
|
|
||||||
|
} else if token.Mode == ct.CTMNormal {
|
||||||
|
|
||||||
|
pipeline = append(pipeline, bson.D{{Key: "$match", Value: bson.M{"$or": cond}}})
|
||||||
|
|
||||||
|
} else if token.Mode == ct.CTMEnd {
|
||||||
|
|
||||||
|
// false
|
||||||
|
pipeline = append(pipeline, bson.D{{Key: "$match", Value: bson.M{"$expr": bson.M{"$eq": bson.A{"1", "0"}}}}})
|
||||||
|
|
||||||
|
} else {
|
||||||
|
|
||||||
|
return nil, errors.New("unknown ct mode: " + string(token.Mode))
|
||||||
|
|
||||||
|
}
|
||||||
|
|
||||||
|
pipeline = append(pipeline, bson.D{{Key: "$sort", Value: sort}})
|
||||||
|
|
||||||
|
if pageSize != nil {
|
||||||
|
pipeline = append(pipeline, bson.D{{Key: "$limit", Value: int64(*pageSize + 1)}})
|
||||||
|
}
|
||||||
|
|
||||||
|
return pipeline, nil
|
||||||
|
}
|
38
wmo/queryAggregate.go
Normal file
38
wmo/queryAggregate.go
Normal file
@@ -0,0 +1,38 @@
|
|||||||
|
package wmo
|
||||||
|
|
||||||
|
import (
|
||||||
|
"context"
|
||||||
|
"go.mongodb.org/mongo-driver/mongo"
|
||||||
|
"go.mongodb.org/mongo-driver/mongo/options"
|
||||||
|
)
|
||||||
|
|
||||||
|
func (c *Coll[TData]) Aggregate(ctx context.Context, pipeline mongo.Pipeline, opts ...*options.AggregateOptions) ([]TData, error) {
|
||||||
|
cursor, err := c.coll.Aggregate(ctx, pipeline, opts...)
|
||||||
|
if err != nil {
|
||||||
|
return nil, err
|
||||||
|
}
|
||||||
|
|
||||||
|
res, err := c.decodeAll(ctx, cursor)
|
||||||
|
if err != nil {
|
||||||
|
return nil, err
|
||||||
|
}
|
||||||
|
|
||||||
|
return res, nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func (c *Coll[TData]) AggregateOneOpt(ctx context.Context, pipeline mongo.Pipeline, opts ...*options.AggregateOptions) (*TData, error) {
|
||||||
|
cursor, err := c.coll.Aggregate(ctx, pipeline, opts...)
|
||||||
|
if err != nil {
|
||||||
|
return nil, err
|
||||||
|
}
|
||||||
|
|
||||||
|
if cursor.Next(ctx) {
|
||||||
|
v, err := c.decodeSingle(ctx, cursor)
|
||||||
|
if err != nil {
|
||||||
|
return nil, err
|
||||||
|
}
|
||||||
|
return &v, nil
|
||||||
|
}
|
||||||
|
|
||||||
|
return nil, nil
|
||||||
|
}
|
34
wmo/queryDelete.go
Normal file
34
wmo/queryDelete.go
Normal file
@@ -0,0 +1,34 @@
|
|||||||
|
package wmo
|
||||||
|
|
||||||
|
import (
|
||||||
|
"context"
|
||||||
|
"go.mongodb.org/mongo-driver/bson"
|
||||||
|
"go.mongodb.org/mongo-driver/mongo"
|
||||||
|
)
|
||||||
|
|
||||||
|
func (c *Coll[TData]) DeleteOneByID(ctx context.Context, id EntityID) error {
|
||||||
|
_, err := c.coll.DeleteOne(ctx, bson.M{"_id": id})
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func (c *Coll[TData]) DeleteOne(ctx context.Context, filterQuery bson.M) error {
|
||||||
|
_, err := c.coll.DeleteOne(ctx, filterQuery)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func (c *Coll[TData]) DeleteMany(ctx context.Context, filterQuery bson.M) (*mongo.DeleteResult, error) {
|
||||||
|
res, err := c.coll.DeleteMany(ctx, filterQuery)
|
||||||
|
if err != nil {
|
||||||
|
return nil, err
|
||||||
|
}
|
||||||
|
|
||||||
|
return res, nil
|
||||||
|
}
|
62
wmo/queryFind.go
Normal file
62
wmo/queryFind.go
Normal file
@@ -0,0 +1,62 @@
|
|||||||
|
package wmo
|
||||||
|
|
||||||
|
import (
|
||||||
|
"context"
|
||||||
|
"go.mongodb.org/mongo-driver/bson"
|
||||||
|
"go.mongodb.org/mongo-driver/mongo"
|
||||||
|
"go.mongodb.org/mongo-driver/mongo/options"
|
||||||
|
)
|
||||||
|
|
||||||
|
func (c *Coll[TData]) FindOne(ctx context.Context, filter bson.M) (TData, error) {
|
||||||
|
mongoRes := c.coll.FindOne(ctx, filter)
|
||||||
|
|
||||||
|
return c.decodeSingle(ctx, mongoRes)
|
||||||
|
}
|
||||||
|
|
||||||
|
func (c *Coll[TData]) FindOneOpt(ctx context.Context, filter bson.M) (*TData, error) {
|
||||||
|
mongoRes := c.coll.FindOne(ctx, filter)
|
||||||
|
|
||||||
|
res, err := c.decodeSingle(ctx, mongoRes)
|
||||||
|
if err == mongo.ErrNoDocuments {
|
||||||
|
return nil, nil
|
||||||
|
}
|
||||||
|
if err != nil {
|
||||||
|
return nil, err
|
||||||
|
}
|
||||||
|
|
||||||
|
return &res, nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func (c *Coll[TData]) FindOneByID(ctx context.Context, id EntityID) (TData, error) {
|
||||||
|
mongoRes := c.coll.FindOne(ctx, bson.M{"_id": id})
|
||||||
|
|
||||||
|
return c.decodeSingle(ctx, mongoRes)
|
||||||
|
}
|
||||||
|
|
||||||
|
func (c *Coll[TData]) FindOneOptByID(ctx context.Context, id EntityID) (*TData, error) {
|
||||||
|
mongoRes := c.coll.FindOne(ctx, bson.M{"_id": id})
|
||||||
|
|
||||||
|
res, err := c.decodeSingle(ctx, mongoRes)
|
||||||
|
if err == mongo.ErrNoDocuments {
|
||||||
|
return nil, nil
|
||||||
|
}
|
||||||
|
if err != nil {
|
||||||
|
return nil, err
|
||||||
|
}
|
||||||
|
|
||||||
|
return &res, nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func (c *Coll[TData]) Find(ctx context.Context, filter bson.M, opts ...*options.FindOptions) ([]TData, error) {
|
||||||
|
cursor, err := c.coll.Find(ctx, filter, opts...)
|
||||||
|
if err != nil {
|
||||||
|
return nil, err
|
||||||
|
}
|
||||||
|
|
||||||
|
res, err := c.decodeAll(ctx, cursor)
|
||||||
|
if err != nil {
|
||||||
|
return nil, err
|
||||||
|
}
|
||||||
|
|
||||||
|
return res, nil
|
||||||
|
}
|
17
wmo/queryInsert.go
Normal file
17
wmo/queryInsert.go
Normal file
@@ -0,0 +1,17 @@
|
|||||||
|
package wmo
|
||||||
|
|
||||||
|
import (
|
||||||
|
"context"
|
||||||
|
"go.mongodb.org/mongo-driver/bson"
|
||||||
|
)
|
||||||
|
|
||||||
|
func (c *Coll[TData]) InsertOne(ctx context.Context, valueIn TData) (TData, error) {
|
||||||
|
insRes, err := c.coll.InsertOne(ctx, valueIn)
|
||||||
|
if err != nil {
|
||||||
|
return *new(TData), err
|
||||||
|
}
|
||||||
|
|
||||||
|
mongoRes := c.coll.FindOne(ctx, bson.M{"_id": insRes.InsertedID})
|
||||||
|
|
||||||
|
return c.decodeSingle(ctx, mongoRes)
|
||||||
|
}
|
107
wmo/queryList.go
Normal file
107
wmo/queryList.go
Normal file
@@ -0,0 +1,107 @@
|
|||||||
|
package wmo
|
||||||
|
|
||||||
|
import (
|
||||||
|
"context"
|
||||||
|
"go.mongodb.org/mongo-driver/bson"
|
||||||
|
"go.mongodb.org/mongo-driver/mongo"
|
||||||
|
ct "gogs.mikescher.com/BlackForestBytes/goext/cursortoken"
|
||||||
|
)
|
||||||
|
|
||||||
|
func (c *Coll[TData]) List(ctx context.Context, filter ct.Filter, pageSize *int, inTok ct.CursorToken) ([]TData, ct.CursorToken, error) {
|
||||||
|
if inTok.Mode == ct.CTMEnd {
|
||||||
|
return make([]TData, 0), ct.End(), nil
|
||||||
|
}
|
||||||
|
|
||||||
|
pipeline := mongo.Pipeline{}
|
||||||
|
pf1 := "_id"
|
||||||
|
pd1 := ct.SortASC
|
||||||
|
pf2 := "_id"
|
||||||
|
pd2 := ct.SortASC
|
||||||
|
|
||||||
|
if filter != nil {
|
||||||
|
pipeline = filter.FilterQuery()
|
||||||
|
pf1, pd1, pf2, pd2 = filter.Pagination()
|
||||||
|
}
|
||||||
|
|
||||||
|
sortPrimary := pf1
|
||||||
|
sortDirPrimary := pd1
|
||||||
|
sortSecondary := &pf2
|
||||||
|
sortDirSecondary := &pd2
|
||||||
|
|
||||||
|
if pf1 == pf2 {
|
||||||
|
sortSecondary = nil
|
||||||
|
sortDirSecondary = nil
|
||||||
|
}
|
||||||
|
|
||||||
|
paginationPipeline, err := CreatePagination(c, inTok, sortPrimary, sortDirPrimary, sortSecondary, sortDirSecondary, pageSize)
|
||||||
|
if err != nil {
|
||||||
|
return nil, ct.CursorToken{}, err
|
||||||
|
}
|
||||||
|
|
||||||
|
pipeline = append(pipeline, paginationPipeline...)
|
||||||
|
|
||||||
|
cursor, err := c.coll.Aggregate(ctx, pipeline)
|
||||||
|
if err != nil {
|
||||||
|
return nil, ct.CursorToken{}, err
|
||||||
|
}
|
||||||
|
|
||||||
|
// fast branch
|
||||||
|
if pageSize == nil {
|
||||||
|
entries, err := c.decodeAll(ctx, cursor)
|
||||||
|
if err != nil {
|
||||||
|
return nil, ct.CursorToken{}, err
|
||||||
|
}
|
||||||
|
return entries, ct.End(), nil
|
||||||
|
}
|
||||||
|
|
||||||
|
entities := make([]TData, 0, cursor.RemainingBatchLength())
|
||||||
|
for (pageSize == nil || len(entities) != *pageSize) && cursor.Next(ctx) {
|
||||||
|
var entry TData
|
||||||
|
entry, err = c.decodeSingle(ctx, cursor)
|
||||||
|
if err != nil {
|
||||||
|
return nil, ct.CursorToken{}, err
|
||||||
|
}
|
||||||
|
entities = append(entities, entry)
|
||||||
|
}
|
||||||
|
|
||||||
|
if pageSize == nil || len(entities) < *pageSize || !cursor.TryNext(ctx) {
|
||||||
|
return entities, ct.End(), nil
|
||||||
|
}
|
||||||
|
|
||||||
|
last := entities[len(entities)-1]
|
||||||
|
|
||||||
|
c.EnsureInitializedReflection(last)
|
||||||
|
|
||||||
|
nextToken, err := c.createToken(sortPrimary, sortDirPrimary, sortSecondary, sortDirSecondary, last, pageSize)
|
||||||
|
if err != nil {
|
||||||
|
return nil, ct.CursorToken{}, err
|
||||||
|
}
|
||||||
|
|
||||||
|
return entities, nextToken, nil
|
||||||
|
}
|
||||||
|
|
||||||
|
type countRes struct {
|
||||||
|
Count int64 `bson:"c"`
|
||||||
|
}
|
||||||
|
|
||||||
|
func (c *Coll[TData]) Count(ctx context.Context, filter ct.Filter) (int64, error) {
|
||||||
|
pipeline := filter.FilterQuery()
|
||||||
|
|
||||||
|
pipeline = append(pipeline, bson.D{{Key: "$count", Value: "c"}})
|
||||||
|
|
||||||
|
cursor, err := c.coll.Aggregate(ctx, pipeline)
|
||||||
|
if err != nil {
|
||||||
|
return 0, err
|
||||||
|
}
|
||||||
|
|
||||||
|
if cursor.Next(ctx) {
|
||||||
|
v := countRes{}
|
||||||
|
err = cursor.Decode(&v)
|
||||||
|
if err != nil {
|
||||||
|
return 0, err
|
||||||
|
}
|
||||||
|
return v.Count, nil
|
||||||
|
}
|
||||||
|
|
||||||
|
return 0, nil
|
||||||
|
}
|
56
wmo/queryUpdate.go
Normal file
56
wmo/queryUpdate.go
Normal file
@@ -0,0 +1,56 @@
|
|||||||
|
package wmo
|
||||||
|
|
||||||
|
import (
|
||||||
|
"context"
|
||||||
|
"go.mongodb.org/mongo-driver/bson"
|
||||||
|
"go.mongodb.org/mongo-driver/mongo"
|
||||||
|
"go.mongodb.org/mongo-driver/mongo/options"
|
||||||
|
)
|
||||||
|
|
||||||
|
func (c *Coll[TData]) FindOneAndUpdate(ctx context.Context, filterQuery bson.M, updateQuery bson.M) (TData, error) {
|
||||||
|
mongoRes := c.coll.FindOneAndUpdate(ctx, filterQuery, updateQuery, options.FindOneAndUpdate().SetReturnDocument(options.After))
|
||||||
|
|
||||||
|
return c.decodeSingle(ctx, mongoRes)
|
||||||
|
}
|
||||||
|
|
||||||
|
func (c *Coll[TData]) UpdateOne(ctx context.Context, filterQuery bson.M, updateQuery bson.M) error {
|
||||||
|
_, err := c.coll.UpdateOne(ctx, filterQuery, updateQuery)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func (c *Coll[TData]) UpdateOneByID(ctx context.Context, id EntityID, updateQuery bson.M) error {
|
||||||
|
_, err := c.coll.UpdateOne(ctx, bson.M{"_id": id}, updateQuery)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func (c *Coll[TData]) UpdateMany(ctx context.Context, filterQuery bson.M, updateQuery bson.M) (*mongo.UpdateResult, error) {
|
||||||
|
res, err := c.coll.UpdateMany(ctx, filterQuery, updateQuery)
|
||||||
|
if err != nil {
|
||||||
|
return nil, err
|
||||||
|
}
|
||||||
|
|
||||||
|
return res, nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func (c *Coll[TData]) ReplaceOne(ctx context.Context, filterQuery bson.M, value TData) error {
|
||||||
|
_, err := c.coll.UpdateOne(ctx, filterQuery, bson.M{"$set": value})
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func (c *Coll[TData]) FindOneAndReplace(ctx context.Context, filterQuery bson.M, value TData) (TData, error) {
|
||||||
|
mongoRes := c.coll.FindOneAndUpdate(ctx, filterQuery, bson.M{"$set": value}, options.FindOneAndUpdate().SetReturnDocument(options.After))
|
||||||
|
|
||||||
|
return c.decodeSingle(ctx, mongoRes)
|
||||||
|
}
|
215
wmo/reflection.go
Normal file
215
wmo/reflection.go
Normal file
@@ -0,0 +1,215 @@
|
|||||||
|
package wmo
|
||||||
|
|
||||||
|
import (
|
||||||
|
"errors"
|
||||||
|
"gogs.mikescher.com/BlackForestBytes/goext/langext"
|
||||||
|
"gogs.mikescher.com/BlackForestBytes/goext/reflectext"
|
||||||
|
"reflect"
|
||||||
|
"strings"
|
||||||
|
)
|
||||||
|
|
||||||
|
func (c *Coll[TData]) EnsureInitializedReflection(v TData) {
|
||||||
|
|
||||||
|
if !c.isInterfaceDataType {
|
||||||
|
return // only dynamically load dataTypeMap on interface TData
|
||||||
|
}
|
||||||
|
|
||||||
|
rval := reflect.ValueOf(v)
|
||||||
|
for rval.Type().Kind() == reflect.Pointer {
|
||||||
|
rval = rval.Elem()
|
||||||
|
}
|
||||||
|
|
||||||
|
if _, ok := c.implDataTypeMap[rval.Type()]; ok {
|
||||||
|
return // already loaded
|
||||||
|
}
|
||||||
|
|
||||||
|
m := make(map[string]fullTypeRef)
|
||||||
|
|
||||||
|
c.initFields("", rval, m, make([]int, 0))
|
||||||
|
|
||||||
|
c.implDataTypeMap[rval.Type()] = m
|
||||||
|
}
|
||||||
|
|
||||||
|
func (c *Coll[TData]) init() {
|
||||||
|
|
||||||
|
example := *new(TData)
|
||||||
|
|
||||||
|
datatype := reflect.TypeOf(&example).Elem()
|
||||||
|
|
||||||
|
if datatype.Kind() == reflect.Interface {
|
||||||
|
|
||||||
|
c.isInterfaceDataType = true
|
||||||
|
|
||||||
|
c.dataTypeMap = make(map[string]fullTypeRef)
|
||||||
|
c.implDataTypeMap = make(map[reflect.Type]map[string]fullTypeRef)
|
||||||
|
} else {
|
||||||
|
|
||||||
|
c.isInterfaceDataType = false
|
||||||
|
|
||||||
|
c.dataTypeMap = make(map[string]fullTypeRef)
|
||||||
|
c.implDataTypeMap = make(map[reflect.Type]map[string]fullTypeRef)
|
||||||
|
|
||||||
|
v := reflect.ValueOf(example)
|
||||||
|
c.initFields("", v, c.dataTypeMap, make([]int, 0))
|
||||||
|
|
||||||
|
}
|
||||||
|
|
||||||
|
}
|
||||||
|
|
||||||
|
func (c *Coll[TData]) initFields(prefix string, rval reflect.Value, m map[string]fullTypeRef, idxarr []int) {
|
||||||
|
|
||||||
|
rtyp := rval.Type()
|
||||||
|
|
||||||
|
for i := 0; i < rtyp.NumField(); i++ {
|
||||||
|
|
||||||
|
rsfield := rtyp.Field(i)
|
||||||
|
rvfield := rval.Field(i)
|
||||||
|
|
||||||
|
if !rsfield.IsExported() {
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
|
||||||
|
bsontags := make([]string, 0)
|
||||||
|
bsonkey, found := rsfield.Tag.Lookup("bson")
|
||||||
|
if !found {
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
if strings.Contains(bsonkey, ",") {
|
||||||
|
bsontags = strings.Split(bsonkey[strings.Index(bsonkey, ",")+1:], ",")
|
||||||
|
bsonkey = bsonkey[:strings.Index(bsonkey, ",")]
|
||||||
|
}
|
||||||
|
if bsonkey == "-" {
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
|
||||||
|
if bsonkey == "" {
|
||||||
|
bsonkey = rsfield.Name
|
||||||
|
}
|
||||||
|
|
||||||
|
fullKey := prefix + bsonkey
|
||||||
|
|
||||||
|
newIdxArr := langext.ArrCopy(idxarr)
|
||||||
|
newIdxArr = append(newIdxArr, i)
|
||||||
|
|
||||||
|
if langext.InArray("inline", bsontags) && rvfield.Kind() == reflect.Struct {
|
||||||
|
|
||||||
|
// pass-through field
|
||||||
|
c.initFields(prefix, rvfield, m, newIdxArr)
|
||||||
|
|
||||||
|
} else {
|
||||||
|
|
||||||
|
if rvfield.Type().Kind() == reflect.Pointer {
|
||||||
|
|
||||||
|
m[fullKey] = fullTypeRef{
|
||||||
|
IsPointer: true,
|
||||||
|
RealType: rvfield.Type(),
|
||||||
|
Kind: rvfield.Type().Elem().Kind(),
|
||||||
|
Type: rvfield.Type().Elem(),
|
||||||
|
UnderlyingType: reflectext.Underlying(rvfield.Type().Elem()),
|
||||||
|
Name: rsfield.Name,
|
||||||
|
Index: newIdxArr,
|
||||||
|
}
|
||||||
|
|
||||||
|
} else {
|
||||||
|
|
||||||
|
m[fullKey] = fullTypeRef{
|
||||||
|
IsPointer: false,
|
||||||
|
RealType: rvfield.Type(),
|
||||||
|
Kind: rvfield.Type().Kind(),
|
||||||
|
Type: rvfield.Type(),
|
||||||
|
UnderlyingType: reflectext.Underlying(rvfield.Type()),
|
||||||
|
Name: rsfield.Name,
|
||||||
|
Index: newIdxArr,
|
||||||
|
}
|
||||||
|
|
||||||
|
}
|
||||||
|
|
||||||
|
if rvfield.Kind() == reflect.Struct {
|
||||||
|
c.initFields(fullKey+".", rvfield, m, newIdxArr)
|
||||||
|
}
|
||||||
|
|
||||||
|
}
|
||||||
|
|
||||||
|
}
|
||||||
|
|
||||||
|
}
|
||||||
|
|
||||||
|
func (c *Coll[TData]) getTokenValueAsMongoType(value string, fieldName string) (any, error) {
|
||||||
|
|
||||||
|
fref, err := c.getFieldType(fieldName)
|
||||||
|
if err != nil {
|
||||||
|
return nil, err
|
||||||
|
}
|
||||||
|
|
||||||
|
pss := reflectext.PrimitiveStringSerializer{}
|
||||||
|
|
||||||
|
return pss.ValueFromString(value, fref.RealType)
|
||||||
|
|
||||||
|
}
|
||||||
|
|
||||||
|
func (c *Coll[TData]) getFieldValueAsTokenString(entity TData, fieldName string) (string, error) {
|
||||||
|
|
||||||
|
realValue, err := c.getFieldValue(entity, fieldName)
|
||||||
|
if err != nil {
|
||||||
|
return "", err
|
||||||
|
}
|
||||||
|
|
||||||
|
pss := reflectext.PrimitiveStringSerializer{}
|
||||||
|
|
||||||
|
return pss.ValueToString(realValue)
|
||||||
|
|
||||||
|
}
|
||||||
|
|
||||||
|
func (c *Coll[TData]) getFieldType(fieldName string) (fullTypeRef, error) {
|
||||||
|
if c.isInterfaceDataType {
|
||||||
|
|
||||||
|
for _, m := range c.implDataTypeMap {
|
||||||
|
if r, ok := m[fieldName]; ok {
|
||||||
|
return r, nil
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
return fullTypeRef{}, errors.New("unknown field: '" + fieldName + "' (in any impl)")
|
||||||
|
|
||||||
|
} else {
|
||||||
|
|
||||||
|
if r, ok := c.dataTypeMap[fieldName]; ok {
|
||||||
|
return r, nil
|
||||||
|
} else {
|
||||||
|
return fullTypeRef{}, errors.New("unknown field: '" + fieldName + "'")
|
||||||
|
}
|
||||||
|
|
||||||
|
}
|
||||||
|
|
||||||
|
}
|
||||||
|
|
||||||
|
func (c *Coll[TData]) getFieldValue(data TData, fieldName string) (any, error) {
|
||||||
|
if c.isInterfaceDataType {
|
||||||
|
|
||||||
|
rval := reflect.ValueOf(data)
|
||||||
|
for rval.Type().Kind() == reflect.Pointer {
|
||||||
|
rval = rval.Elem()
|
||||||
|
}
|
||||||
|
|
||||||
|
if m, ok := c.implDataTypeMap[rval.Type()]; ok {
|
||||||
|
if fref, ok := m[fieldName]; ok {
|
||||||
|
rval := reflect.ValueOf(data)
|
||||||
|
return rval.FieldByIndex(fref.Index).Interface(), nil
|
||||||
|
} else {
|
||||||
|
return nil, errors.New("unknown bson field '" + fieldName + "' in type '" + rval.Type().String() + "'")
|
||||||
|
}
|
||||||
|
} else {
|
||||||
|
return nil, errors.New("unknown TData type: '" + rval.Type().String() + "'")
|
||||||
|
}
|
||||||
|
|
||||||
|
} else {
|
||||||
|
|
||||||
|
if fref, ok := c.dataTypeMap[fieldName]; ok {
|
||||||
|
rval := reflect.ValueOf(data)
|
||||||
|
return rval.FieldByIndex(fref.Index).Interface(), nil
|
||||||
|
} else {
|
||||||
|
return nil, errors.New("unknown bson field '" + fieldName + "'")
|
||||||
|
}
|
||||||
|
|
||||||
|
}
|
||||||
|
}
|
226
wmo/reflection_test.go
Normal file
226
wmo/reflection_test.go
Normal file
@@ -0,0 +1,226 @@
|
|||||||
|
package wmo
|
||||||
|
|
||||||
|
import (
|
||||||
|
"context"
|
||||||
|
"go.mongodb.org/mongo-driver/bson/primitive"
|
||||||
|
"go.mongodb.org/mongo-driver/mongo"
|
||||||
|
"gogs.mikescher.com/BlackForestBytes/goext/langext"
|
||||||
|
"gogs.mikescher.com/BlackForestBytes/goext/rfctime"
|
||||||
|
"gogs.mikescher.com/BlackForestBytes/goext/timeext"
|
||||||
|
"gogs.mikescher.com/BlackForestBytes/goext/tst"
|
||||||
|
"reflect"
|
||||||
|
"testing"
|
||||||
|
"time"
|
||||||
|
)
|
||||||
|
|
||||||
|
func TestReflectionGetFieldType(t *testing.T) {
|
||||||
|
|
||||||
|
type IDType string
|
||||||
|
|
||||||
|
type TestData struct {
|
||||||
|
ID IDType `bson:"_id"`
|
||||||
|
CDate time.Time `bson:"cdate"`
|
||||||
|
Sub struct {
|
||||||
|
A string `bson:"a"`
|
||||||
|
} `bson:"sub"`
|
||||||
|
Str string `bson:"str"`
|
||||||
|
Ptr *int `bson:"ptr"`
|
||||||
|
MDate rfctime.RFC3339NanoTime `bson:"mdate"`
|
||||||
|
}
|
||||||
|
|
||||||
|
coll := W[TestData](&mongo.Collection{})
|
||||||
|
|
||||||
|
coll.init()
|
||||||
|
|
||||||
|
t0 := time.Now()
|
||||||
|
t1 := rfctime.NewRFC3339Nano(t0)
|
||||||
|
|
||||||
|
d := TestData{
|
||||||
|
ID: "1",
|
||||||
|
CDate: t0,
|
||||||
|
Sub: struct {
|
||||||
|
A string `bson:"a"`
|
||||||
|
}{
|
||||||
|
A: "2",
|
||||||
|
},
|
||||||
|
Str: "3",
|
||||||
|
Ptr: langext.Ptr(4),
|
||||||
|
MDate: t1,
|
||||||
|
}
|
||||||
|
|
||||||
|
gft := func(k string) fullTypeRef {
|
||||||
|
v, err := coll.getFieldType(k)
|
||||||
|
if err != nil {
|
||||||
|
t.Errorf("%s: %v", "failed to getFieldType", err)
|
||||||
|
}
|
||||||
|
return v
|
||||||
|
}
|
||||||
|
|
||||||
|
gfv := func(k string) any {
|
||||||
|
v, err := coll.getFieldValue(d, k)
|
||||||
|
if err != nil {
|
||||||
|
t.Errorf("%s: %v", "failed to getFieldType", err)
|
||||||
|
}
|
||||||
|
return v
|
||||||
|
}
|
||||||
|
|
||||||
|
tst.AssertEqual(t, gft("_id").Kind.String(), "string")
|
||||||
|
tst.AssertEqual(t, gft("_id").Type.String(), "wmo.IDType")
|
||||||
|
tst.AssertEqual(t, gft("_id").Name, "ID")
|
||||||
|
tst.AssertEqual(t, gft("_id").IsPointer, false)
|
||||||
|
tst.AssertEqual(t, gfv("_id").(IDType), "1")
|
||||||
|
|
||||||
|
tst.AssertEqual(t, gft("cdate").Kind.String(), "struct")
|
||||||
|
tst.AssertEqual(t, gft("cdate").Type.String(), "time.Time")
|
||||||
|
tst.AssertEqual(t, gft("cdate").Name, "CDate")
|
||||||
|
tst.AssertEqual(t, gft("cdate").IsPointer, false)
|
||||||
|
tst.AssertEqual(t, gfv("cdate").(time.Time), t0)
|
||||||
|
|
||||||
|
tst.AssertEqual(t, gft("sub.a").Kind.String(), "string")
|
||||||
|
tst.AssertEqual(t, gft("sub.a").Type.String(), "string")
|
||||||
|
tst.AssertEqual(t, gft("sub.a").Name, "A")
|
||||||
|
tst.AssertEqual(t, gft("sub.a").IsPointer, false)
|
||||||
|
tst.AssertEqual(t, gfv("sub.a").(string), "2")
|
||||||
|
|
||||||
|
tst.AssertEqual(t, gft("str").Kind.String(), "string")
|
||||||
|
tst.AssertEqual(t, gft("str").Type.String(), "string")
|
||||||
|
tst.AssertEqual(t, gft("str").Name, "Str")
|
||||||
|
tst.AssertEqual(t, gft("str").IsPointer, false)
|
||||||
|
tst.AssertEqual(t, gfv("str").(string), "3")
|
||||||
|
|
||||||
|
tst.AssertEqual(t, gft("ptr").Kind.String(), "int")
|
||||||
|
tst.AssertEqual(t, gft("ptr").Type.String(), "int")
|
||||||
|
tst.AssertEqual(t, gft("ptr").Name, "Ptr")
|
||||||
|
tst.AssertEqual(t, gft("ptr").IsPointer, true)
|
||||||
|
tst.AssertEqual(t, *gfv("ptr").(*int), 4)
|
||||||
|
}
|
||||||
|
|
||||||
|
func TestReflectionGetTokenValueAsMongoType(t *testing.T) {
|
||||||
|
|
||||||
|
type IDType string
|
||||||
|
|
||||||
|
type TestData struct {
|
||||||
|
ID IDType `bson:"_id"`
|
||||||
|
CDate time.Time `bson:"cdate"`
|
||||||
|
Sub struct {
|
||||||
|
A string `bson:"a"`
|
||||||
|
} `bson:"sub"`
|
||||||
|
Str string `bson:"str"`
|
||||||
|
Ptr *int `bson:"ptr"`
|
||||||
|
Num int `bson:"num"`
|
||||||
|
MDate rfctime.RFC3339NanoTime `bson:"mdate"`
|
||||||
|
}
|
||||||
|
|
||||||
|
coll := W[TestData](&mongo.Collection{})
|
||||||
|
|
||||||
|
coll.init()
|
||||||
|
|
||||||
|
gtvasmt := func(value string, fieldName string) any {
|
||||||
|
v, err := coll.getTokenValueAsMongoType(value, fieldName)
|
||||||
|
if err != nil {
|
||||||
|
t.Errorf("%s", "failed to getTokenValueAsMongoType")
|
||||||
|
t.Errorf("%v+", err)
|
||||||
|
}
|
||||||
|
return v
|
||||||
|
}
|
||||||
|
|
||||||
|
tx, err := time.Parse(time.RFC3339Nano, "2009-11-10T23:00:00Z")
|
||||||
|
if err != nil {
|
||||||
|
t.Errorf("%v", err)
|
||||||
|
}
|
||||||
|
|
||||||
|
tst.AssertEqual(t, gtvasmt("hello", "str").(string), "hello")
|
||||||
|
tst.AssertEqual(t, gtvasmt("4", "num").(int), 4)
|
||||||
|
tst.AssertEqual(t, gtvasmt("asdf", "_id").(IDType), "asdf")
|
||||||
|
tst.AssertEqual(t, gtvasmt("", "ptr").(*int), nil)
|
||||||
|
tst.AssertEqual(t, *(gtvasmt("123", "ptr").(*int)), 123)
|
||||||
|
tst.AssertEqual(t, gtvasmt("2009-11-10T23:00:00Z", "cdate").(time.Time), tx)
|
||||||
|
tst.AssertEqual(t, gtvasmt("2009-11-10T23:00:00Z", "mdate").(rfctime.RFC3339NanoTime), rfctime.NewRFC3339Nano(tx))
|
||||||
|
}
|
||||||
|
|
||||||
|
func TestReflectionGetFieldValueAsTokenString(t *testing.T) {
|
||||||
|
|
||||||
|
type IDType string
|
||||||
|
|
||||||
|
type TestData struct {
|
||||||
|
ID IDType `bson:"_id"`
|
||||||
|
CDate time.Time `bson:"cdate"`
|
||||||
|
Sub struct {
|
||||||
|
A string `bson:"a"`
|
||||||
|
} `bson:"sub"`
|
||||||
|
Str string `bson:"str"`
|
||||||
|
Ptr *int `bson:"ptr"`
|
||||||
|
Num int `bson:"num"`
|
||||||
|
Ptr2 *int `bson:"ptr2"`
|
||||||
|
FFF float64 `bson:"fff"`
|
||||||
|
MDate rfctime.RFC3339NanoTime `bson:"mdate"`
|
||||||
|
}
|
||||||
|
|
||||||
|
coll := W[TestData](&mongo.Collection{})
|
||||||
|
|
||||||
|
coll.init()
|
||||||
|
|
||||||
|
t0 := time.Date(2000, 1, 1, 12, 0, 0, 0, timeext.TimezoneBerlin)
|
||||||
|
t1 := rfctime.NewRFC3339Nano(t0)
|
||||||
|
|
||||||
|
d := TestData{
|
||||||
|
ID: "1",
|
||||||
|
CDate: t0,
|
||||||
|
MDate: t1,
|
||||||
|
Sub: struct {
|
||||||
|
A string `bson:"a"`
|
||||||
|
}{
|
||||||
|
A: "2",
|
||||||
|
},
|
||||||
|
Str: "3",
|
||||||
|
Ptr: langext.Ptr(4),
|
||||||
|
Num: 22,
|
||||||
|
FFF: 22.5,
|
||||||
|
Ptr2: nil,
|
||||||
|
}
|
||||||
|
|
||||||
|
gfvats := func(value TestData, fieldName string) string {
|
||||||
|
v, err := coll.getFieldValueAsTokenString(value, fieldName)
|
||||||
|
if err != nil {
|
||||||
|
t.Errorf("%s: %v", "failed to getTokenValueAsMongoType", err)
|
||||||
|
}
|
||||||
|
return v
|
||||||
|
}
|
||||||
|
|
||||||
|
tst.AssertEqual(t, gfvats(d, "str"), "3")
|
||||||
|
tst.AssertEqual(t, gfvats(d, "num"), "22")
|
||||||
|
tst.AssertEqual(t, gfvats(d, "_id"), "1")
|
||||||
|
tst.AssertEqual(t, gfvats(d, "ptr"), "4")
|
||||||
|
tst.AssertEqual(t, gfvats(d, "ptr2"), "")
|
||||||
|
tst.AssertEqual(t, gfvats(d, "fff"), "22.5")
|
||||||
|
tst.AssertEqual(t, gfvats(d, "cdate"), t0.Format(time.RFC3339Nano))
|
||||||
|
tst.AssertEqual(t, gfvats(d, "mdate"), t0.Format(time.RFC3339Nano))
|
||||||
|
}
|
||||||
|
|
||||||
|
func TestReflectionWithInterface(t *testing.T) {
|
||||||
|
|
||||||
|
type TestData struct {
|
||||||
|
ID primitive.ObjectID `bson:"_id"`
|
||||||
|
CDate time.Time `bson:"cdate"`
|
||||||
|
}
|
||||||
|
|
||||||
|
type TestInterface interface {
|
||||||
|
}
|
||||||
|
|
||||||
|
coll1 := W[TestInterface](&mongo.Collection{})
|
||||||
|
|
||||||
|
tst.AssertTrue(t, coll1.coll != nil)
|
||||||
|
tst.AssertEqual(t, 0, len(coll1.implDataTypeMap))
|
||||||
|
|
||||||
|
df := func(ctx context.Context, dec Decodable) (TestInterface, error) {
|
||||||
|
return TestData{}, nil
|
||||||
|
}
|
||||||
|
|
||||||
|
coll2 := W[TestInterface](&mongo.Collection{}).WithDecodeFunc(df, TestData{})
|
||||||
|
|
||||||
|
tst.AssertTrue(t, coll2.coll != nil)
|
||||||
|
tst.AssertEqual(t, 1, len(coll2.implDataTypeMap))
|
||||||
|
|
||||||
|
tst.AssertEqual(t, "ID", coll2.implDataTypeMap[reflect.TypeOf(TestData{})]["_id"].Name)
|
||||||
|
tst.AssertEqual(t, "CDate", coll2.implDataTypeMap[reflect.TypeOf(TestData{})]["cdate"].Name)
|
||||||
|
}
|
Reference in New Issue
Block a user