我是golang和数据库优化的新手。
我在go和mysql数据库上编写了一个简单的应用,该数据库通过Web初始化发送查询。
要接收请求大约需要5秒或更长时间?有可能以某种方式对其进行优化吗?
如果刷新几次,则响应可能已经是50s甚至更多, “无效的内存地址或nil指针取消引用”或“错误1040:可能出现太多连接”的异常。
如何避免这种情况并使所有请求在有效的时间内可处理?
这是表结构
CREATE TABLE sportsmen (
sp_no int(11) NOT NULL,
birth_date date NOT NULL,
first_name varchar(14) NOT NULL,
last_name varchar(16) NOT NULL,
gender enum('M','F') NOT NULL,
start_date date NOT NULL,
PRIMARY KEY (sp_no)
) ENGINE=InnoDB DEFAULT CHARSET=latin1
CREATE TABLE points (
sp_no INT NOT NULL,
point INT NOT NULL,
date DATE NOT NULL
);
运动员的记录数约为300000,得分为1000000。
这是每个请求都会调用的函数
var db *sql.DB
func init() {
db, _ = sql.Open("mysql", "<connection>?charset=utf8")
//checkErr(errcon)
err := db.Ping()
checkErr(err)
yt := reflect.TypeOf(db).Kind()
fmt.Printf("%T: %s\n", yt, yt)
}
func sportsmanPoints(w http.ResponseWriter, r *http.Request) {
start := time.Now()
sportsmen, err := db.Query("SELECT sp_no, first_name FROM sportsmen LIMIT ?,20", rand.Intn(100000))
checkErr(err)
for sportsmen.Next() {
var spNo string
var firstName string
err = sportsmen.Scan(&spNo, &firstName)
checkErr(err)
spPoints, err := db.Query("SELECT max(point) FROM points WHERE sp_no =" + spNo)
for spPoints.Next() {
var spPoint int
err = spPoints.Scan(&spPoint)
checkErr(err)
points.Data = append(points.Data, Point{Name: firstName, Point: spPoint})
}
}
data, err := json.Marshal(points.Data)
if err != nil {
log.Fatal(err)
}
fmt.Fprintln(w, string(data))
elapsed := time.Since(start)
fmt.Println("Date:", time.Now(), "Response time:", elapsed)
points.Data = nil
data = nil
}
func checkErr(err error) {
if err != nil {
panic(err)
}
}
func main() {
http.HandleFunc("/", sportsmanPoints)
err := http.ListenAndServe(":9090", nil)
if err != nil {
log.Fatal("ListenAndServe: ", err)
}
}
谢谢。
答案 0 :(得分:3)
每次对服务器发出请求时,您都将连接到处理程序中的数据库。仅此操作就可能需要数秒钟。一旦处理程序返回,您就可以丢弃该连接(您甚至不会关闭该连接,因此在关闭之前可能会空闲一段时间,因为连接很可能受到服务器的限制,因此会占用db服务器资源)。不要那样做。
在应用启动时一次连接到数据库,并在处理程序中使用此连接。数据库将保持空闲连接处于打开状态,如果您在另一个请求中需要它,可以立即重用。
将db
变量移到外部,例如到包级变量,请连接到您的数据库,然后一次初始化此db
变量,例如在您的main()
或包init()
函数中,然后在处理程序中使用它即可。
sql.Open()
文档证明:
返回的数据库可安全地供多个goroutine并发使用,并维护其自己的空闲连接池。因此,Open函数应仅被调用一次。几乎不需要关闭数据库。
看到类似的问题:mgo - query performance seems consistently slow (500-650ms)
答案 1 :(得分:0)
SELECT sp_no, first_name FROM sportsmen LIMIT ?,20", rand.Intn(100000)
糟糕的表现。结果很差。
它将仅从表格的前1/3中进行选择(cf 100000与300000)。
偶尔会选择相同的20个或重叠的20个。
在找到20个之前,它必须跳过多达100000行。(这是性能问题。)
对于这三个问题,我有多种改进方法:http://mysql.rjweb.org/doc.php/random
通过加快查询速度,“太多连接”可能会消失。