就是说同样的算法在小于某数據量时,随着数据量增加处理时间呈线性增长而到了一个临界值,时间增长幅度会突然增大有人做过类似实验吗?前提是不随着数据量增大而优化数据库比...
就是说同样的算法,在小于某数据量时随着数据量增加处理时间呈线性增长,而到了一个临界值时间增长幅喥会突然增大?有人做过类似实验吗前提是不随着数据量增大而优化数据库。
比如说GB级还是TB级时?
比如说GB级还是TB级时?
如果一次把所有数据都取出来的这種时间随数据增加而增加,这是没有转折点的问题
如果是按索引查找,主要看表设计及表索引的情况
因为索引的层级,多一级就多查找一次肯定是分级的时候会有突然增加。
你对这个回答的评价是
如果一次把所有数据都取出来的这種时间随数据增加而增加,这是没有转折点的问题
如果是按索引查找,主要看表设计及表索引的情况
因为索引的层级,多一级就多查找一次肯定是分级的时候会有突然增加。
你对这个回答的评价是