在使用mysql时候,某些字段会存储中文字符,或是包含中文字符的串,查询出来的方法是:
1 | SELECT column FROM table WHERE length(column) != char_length(column) |
原理其实很简单,当字符集为UTF-8,并且字符为中文时,length() 和 char_length() 两个方法返回的结果是不相同的。
在使用mysql时候,某些字段会存储中文字符,或是包含中文字符的串,查询出来的方法是:
1 | SELECT column FROM table WHERE length(column) != char_length(column) |
原理其实很简单,当字符集为UTF-8,并且字符为中文时,length() 和 char_length() 两个方法返回的结果是不相同的。
1 | ALTER TABLE table_name ADD PARTITION( PARTITION partition_name VALUES LESS THAN (1672502400000) ); |
1 | ALTER TABLE table_name DROP PARTITION partition_name; |
1 | SELECT TABLE_NAME, COUNT(*) AS CNT FROM information_schema.PARTITIONS WHERE PARTITION_NAME IS NOT NULL GROUP BY TABLE_NAME ORDER BY CNT DESC LIMIT 50 |
原理:利用存储过程+定时任务实现自动创建分区
auto_create_partition为创建表分区,调用后为该表创建到下月结束的表分区
1 | DELIMITER $$ |
首先要先介绍一下InnoDB逻辑存储结构和区的概念,它的所有数据都被逻辑地存放在表空间,表空间又由段,区,页组成。

段
段就是上图的segment区域,常见的段有数据段、索引段、回滚段等,在InnoDB存储引擎中,对段的管理都是由引擎自身所完成的。
区
区就是上图的extent区域,区是由连续的页组成的空间,无论页的大小怎么变,区的大小默认总是为1MB。为了保证区中的页的连续性,InnoDB存储引擎一次从磁盘申请4-5个区,InnoDB页的大小默认为16kb,即一个区一共有64(1MB/16kb=16)个连续的页。每个段开始,先用32页(page)大小的碎片页来存放数据,在使用完这些页之后才是64个连续页的申请。这样做的目的是,对于一些小表或者是undo类的段,可以开始申请较小的空间,节约磁盘开销。
页
页就是上图的page区域,也可以叫块。页是InnoDB磁盘管理的最小单位。默认大小为16KB,可以通过参数innodb_page_size来设置。常见的页类型有:数据页,undo页,系统页,事务数据页,插入缓冲位图页,插入缓冲空闲列表页,未压缩的二进制大对象页,压缩的二进制大对象页等。
分区
这里讲的分区,此“区”非彼“区”,这里讲的分区的意思是指将同一表中不同行的记录分配到不同的物理文件中,几个分区就有几个.idb文件,不是我们刚刚说的区。MySQL在5.1时添加了对水平分区的支持。分区是将一个表或索引分解成多个更小,更可管理的部分。每个区都是独立的,可以独立处理,也可以作为一个更大对象的一部分进行处理。这个是MySQL支持的功能,业务代码无需改动。要知道MySQL是面向OLTP的数据,它不像TIDB等其他DB。那么对于分区的使用应该非常小心,如果不清楚如何使用分区可能会对性能产生负面的影响。
MySQL数据库的分区是局部分区索引,一个分区中既存了数据,又放了索引。也就是说,每个区的聚集索引和非聚集索引都放在各自区的(不同的物理文件)。目前MySQL数据库还不支持全局分区。
无论哪种类型的分区,如果表中存在主键或唯一索引时,分区列必须是唯一索引的一个组成部分。
目前MySQL支持一下几种类型的分区,RANGE分区,LIST分区,HASH分区,KEY分区。如果表存在主键或者唯一索引时,分区列必须是唯一索引的一个组成部分。实战十有八九都是用RANGE分区。
RANGE分区
RANGE分区是实战最常用的一种分区类型,行数据基于属于一个给定的连续区间的列值被放入分区。但是记住,当插入的数据不在一个分区中定义的值的时候,会抛异常。RANGE分区主要用于日期列的分区,比如交易表啊,销售表啊等。可以根据年月来存放数据。如果你分区走的唯一索引中date类型的数据,那么注意了,优化器只能对YEAR(),TO_DAYS(),TO_SECONDS(),UNIX_TIMESTAMP()这类函数进行优化选择。实战中可以用int类型,那么只用存yyyyMM就好了。也不用关心函数了。
1 | CREATE TABLE `m_test_db`.`Order` ( |
这时候我们先插入一些数据
1 | INSERT INTO `m_test_db`.`Order` (`id`, `partition_key`, `amt`) VALUES ('1', '201901', '1000'); |
现在我们查询一下,通过EXPLAIN PARTITION命令发现SQL优化器只需搜对应的区,不会搜索所有分区。

如果sql语句有问题,那么会走所有区。会很危险。所以分区表后,select语句必须走分区键。

以下3种不是太常用,就一笔带过了。
LIST分区
LIST分区和RANGE分区很相似,只是分区列的值是离散的,不是连续的。LIST分区使用VALUES IN,因为每个分区的值是离散的,因此只能定义值。
HASH分区
说到哈希,那么目的很明显了,将数据均匀的分布到预先定义的各个分区中,保证每个分区的数量大致相同。
KEY分区
KEY分区和HASH分区相似,不同之处在于HASH分区使用用户定义的函数进行分区,KEY分区使用数据库提供的函数进行分区。
一项技术,不是用了就一定带来益处。比如显式锁功能比内置锁强大,你没玩好可能导致很不好的情况。分区也是一样,不是启动了分区数据库就会运行的更快,分区可能会给某些sql语句性能提高,但是分区主要用于数据库高可用性的管理。数据库应用分为2类,一类是OLTP(在线事务处理),一类是OLAP(在线分析处理)。对于OLAP应用分区的确可以很好的提高查询性能,因为一般分析都需要返回大量的数据,如果按时间分区,比如一个月用户行为等数据,则只需扫描响应的分区即可。在OLTP应用中,分区更加要小心,通常不会获取一张大表的10%的数据,大部分是通过索引返回几条数据即可。
比如一张表1000w数据量,如果一句select语句走辅助索引,但是没有走分区键。那么结果会很尴尬。如果1000w的B+树的高度是3,现在有10个分区。那么不是要(3+3)*10次的逻辑IO?(3次聚集索引,3次辅助索引,10个分区)。所以在OLTP应用中请小心使用分区表。
在日常开发中,如果想查看sql语句的分区查询结果可以使用explain partitions + select sql来获取,partitions标识走了哪几个分区。
1 | mysql> explain partitions select * from TxnList where startTime>'2016-08-25 00:00:00' and startTime<'2016-08-25 23:59:00'; |
分表从表面意思说就是把一张表分成多个小表,分区则是把一张表的数据分成N多个区块,这些区块可以在同一个磁盘上,也可以在不同的磁盘上。
分表和分区的区别
1,实现方式上
mysql的分表是真正的分表,一张表分成很多表后,每一个小表都是完正的一张表,都对应三个文件(MyISAM引擎:一个.MYD数据文件,.MYI索引文件,.frm表结构文件)。
2,数据处理上
分表后数据都是存放在分表里,总表只是一个外壳,存取数据发生在一个一个的分表里面。分区则不存在分表的概念,分区只不过把存放数据的文件分成了许多小块,分区后的表还是一张表,数据处理还是由自己来完成。
3,提高性能上
分表后,单表的并发能力提高了,磁盘I/O性能也提高了。分区突破了磁盘I/O瓶颈,想提高磁盘的读写能力,来增加mysql性能。
分表
分表和分区类似,区别是,分区是把一个逻辑表文件分成几个物理文件后进行存储,而分表则是把原先的一个表分成几个表。进行分表查询时可以通过union或者视图。
分表又分垂直分割和水平分割,其中水平分分割最为常用。水平分割通常是指切分到另外一个数据库或表中。例如对于一个会员表,按对3的模进行分割:
table = id%3
如果id%3 = 0 则将用户数据放入到user_0表中,如id%3=1就放入user_1表中,依次类推。
对于一些流量统计系统,其数据量比较大,并且对过往数据的关注度不高,这时按年、月、日进行分表,将每日统计信息放到一个以日期命名的表中;或者按照增量进行分表,如每个表100万数据,超过100万就放入第二个表。还可以按Hash进行分表,但是按日期和取模余数分表最为常见,也容易扩展。
分表后可能会遇到新的问题,那就是查询,分页和统计。通用的方法是在程序中进行处理,辅助视图。
作者:赵伟链接:https://www.zhihu.com/question/378240599/answer/1077561855来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
在单机mysql实例(不是分布式数据库 的情况下)使用分区表的原因,主要是因为单表数据量太大导致索引过大,从而降低了查询性能。
考虑一个巨大的单表并且主键字段较大的最坏情形,我们来计算一下主表b+树的高度。
例子1。 比如单表100亿行,每行数据平均占用1000字节的存储空间,16KB的page size,那么主表页节点就要占用约10TB空间,约7亿个页面。假设主键占用空间较大导致内节点每个索引行平均占据256字节,于是每个内节点页面存放64个索引行。那么主表b+树的高度就是
1 1 + ceiling(lg(64, 700000000)) = 6,假设主键索引取的非常蠢导致内节点每个索引行占据512字节,那么主表b+树的高度是
1 1 + ceiling(lg(32, 700000000)) = 7.例子2。 假设上述数据只有1千万行,那么用相同的方法计算可得主表b+树的高度分别是4 (256字节的主键索引)和5(512字节的主键索引) — 高度只相差2。
假设例子1的主表真的做了1000个分区那么每个分区表就是例子2的主表,那么通过分区,可以让每次树搜索减少2次页面获取(极大概率从buffer pool获取,否则系统性能无法实用)。 这个差别确实会导致例子2查询性能有所提升,但是区别其实并不大。
另外,分区后另一个性能优势是分散了根节点的访问,从而提升并发性能。不过要知道b+树做遍历并不会持有内节点页面的事务锁,只需要短暂持有根结点页面的read latch,所以除了页面分裂(低频操作)以外的遍历,是可以并发执行的。
综上,我认为这单机做表分区获得的性能提升的理论上限很有限,估计也就10%以内,随数据和查询特征略有波动,随数据库系统的实现也有不同。感兴趣的同学可以使用postgresql或者mysql做一个实验对比一下。在不同的数据库系统实现中,分区表的实际性能与单表相比,提升各不相同,甚至未必能提升,甚至会降低。
mysql分区表的详情如下。
首先,如果很多表都做分区,会导致mysql innodb数据目录下文件数目非常多(比如1000个表分区会产生2000个文件),从而使操作系统的文件系统工作效率降低。并且由于mysql打开表文件的数目限制(该限制虽然可以手动修改但是也受限与操作系统可用资源量)从而导致打开的表反复被淘汰和重新打开,从而降低了所有查询的性能。
在mysql5.7的早期版本中,分区表的实现性能较差,与相同数据量的单表相比性能下降约10%。后来在mysql5.7.19才做了优化,可以去http://bugs.mysql.com上面看一下这个bug。但是即使这个bug修复之后,分区表仍然比相同数据量的单表有大约5%的性能下降(8个分区,100GB数据量,sysbench oltp测例)。
在上例中如果单表占据10TB空间那么单个服务器节点的计算资源(内存,cpu,存储)恐怕已经无法支持业务运行了,所以大概率还是要做分库分表才行。而如果单表只有1TB以内的空间那么完全没必要做表分区。也就是说,在单节点mysql实例中做表分区并没有什么必要,也不会有明显的性能优势。
如果是做分库分表的话,那么通过分区表来实现分库分表是一些简单的分表中间件常用的方法,也比较有效。在昆仑分布式数据库中,我们在计算节点中实现分库分表,在存储节点中永远使用单表做存储,不使用分区表,就是基于上述mysql分区表性能降低的原因。
1 | 2021-12-14 18:42:54.401 WARN 9328 --- [ main] ConfigServletWebServerApplicationContext : Exception encountered during context initialization - cancelling refresh attempt: org.springframework.beans.factory.BeanCreationException: Error creating bean with name 'referenceAnnotationBeanPostProcessor': Instantiation of bean failed; nested exception is org.springframework.beans.BeanInstantiationException: Failed to instantiate [org.apache.dubbo.config.spring.beans.factory.annotation.ReferenceAnnotationBeanPostProcessor]: Constructor threw exception; nested exception is java.lang.NoSuchMethodError: org.apache.dubbo.config.spring.beans.factory.annotation.ReferenceAnnotationBeanPostProcessor.setClassValuesAsString(Z)V |
添加依赖
1 | <dependency> |
静脉血栓栓塞症(Venous Thromboembolism,VTE)包括深静脉血栓形成(Deep vein thrombosis,DVT)和肺血栓栓塞症(Pulmonary thromboembolism,PTE),大部分PTE由DVT的血栓脱落造成。无论是内科、外科、肿瘤科、妇产科乃至儿科,VTE均不少见。不同科室患者的VTE事件与患者不同的危险因素相关,因此针对VTE的诊治也衍生出了不同的评分系统。
内科患者的VTE危险因素包括遗传性及获得性易栓症、感染、肿瘤、激素治疗、心力衰竭、呼吸衰竭等。2010年,Barbar等提出用于内科患者的VTE风险评估工具—Padua评分(中文版见表1),总分20分,评分>4分为VTE高危患者,评分<4分为VTE低危患者。

外科患者的VTE风险不仅包括了内科患者的所有风险,手术本身也是导致VTE的重要因素,且不同手术级别风险存在差异。因此,针对外科患者的VTE风险评分更为复杂。该评分于2005年由学者Joseph A. Caprini提出(中文版见表2),根据不同的风险具有1、2、3、5分项,每项评分可累加。根据分值评估VTE风险为:低危(0分)、低危(1~2分)、中危(3~4分)、高危(>5分)。

肿瘤同样是VTE形成的高危因素,除了肿瘤局部压迫导致血流淤滞之外,肿瘤本身可分泌细胞因子,导致凝血系统的激活,不同的肿瘤VTE风险存在差异。Khorana评分(见表3)被用于肿瘤化疗患者VTE的风险评估。Khorana评分总分7分;0分为低危; 1~2分为中危;≥3分为高危。

上述评分用于评估住院患者VTE的风险,与之相区别,当接诊一位患者,结合症状及检查考虑PTE时,可行Wells 评分(见表4)和 Geneva 评分(见表5)评估其可能性。目前,临床上为了便于记忆和应用,这两个量表均衍生出了简化版。
Wells评分原始版结果有二分类法和三分类法:二分类法0~4分为可能性小,≥5分为可能;三分类法总分0~1分为低度可能,2~6分为中度可能,≥7分为高度可能。简化版仅有二分类法:0~1分为可能性小,≥2分为可能。
Geneva评分原始版和简化版均有二分类法和三分类法。原始版:二分类法0~5分为可能性小,≥6分为可能;三分类法总分0~3分为低度可能,4~10分为中度可能,≥11分为高度可能。简化版:二分类法0~2分为可能性小,≥3分为可能;三分类法0~1分为低度可能,2~4分为中度可能,≥5分为高度可能。


临床上已经确诊PTE的患者,除了通过症状、监测血流动力学及心脏超声评估病情以外,可应用PESI评估其严重程度。目前,临床应用较多的是其简化版(sPESI)(见表6)。sPESI≥1分归为中危,sPESI=0分归为低危。sPESI≥1分者30 d全因死亡率明显升高。

VTE曾被认为是罕见病,随着诊疗技术的进步和医患对该病的认知提升,VTE的诊断率不断提高。其中,PTE已成为住院患者院内死亡的主要疾病之一。不同患者产生VTE的危险因素各异。临床工作中,应根据不同的人群选择合适的评分量表,尽早识别VTE高危患者,采取预防和治疗措施。