pt-archiver

1.pt-archiver简介

pt-archiver可以很轻松的将生产环境的历史数据归档到文件或者直接删除,还可以不同主机间同步数据,而不用将数据落盘(不用导出导入),类似oracle的impdp+dblink一样方便。

参数列表
--analyze
    # 指定工具完成数据归档后对表执行'ANALYZE TABLE'操作。指定方法如'--analyze=ds',s代表源端表,d代表目标端表,也可以单独指定。

--ask-pass
    # 命令行提示密码输入,保护密码安全,前提需安装模块perl-TermReadKey。

--buffer
    # 指定缓冲区数据刷新到选项'--file'指定的文件并且在提交时刷新。
    # 只有当事务提交时禁用自动刷新到'--file'指定的文件和刷新文件到磁盘,这意味着文件是被操作系统块进行刷新,因此在事务进行提交之前有一些数据隐式刷新到磁盘。默认是每一行操作后进行文件刷新到磁盘。

--bulk-delete
    # 指定单个语句删除chunk的方式来批量删除行,会隐式执行选项'--commit-each'。
    # 使用单个DELETE语句删除每个chunk对应的表行,通常的做法是通过主键进行逐行的删除,批量删除在速度上会有很大的提升,但如果有复杂的'WHERE'条件就可能会更慢。

--[no]bulk-delete-limit
    # 默认值:yes
    # 指定添加选项'--bulk-delete'和'--limit'到进行归档的语句中。

--bulk-insert
    # 使用LOAD DATA LOCAL INFILE的方法,通过批量插入chunk的方式来插入行(隐式指定选项'--bulk-delete'和'--commit-each')
    # 而不是通过逐行单独插入的方式进行,它比单行执行INSERT语句插入的速度要快。通过隐式创建临时表来存储需要批量插入的行(chunk),而不是直接进行批量插入操作,当临时表中完成每个chunk之后再进行统一数据加载。为了保证数据的安全性,该选项会强制使用选项'--bulk-delete',这样能够有效保证删除是在插入完全成功之后进行的。

--channel
    # 指定当主从复制环境是多源复制时需要进行归档哪个主库的数据,适用于多源复制中多个主库对应一个从库的情形。

--charset,-A
    # 指定连接字符集。

--[no]check-charset
    # 默认值:yes
    # 指定检查确保数据库连接时字符集和表字符集相同。

--[no]check-columns
    # 默认值:yes
    # 指定检查确保选项'--source'指定的源端表和'--dest'指定的目标表具有相同的字段。
    # 不检查字段在表的排序和字段类型,只检查字段是否在源端表和目标表当中都存在,如果有不相同的字段差异,则工具报错退出。如果需要禁用该检查,则指定'--no-check-columns'。

--check-slave-lag
    # 指定主从复制延迟大于选项'--max-lag'指定的值之后暂停归档操作。默认情况下,工具会检查所有的从库,但该选项只作用于指定的从库(通过DSN连接方式)。

--check-interval
    # 默认值:1s
    # 如果同时指定了选项'--check-slave-lag',则该选项指定的时间为工具发现主从复制延迟时暂停的时间。每进行操作100行时进行一次检查。

--columns,-c
    # 指定需要归档的表字段,如有多个则用','(逗号)隔开。

--commit-each
    # 指定按每次获取和归档的行数进行提交,该选项会禁用选项'--txn-size'。
    # 在每次获取表数据并进行归档之后,在获取下一次数据和选项'--sleep'指定的休眠时间之前,进行事务提交和刷新选项'--file'指定的文件,通过选项'--limit'控制事务的大小。

--host,-h
    # 指定连接的数据库IP地址。

--port,-P
    # 指定连接的数据库Port端口。

--user,-u
    # 指定连接的数据库用户。

--password,-p
    # 指定连接的数据库用户密码。

--socket,-S
    # 指定使用SOCKET文件连接。
        
--databases,-d
    # 指定连接的数据库

--source
    # 指定需要进行归档操作的表,该选项是必须指定的选项,使用DSN方式表示。

--dest
    # 指定要归档到的目标端表,使用DSN方式表示。
    # 如果该选项没有指定的话,则默认与选项'--source'指定源端表为相同表。

--where
    # 指定通过WHERE条件语句指定需要归档的数据,该选项是必须指定的选项。不需要加上'WHERE'关键字,如果确实不需要WHERE条件进行限制,则指定'--where 1=1'。

--file
    # 指定表数据需要归档到的文件。使用类似MySQL DATE_FORMAT()格式化命名方式。
    # 文件内容与MySQL中SELECT INTO OUTFILE语句使用相同的格式,文件命名选项如下所示:
    # %Y:年,4位数(Year, numeric, four digits)         
    # %m:月,2位数(Month, numeric (01..12))          
    # %d:日,2位数(Day of the month, numeric (01..31))     
    # %H:小时(Hour (00..23))                  
    # %i:分钟(Minutes, numeric (00..59))            
    # %s:秒(Seconds (00..59))             
    # %D:数据库名(Database name)            
    # %t:表名(Table name)                   

    # 例如:--file '/var/log/archive/%Y-%m-%d-%D.%t.sql'
    '

--output-format
    # 指定选项'--file'文件内容输出的格式。
    # 默认不指定该选项是以制表符进行字段的分隔符,如果指定该选项,则使用','(逗号)作为字段分隔符,使用'"'(双引号)将字段括起。用法示例:'--output-format=dump'。

--for-update
    # 指定为每次归档执行的SELECT语句添加FOR UPDATE子句。

--share-lock
    # 指定为每次归档执行的SELECT语句添加LOCK IN SHARE MODE子句。

--header
    # 指定在文件中第一行写入字段名称作为标题。

--ignore
    # 指定为INSERT语句添加IGNORE选项。

--limit
    # 默认值:1
    # 指定每条语句获取表和归档表的行数。

--local
    # 指定不将OPTIMIZE和ANALYZE语句写入binlog。

--max-lag
    # 默认值:1s
    # 指定允许主从复制延迟时长的最大值,单位秒。如果在每次获取行数据之后主从延迟超过指定的值,则归档操作将暂停执行,暂停休眠时间为选项'--check-interval'指定的值。
    # 待休眠时间结束之后再次检查主从延迟时长,检查方法是通过从库查询的'Seconds_Behind_Master'值来确定。如果主从复制延迟一直大于该参数指定值或者从库停止复制,则操作将一直等待直到从库重新启动并且延迟小于该参数指定值。

--no-delete
    # 指定不删除已被归档的表数据。

--optimize
    # 指定工具完成数据归档后对表执行'OPTIMIZE TABLE'操作。指定方法如'--analyze=ds',s代表源端表,d代表目标端表,也可以单独指定。

--primary-key-only
    # 指定只归档主键字段,是选项'--columns=主键'的简写。
    # 如果工具归档的操作是进行DELETE清除时最有效,因为只需读取主键一个字段而无需读取行所有字段。

--progress
    # 指定每多少行打印进度信息,打印当前时间,已用时间以及多少行进行归档。

--purge
    # 指定执行的清除操作而不是归档操作。允许忽略选项'--dest'和'--file'进行操作,如果只是清除操作可以结合选项'--primary-key-only'会更高效。

--quiet,-q
    # 指定工具静默执行,不输出任何的执行信息。

--replace
    # 指定写入选项'--dest'指定目标端表时改写INSERT语句为REPLACE语句。

--retries
    # 默认值:1
    # 指定归档操作遇到死锁或超时的重试次数。当重试次数超过该选项指定的值时,工具将报错退出。

--run-time
    # 指定工具归档操作在退出之前需要运行的时间。允许的时间后缀名为s=秒,m=分,h=小时,d=天,如果没指定,默认为s。

--[no]safe-auto-increment
    # 默认值:yes
    # 指定不使用自增列(AUTO_INCREMENT)最大值对应的行进行归档。
    # 该选项在进行归档清除时会额外添加一条WHERE子句以防止工具删除单列升序字段具有的具有AUTO_INCREMENT属性最大值的数据行,为了在数据库重启之后还能使用到AUTO_INCREMENT对应的值,但这会引起无法归档或清除字段对应最大值的行。

--set-vars
    # 默认:
    #     wait_timeout=10000
    #     innodb_lock_wait_timeout=1
    #     lock_wait_timeout=60
    # 工具归档时指定参数值,如有多个用','(逗号)分隔。如'--set-vars=wait_timeout=5000'。

--skip-foreign-key-checks
    # 指定使用语句SET FOREIGN_KEY_CHECKS = 0禁用外键检查。

--sleep
    # 指定工具在通过SELECT语句获取归档数据需要休眠的时间,默认值是不进行休眠。在休眠之前事务并不会提交,并且选项'--file'指定的文件不会被刷新。如果指定选项'--commit-each',则在休眠之前会进行事务提交和文件刷新。

--statistics
    # 指定工具收集并打印操作的时间统计信息。
    # 统计信息示例如下:
    # Started at 2008-07-18T07:18:53, ended at 2008-07-18T07:18:53
    # Source: D=db,t=table
    # SELECT 4
    # INSERT 4
    # DELETE 4
    # Action         Count       Time        Pct
    # commit            10     0.1079      88.27
    # select             5     0.0047       3.87
    # deleting           4     0.0028       2.29
    # inserting          4     0.0028       2.28
    # other              0     0.0040       3.29

--txn-size
    # 默认:1
    # 指定每个事务处理的行数。如果是0则禁用事务功能。

--version
    # 显示工具的版本并退出。

--[no]version-check
    # 默认值:yes
    # 检查Percona Toolkit、MySQL和其他程序的最新版本。

--why-quit
    # 指定工具打印当非因完成归档行数退出的原因。
    # 在执行一个自动归档任务时该选项与选项'--run-time'一起使用非常方便,这样可以确定归档任务是否在指定的时间内完成。如果同时指定了选项'--statistics',则会打印所有退出的原因。
示例环境:
    数据库服务器:
        172.20.4.125:5306/big_data
    归档服务器:
        172.20.4.130:/backup

2.归档数据到文件

需求:
    将big_data数据库中city表的数据归档到172.20.4.130:/backup下

注意:
    表一定要有主键啊,否则很多功能不能用,innodb表没有主键也是够了。

在192.168.56.101上安装pt-archiver,然后归档:
    命令如下:
        pt-archiver --source h=172.20.4.125,u=root,p=root@123,P=5306,D=big_data,t=instance_info,A=utf8mb4 --no-delete --file '/backup/%Y-%m-%d-%D.%t.sql' --where "1=1" --share-lock --statistics --progress 500 --limit 500 --txn-size 500
    
    参数解释:
        --source: # 指定目标表信息,我们只是将表备份到文件,只需指定source即可
        --share-lock:# 给表加上LOCK IN SHARE MODE,提供读一致性
        h:# 主机IP
        u:# 数据库用户
        p:# 密码
        D:# 数据库名
        t:# 表名
        A:# 字符集
        --no-delete:# 归档数据后,不删除源表数据(如果需要删除源表数据,--no-delete改为--purge即可)
        --file:# 数据存放的文件,最好指定绝对路径,文件名可以灵活地组合。
        --where:# 删除表中指定的数据,根据自己的需求限定,全部删除就给1=1即可
        --statistics:# 打印出整个归档过程的统计信息
        --limit:# 每次fecth多少行数据,类似游标获取,默认为1。增改该值,有助于加速归档
        --progress:# 打印导出过程中的信息,当前时间,当前一共耗费多少时间,当前fetch数据行数
        --txn-size:# 每个事物提交的数据行数,批量提交。增加该值可以提升归档性能。
        

 

 

3.归档数据到表(逐行进行归档)

注意:
    1.在归档时,目的端必须有要归档表的表结构
    2.--no-delete,归档表数据,但不删除源端表已归档数据,删除源表数据,--purge
    3.--ask-pass自动输入密码
    4.逐行进行归档使用的是insert方式进行在目标端插入的
    
命令:
    pt-archiver --source h=172.20.4.125,u=root,p=root@123,P=5306,D=big_data,t=instance_info,A=utf8mb4 --dest h=172.20.4.130,P=3306,u=root,p=root@123,D=big_data_backup,t=instance_info,A=utf8mb4 --charset=utf8mb4 --where "1=1" --progress=50 --txn-size=1000 --statistics --no-delete 

返回结果:
    Started at 2022-03-02T11:23:49, ended at 2022-03-02T11:25:21 # 逐行归档消耗大约11:25:21-11:23:49=92秒
    Source: A=utf8mb4,D=big_data,P=5306,h=172.20.4.125,p=...,t=instance_info,u=root
    Dest:   A=utf8mb4,D=big_data_backup,P=3306,h=172.20.4.130,p=...,t=instance_info,u=root
    SELECT 147451
    INSERT 147451
    DELETE 0
    Action         Count       Time        Pct
    select        147452    54.1756      58.95
    inserting     147451    26.7692      29.13
    commit           296     0.3697       0.40
    other              0    10.5861      11.52

 

4.归档数据导表(批量进行归档)

注意:
    1.批量进行归档涉及的选项是--limit
    2.批量进行插入涉及的选项为--bulk-insert,指定选项--bulk-insert同时也会指定选项--bulk-delete
    3.如果不删除已归档数据,则需要指定选项--no-delete,删除源表数据,--purge
    4.--ask-pass自动输入密码
    5.批量进行归档使用的是LOAD DATA INFILE方式进行在目标端导入的
    
命令:
    pt-archiver --source h=172.20.4.125,u=root,p=root@123,P=5306,D=big_data,t=instance_info,A=utf8mb4 --dest h=172.20.4.130,P=3306,u=root,p=root@123,D=big_data_backup,t=instance_info,A=utf8mb4 --charset=utf8mb4 --where "1=1" --progress=50 --txn-size=1000 --limit=50 --statistics --bulk-insert  --no-delete 
    
    
返回结果:
    Started at 2022-03-02T11:13:35, ended at 2022-03-02T11:14:09 # 批量归档消耗大约11:14:09-11:13:35=36秒,相同数据量,比逐行归档要少一分钟的时间
    Source: A=utf8mb4,D=big_data,P=5306,h=172.20.4.125,p=...,t=instance_info,u=root
    Dest:   A=utf8mb4,D=big_data_backup,P=3306,h=172.20.4.130,p=...,t=instance_info,u=root
    SELECT 147451
    INSERT 147451
    DELETE 0
    Action         Count       Time        Pct
    inserting     147451    24.7381      72.54
    select          2951     1.8590       5.45
    commit           296     0.3743       1.10
    other              0     7.1307      20.91

 

5.清除表数据

注意:
    如果只是进行表数据清除操作而不做归档操作,则可以忽略选项--dest或--file,通过指定选项--purge,可以先使用选项--dry-run打印查询需要清除数据的执行语句,做好确认之后再执行。

命令:
    1.确认要清除的数据
        pt-archiver --source h=172.20.4.125,P=5306,u=root,p=root@123,D=big_data,t=instance_info,A=utf8mb4 --purge --charset=utf8mb4 --where "1=1" --progress=50 --txn-size=1000 --limit=50 --statistics  --dry-run
        返回结果:
            # SELECT /*!40001 SQL_NO_CACHE */ `id`,`instance_name`,`host_ip`,`instance_port`,`table_schema`,`table_name`,`table_rows`,`data_size`,`index_size`,`data_free`,`create_time`,`info`,`is_true` FROM `big_data`.`instance_info` FORCE INDEX(`PRIMARY`) WHERE (1=1) AND (`id` < '149844') ORDER BY `id` LIMIT 50
            # SELECT /*!40001 SQL_NO_CACHE */ `id`,`instance_name`,`host_ip`,`instance_port`,`table_schema`,`table_name`,`table_rows`,`data_size`,`index_size`,`data_free`,`create_time`,`info`,`is_true` FROM `big_data`.`instance_info` FORCE INDEX(`PRIMARY`) WHERE (1=1) AND (`id` < '149844') AND ((`id` >= ?)) ORDER BY `id` LIMIT 50
            # DELETE FROM `big_data`.`instance_info` WHERE (`id` = ?)
        
    2.执行清除操作
        pt-archiver --source h=172.20.4.125,P=5306,u=root,p=root@123,D=big_data,t=instance_info,A=utf8mb4 --purge --charset=utf8mb4 --where "1=1" --progress=50 --txn-size=1000 --limit=50 --statistics  
        返回结果:
            Started at 2022-03-02T11:45:22, ended at 2022-03-02T11:46:13 # 逐行清除花费时间为50s
            Source: A=utf8mb4,D=big_data,P=5306,h=172.20.4.125,p=...,t=instance_info,u=root
            SELECT 147451
            INSERT 0
            DELETE 147451
            Action        Count       Time        Pct
            deleting     147451    41.5617      81.99
            select         2951     1.9274       3.80
            commit          148     0.2500       0.49
            other             0     6.9499      13.71

    
    
    3.批量清除操作 # 指定--bulk-delete进行批量清除操作
        pt-archiver --source h=172.20.4.125,P=5306,u=root,p=root@123,D=big_data,t=instance_info,A=utf8mb4 --purge --charset=utf8mb4 --where "1=1" --progress=50 --txn-size=1000 --bulk-delete --limit=50 --statistics  
        返回结果:
            Started at 2022-03-02T11:51:13, ended at 2022-03-02T11:51:19 # 批量清除花费时间为6s
            Source: A=utf8mb4,D=big_data,P=5306,h=172.20.4.125,p=...,t=instance_info,u=root
            SELECT 147451
            INSERT 0
            DELETE 147451
            Action             Count       Time        Pct
            bulk_deleting       2950     1.6117      29.80
            select              2951     1.5777      29.17
            commit               148     0.1248       2.31
            other                  0     2.0951      38.73

 

6.表自增字段处理

注意:
    默认情况下,pt-archiver工具在进行表数据归档或是清除时,通过添加WHERE子句条件限制具有AUTO_INCREMENT属性字段所对应的数据行操作。
    这是为了在数据库重启之后,之前AUTO_INCREMENT对应的值还可以使用()。但这会造成归档数据少一条或是清除数据少一条的情况

    为了不保护AUTO_INCREMENT属性最大值的数据行,工具提供了选项--no-safe-auto-increment。

 

pass

 

上一篇:关于我想写个脚本,最后却搞了个桌面宠物这件事(二)


下一篇:SkyWalking在JAVA9及以上版本运行时报错module java.base does not "opens java.lang" to unnamed module