服务器之家:专注于服务器技术及软件下载分享
分类导航

Mysql|Sql Server|Oracle|Redis|MongoDB|PostgreSQL|Sqlite|DB2|mariadb|Access|数据库技术|

服务器之家 - 数据库 - Mysql - MySQL Shell import_table数据导入的实现

MySQL Shell import_table数据导入的实现

2021-09-16 17:11ZhenXing_Yu Mysql

这篇文章主要介绍了MySQL Shell import_table数据导入的实现,文中通过示例代码介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们可以参考一下

1. import_table介绍

上期技术分享我们介绍了MySQL Load Data的4种常用的方法将文本数据导入到MySQL,这一期我们继续介绍另一款更加高效的数据导入工具,MySQL Shell 工具集中的import_table,该工具的全称是Parallel Table Import Utility,顾名思义,支持并发数据导入,该工具在MySQL Shell 8.0.23版本后,功能更加完善, 以下列举该工具的核心功能

  • 基本覆盖了MySQL Data Load的所有功能,可以作为替代品使用
  • 默认支持并发导入(支持自定义chunk大小)
  • 支持通配符匹配多个文件同时导入到一张表(非常适用于相同结构数据汇总到一张表)
  • 支持限速(对带宽使用有要求的场景,非常合适)
  • 支持对压缩文件处理
  • 支持导入到5.7及以上MySQL
2. Load Data 与 import table功能示例

该部分针对import table和Load Data相同的功能做命令示例演示,我们依旧以导入employees表的示例数据为例,演示MySQL Load Data的综合场景

  • 数据自定义顺序导入
  • 数据函数处理
  • 自定义数据取值

 
## 示例数据如下
 
[root@10-186-61-162 tmp]# cat employees_01.csv
 
"10001","1953-09-02","Georgi","Facello","M","1986-06-26"
 
"10003","1959-12-03","Parto","Bamford","M","1986-08-28"
 
"10002","1964-06-02","Bezalel","Simmel","F","1985-11-21"
 
"10004","1954-05-01","Chirstian","Koblick","M","1986-12-01"
 
"10005","1955-01-21","Kyoichi","Maliniak","M","1989-09-12"
 
"10006","1953-04-20","Anneke","Preusig","F","1989-06-02"
 
"10007","1957-05-23","Tzvetan","Zielinski","F","1989-02-10"
 
"10008","1958-02-19","Saniya","Kalloufi","M","1994-09-15"
 
"10009","1952-04-19","Sumant","Peac","F","1985-02-18"
 
"10010","1963-06-01","Duangkaew","Piveteau","F","1989-08-24"
 
 
 
## 示例表结构
 
10.186.61.162:3306 employees SQL > desc emp;
 
+-------------+---------------+------+-----+---------+-------+
 
| Field | Type | Null | Key | Default | Extra |
 
+-------------+---------------+------+-----+---------+-------+
 
| emp_no | int | NO | PRI | NULL | |
 
| birth_date | date | NO | | NULL | |
 
| first_name | varchar(14) | NO | | NULL | |
 
| last_name | varchar(16) | NO | | NULL | |
 
| full_name | varchar(64) | YES | | NULL | | -- 表新增字段,导出数据文件中不存在
 
| gender | enum('M','F') | NO | | NULL | |
 
| hire_date | date | NO | | NULL | |
 
| modify_date | datetime | YES | | NULL | | -- 表新增字段,导出数据文件中不存在
 
| delete_flag | varchar(1) | YES | | NULL | | -- 表新增字段,导出数据文件中不存在
 
+-------------+---------------+------+-----+---------+-------+
复制代码 2.1 用Load Data方式导入数据

具体参数含义不做说明,需要了解语法规则及含义可查看系列上一篇文章<MySQL Load Data的多种用法>


 
load data infile '/data/mysql/3306/tmp/employees_01.csv'
 
into table employees.emp
 
character set utf8mb4
 
fields terminated by ','
 
enclosed by '"'
 
lines terminated by '\n'
 
(@C1,@C2,@C3,@C4,@C5,@C6)
 
set emp_no=@C1,
 
birth_date=@C2,
 
first_name=upper(@C3),
 
last_name=lower(@C4),
 
full_name=concat(first_name,' ',last_name),
 
gender=@C5,
 
hire_date=@C6 ,
 
modify_date=now(),
 
delete_flag=if(hire_date<'1988-01-01','Y','N');
复制代码

MySQL Shell import_table数据导入的实现

2.2 用import_table方式导入数据

 
util.import_table(
 
[
 
"/data/mysql/3306/tmp/employees_01.csv",
 
],
 
{
 
"schema": "employees",
 
"table": "emp",
 
"dialect": "csv-unix",
 
"skipRows": 0,
 
"showProgress": True,
 
"characterSet": "utf8mb4",
 
"columns": [1,2,3,4,5,6], ## 文件中多少个列就用多少个序号标识就行
 
"decodeColumns": {
 
"emp_no": "@1", ## 对应文件中的第1列
 
"birth_date": "@2", ## 对应文件中的第2个列
 
"first_name": "upper(@3)", ## 对应文件中的第3个列,并做转为大写的处理
 
"last_name": "lower(@4)", ## 对应文件中的第4个列,并做转为大写的处理
 
"full_name": "concat(@3,' ',@4)", ## 将文件中的第3,4列合并成一列生成表中字段值
 
"gender": "@5", ## 对应文件中的第5个列
 
"hire_date": "@6", ## 对应文件中的第6个列
 
"modify_date": "now()", ## 用函数生成表中字段值
 
"delete_flag": "if(@6<'1988-01-01','Y','N')" ## 基于文件中第6列做逻辑判断,生成表中对应字段值
 
}
 
})
复制代码

MySQL Shell import_table数据导入的实现

MySQL Shell import_table数据导入的实现

3. import_table特定功能 3.1 多文件导入(模糊匹配)

 
## 在导入前我生成好了3分单独的employees文件,导出的结构一致
 
[root@10-186-61-162 tmp]# ls -lh
 
总用量 1.9G
 
-rw-r----- 1 mysql mysql 579 324 19:07 employees_01.csv
 
-rw-r----- 1 mysql mysql 584 324 18:48 employees_02.csv
 
-rw-r----- 1 mysql mysql 576 324 18:48 employees_03.csv
 
-rw-r----- 1 mysql mysql 1.9G 326 17:15 sbtest1.csv
 
 
 
## 导入命令,其中对对文件用employees_*做模糊匹配
 
util.import_table(
 
[
 
"/data/mysql/3306/tmp/employees_*",
 
],
 
{
 
"schema": "employees",
 
"table": "emp",
 
"dialect": "csv-unix",
 
"skipRows": 0,
 
"showProgress": True,
 
"characterSet": "utf8mb4",
 
"columns": [1,2,3,4,5,6], ## 文件中多少个列就用多少个序号标识就行
 
"decodeColumns": {
 
"emp_no": "@1", ## 对应文件中的第1列
 
"birth_date": "@2", ## 对应文件中的第2个列
 
"first_name": "upper(@3)", ## 对应文件中的第3个列,并做转为大写的处理
 
"last_name": "lower(@4)", ## 对应文件中的第4个列,并做转为大写的处理
 
"full_name": "concat(@3,' ',@4)", ## 将文件中的第3,4列合并成一列生成表中字段值
 
"gender": "@5", ## 对应文件中的第5个列
 
"hire_date": "@6", ## 对应文件中的第6个列
 
"modify_date": "now()", ## 用函数生成表中字段值
 
"delete_flag": "if(@6<'1988-01-01','Y','N')" ## 基于文件中第6列做逻辑判断,生成表中对应字段值
 
}
 
})
 
 
 
## 导入命令,其中对要导入的文件均明确指定其路径
 
util.import_table(
 
[
 
"/data/mysql/3306/tmp/employees_01.csv",
 
"/data/mysql/3306/tmp/employees_02.csv",
 
"/data/mysql/3306/tmp/employees_03.csv"
 
],
 
{
 
"schema": "employees",
 
"table": "emp",
 
"dialect": "csv-unix",
 
"skipRows": 0,
 
"showProgress": True,
 
"characterSet": "utf8mb4",
 
"columns": [1,2,3,4,5,6], ## 文件中多少个列就用多少个序号标识就行
 
"decodeColumns": {
 
"emp_no": "@1", ## 对应文件中的第1列
 
"birth_date": "@2", ## 对应文件中的第2个列
 
"first_name": "upper(@3)", ## 对应文件中的第3个列,并做转为大写的处理
 
"last_name": "lower(@4)", ## 对应文件中的第4个列,并做转为大写的处理
 
"full_name": "concat(@3,' ',@4)", ## 将文件中的第3,4列合并成一列生成表中字段值
 
"gender": "@5", ## 对应文件中的第5个列
 
"hire_date": "@6", ## 对应文件中的第6个列
 
"modify_date": "now()", ## 用函数生成表中字段值
 
"delete_flag": "if(@6<'1988-01-01','Y','N')" ## 基于文件中第6列做逻辑判断,生成表中对应字段值
 
}
 
})
复制代码

MySQL Shell import_table数据导入的实现

MySQL Shell import_table数据导入的实现

3.2 并发导入

在实验并发导入前我们创建一张1000W的sbtest1表(大约2G数据),做并发模拟,import_table用threads参数作为并发配置, 默认为8个并发.


 
## 导出测试需要的sbtest1数据
 
[root@10-186-61-162 tmp]# ls -lh
 
总用量 1.9G
 
-rw-r----- 1 mysql mysql 579 324 19:07 employees_01.csv
 
-rw-r----- 1 mysql mysql 584 324 18:48 employees_02.csv
 
-rw-r----- 1 mysql mysql 576 324 18:48 employees_03.csv
 
-rw-r----- 1 mysql mysql 1.9G 326 17:15 sbtest1.csv
 
 
 
## 开启threads为8个并发
 
util.import_table(
 
[
 
"/data/mysql/3306/tmp/sbtest1.csv",
 
],
 
{
 
"schema": "demo",
 
"table": "sbtest1",
 
"dialect": "csv-unix",
 
"skipRows": 0,
 
"showProgress": True,
 
"characterSet": "utf8mb4",
 
"threads": "8"
 
})
复制代码

MySQL Shell import_table数据导入的实现

MySQL Shell import_table数据导入的实现

3.3 导入速率控制

可以通过maxRatethreads来控制每个并发线程的导入数据,如,当前配置线程为4个,每个线程的速率为2M/s,则最高不会超过8M/s


 
util.import_table(
 
[
 
"/data/mysql/3306/tmp/sbtest1.csv",
 
],
 
{
 
"schema": "demo",
 
"table": "sbtest1",
 
"dialect": "csv-unix",
 
"skipRows": 0,
 
"showProgress": True,
 
"characterSet": "utf8mb4",
 
"threads": "4",
 
"maxRate": "2M"
 
})
复制代码

MySQL Shell import_table数据导入的实现

3.4 自定义chunk大小

默认的chunk大小为50M,我们可以调整chunk的大小,减少事务大小,如我们将chunk大小调整为1M,则每个线程每次导入的数据量也相应减少


 
util.import_table(
 
[
 
"/data/mysql/3306/tmp/sbtest1.csv",
 
],
 
{
 
"schema": "demo",
 
"table": "sbtest1",
 
"dialect": "csv-unix",
 
"skipRows": 0,
 
"showProgress": True,
 
"characterSet": "utf8mb4",
 
"threads": "4",
 
"bytesPerChunk": "1M",
 
"maxRate": "2M"
 
})
复制代码

MySQL Shell import_table数据导入的实现

4. Load Data vs import_table性能对比
  • 使用相同库表
  • 不对数据做特殊处理,原样导入
  • 不修改参数默认值,只指定必备参数

 
-- Load Data语句
 
load data infile '/data/mysql/3306/tmp/sbtest1.csv'
 
into table demo.sbtest1
 
character set utf8mb4
 
fields terminated by ','
 
enclosed by '"'
 
lines terminated by '\n'
 
 
 
-- import_table语句
 
util.import_table(
 
[
 
"/data/mysql/3306/tmp/sbtest1.csv",
 
],
 
{
 
"schema": "demo",
 
"table": "sbtest1",
 
"dialect": "csv-unix",
 
"skipRows": 0,
 
"showProgress": True,
 
"characterSet": "utf8mb4"
 
})
复制代码

MySQL Shell import_table数据导入的实现

MySQL Shell import_table数据导入的实现

可以看到,Load Data耗时约5分钟,而import_table则只要不到一半的时间即可完成数据导入,效率高一倍以上(虚拟机环境磁盘IO能力有限情况下)

5. 技术总结
  • import_table包含了Load Data几乎所有的功能
  • import_table导入的效率比Load Data更高
  • import_table支持对导入速度,并发以及每次导入的数据大小做精细控制
  • import_table的导入进度报告更加详细,便于排错及时间评估,包括
    • 导入速度
    • 导入总耗时
    • 每批次导入的数据量,是否存在Warning等等
    • 导入最终的汇总报告

到此这篇关于MySQL import_table数据导入的实现的文章就介绍到这了,更多相关MySQL import_table数据导入内容请搜索服务器之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持服务器之家!

原文链接:https://www.cnblogs.com/zhenxing/p/15102252.html

延伸 · 阅读

精彩推荐
  • Mysql如何解决mysql重装失败方法介绍

    如何解决mysql重装失败方法介绍

    相信大家使用MySQL都有过重装的经历,要是重装MySQL基本都是在最后一步通不过,除非重装操作系统,究其原因就是系统里的注册表没有删除干净 ...

    MYSQL教程网3752019-12-11
  • Mysql解析mysql 5.5字符集问题

    解析mysql 5.5字符集问题

    本篇文章是对关于mysql 5.5字符集的问题进行了详细的分析介绍,需要的朋友参考下 ...

    MYSQL教程网5012019-12-29
  • Mysql使用pt-kill根据一定的规则来kill连接的方法

    使用pt-kill根据一定的规则来kill连接的方法

    pt-kill 是一个优秀的kill MySQL连接的一个工具,是percona toolkit的一部分,在因为空闲连接较多导致超过最大连接数、某个有问题的sql导致mysql负载很高时,都...

    MYSQL教程网5512020-06-06
  • MysqlMySQL 的 21 个规范、优化最佳实践!

    MySQL 的 21 个规范、优化最佳实践!

    每一个好习惯都是一笔财富,本文分 SQL 后悔药,SQL 性能优化,SQL 规范优雅三个方向,分享写 SQL 的 21 个好习惯和最佳实践...

    业余草9392021-03-14
  • Mysqlwindows环境下Mysql中文乱码问题解决方法

    windows环境下Mysql中文乱码问题解决方法

    在搭建Mysql环境的时候遇到了中文乱码问题,下面与大家分享下具体的解决方法,感兴趣的朋友可以参考下哈,希望对大家有所帮助 ...

    MYSQL教程网2162019-12-27
  • MysqlMySQL5.7.16绿色版安装教程详解

    MySQL5.7.16绿色版安装教程详解

    这篇文章主要介绍了MySQL5.7.16绿色版安装教程详解的相关资料,本文给大家介绍的非常详细,具有一定的参考借鉴价值,需要的朋友可以参考下...

    SOIF5392020-06-28
  • MysqlMySQL中distinct与group by之间的性能进行比较

    MySQL中distinct与group by之间的性能进行比较

    这篇文章主要针对MySQL中distinct与group by之间的性能进行比较,内容比较详细,很直观的能看出比较结果,感兴趣的小伙伴们可以参考一下 ...

    MYSQL教程网4562020-05-21
  • MysqlMySQL全面瓦解之查询的正则匹配详解

    MySQL全面瓦解之查询的正则匹配详解

    这篇文章主要给大家介绍了关于MySQL全面瓦解之查询的正则匹配的相关资料,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学...

    翁智华4642021-03-04