婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > MySQL Shell import_table數據導入的實現

MySQL Shell import_table數據導入的實現

熱門標簽:話務外呼系統怎么樣 云南電商智能外呼系統價格 臨清電話機器人 拉卡拉外呼系統 高清地圖標注道路 400電話可以辦理嗎 大眾點評星級酒店地圖標注 智能外呼系統復位 外東北地圖標注

1. import_table介紹

上期技術分享我們介紹了MySQL Load Data的4種常用的方法將文本數據導入到MySQL,這一期我們繼續介紹另一款更加高效的數據導入工具,MySQL Shell 工具集中的import_table,該工具的全稱是Parallel Table Import Utility,顧名思義,支持并發數據導入,該工具在MySQL Shell 8.0.23版本后,功能更加完善, 以下列舉該工具的核心功能

  • 基本覆蓋了MySQL Data Load的所有功能,可以作為替代品使用
  • 默認支持并發導入(支持自定義chunk大小)
  • 支持通配符匹配多個文件同時導入到一張表(非常適用于相同結構數據匯總到一張表)
  • 支持限速(對帶寬使用有要求的場景,非常合適)
  • 支持對壓縮文件處理
  • 支持導入到5.7及以上MySQL

2. Load Data 與 import table功能示例

該部分針對import table和Load Data相同的功能做命令示例演示,我們依舊以導入employees表的示例數據為例,演示MySQL Load Data的綜合場景

  • 數據自定義順序導入
  • 數據函數處理
  • 自定義數據取值
## 示例數據如下
[root@10-186-61-162 tmp]# cat employees_01.csv
"10001","1953-09-02","Georgi","Facello","M","1986-06-26"
"10003","1959-12-03","Parto","Bamford","M","1986-08-28"
"10002","1964-06-02","Bezalel","Simmel","F","1985-11-21"
"10004","1954-05-01","Chirstian","Koblick","M","1986-12-01"
"10005","1955-01-21","Kyoichi","Maliniak","M","1989-09-12"
"10006","1953-04-20","Anneke","Preusig","F","1989-06-02"
"10007","1957-05-23","Tzvetan","Zielinski","F","1989-02-10"
"10008","1958-02-19","Saniya","Kalloufi","M","1994-09-15"
"10009","1952-04-19","Sumant","Peac","F","1985-02-18"
"10010","1963-06-01","Duangkaew","Piveteau","F","1989-08-24"

## 示例表結構
 10.186.61.162:3306  employees  SQL > desc emp;
+-------------+---------------+------+-----+---------+-------+
| Field       | Type          | Null | Key | Default | Extra |
+-------------+---------------+------+-----+---------+-------+
| emp_no      | int           | NO   | PRI | NULL    |       |
| birth_date  | date          | NO   |     | NULL    |       |
| first_name  | varchar(14)   | NO   |     | NULL    |       |
| last_name   | varchar(16)   | NO   |     | NULL    |       |
| full_name   | varchar(64)   | YES  |     | NULL    |       |  -- 表新增字段,導出數據文件中不存在
| gender      | enum('M','F') | NO   |     | NULL    |       |
| hire_date   | date          | NO   |     | NULL    |       |
| modify_date | datetime      | YES  |     | NULL    |       |  -- 表新增字段,導出數據文件中不存在
| delete_flag | varchar(1)    | YES  |     | NULL    |       |  -- 表新增字段,導出數據文件中不存在
+-------------+---------------+------+-----+---------+-------+

2.1 用Load Data方式導入數據

具體參數含義不做說明,需要了解語法規則及含義可查看系列上一篇文章MySQL Load Data的多種用法>

load data infile '/data/mysql/3306/tmp/employees_01.csv'
into table employees.emp
character set utf8mb4
fields terminated by ','
enclosed by '"'
lines terminated by '\n'
(@C1,@C2,@C3,@C4,@C5,@C6)
set emp_no=@C1,
    birth_date=@C2,
    first_name=upper(@C3),
    last_name=lower(@C4),
    full_name=concat(first_name,' ',last_name),
    gender=@C5,
    hire_date=@C6 ,
    modify_date=now(),
    delete_flag=if(hire_date'1988-01-01','Y','N');

2.2 用import_table方式導入數據

util.import_table(
    [
        "/data/mysql/3306/tmp/employees_01.csv",
    ],
    {
        "schema": "employees", 
        "table": "emp",
        "dialect": "csv-unix",
        "skipRows": 0,
        "showProgress": True,
        "characterSet": "utf8mb4",
        "columns": [1,2,3,4,5,6],                   ## 文件中多少個列就用多少個序號標識就行
        "decodeColumns": {
            "emp_no":       "@1",                   ## 對應文件中的第1列
            "birth_date":   "@2",                   ## 對應文件中的第2個列
            "first_name":   "upper(@3)",            ## 對應文件中的第3個列,并做轉為大寫的處理
            "last_name":    "lower(@4)",            ## 對應文件中的第4個列,并做轉為大寫的處理
            "full_name":    "concat(@3,' ',@4)",    ## 將文件中的第3,4列合并成一列生成表中字段值
            "gender":       "@5",                   ## 對應文件中的第5個列
            "hire_date":    "@6",                   ## 對應文件中的第6個列
            "modify_date":  "now()",                ## 用函數生成表中字段值
            "delete_flag":  "if(@6'1988-01-01','Y','N')"  ## 基于文件中第6列做邏輯判斷,生成表中對應字段值
        }
    })

3. import_table特定功能

3.1 多文件導入(模糊匹配)

## 在導入前我生成好了3分單獨的employees文件,導出的結構一致
[root@10-186-61-162 tmp]# ls -lh
總用量 1.9G
-rw-r----- 1 mysql mysql  579 3月  24 19:07 employees_01.csv
-rw-r----- 1 mysql mysql  584 3月  24 18:48 employees_02.csv
-rw-r----- 1 mysql mysql  576 3月  24 18:48 employees_03.csv
-rw-r----- 1 mysql mysql 1.9G 3月  26 17:15 sbtest1.csv

## 導入命令,其中對對文件用employees_*做模糊匹配
util.import_table(
    [
        "/data/mysql/3306/tmp/employees_*",
    ],
    {
        "schema": "employees", 
        "table": "emp",
        "dialect": "csv-unix",
        "skipRows": 0,
        "showProgress": True,
        "characterSet": "utf8mb4",
        "columns": [1,2,3,4,5,6],                   ## 文件中多少個列就用多少個序號標識就行
        "decodeColumns": {
            "emp_no":       "@1",                   ## 對應文件中的第1列
            "birth_date":   "@2",                   ## 對應文件中的第2個列
            "first_name":   "upper(@3)",            ## 對應文件中的第3個列,并做轉為大寫的處理
            "last_name":    "lower(@4)",            ## 對應文件中的第4個列,并做轉為大寫的處理
            "full_name":    "concat(@3,' ',@4)",    ## 將文件中的第3,4列合并成一列生成表中字段值
            "gender":       "@5",                   ## 對應文件中的第5個列
            "hire_date":    "@6",                   ## 對應文件中的第6個列
            "modify_date":  "now()",                ## 用函數生成表中字段值
            "delete_flag":  "if(@6'1988-01-01','Y','N')"  ## 基于文件中第6列做邏輯判斷,生成表中對應字段值
        }
    })
    
## 導入命令,其中對要導入的文件均明確指定其路徑
util.import_table(
    [
        "/data/mysql/3306/tmp/employees_01.csv",
        "/data/mysql/3306/tmp/employees_02.csv",
        "/data/mysql/3306/tmp/employees_03.csv"
    ],
    {
        "schema": "employees", 
        "table": "emp",
        "dialect": "csv-unix",
        "skipRows": 0,
        "showProgress": True,
        "characterSet": "utf8mb4",
        "columns": [1,2,3,4,5,6],                   ## 文件中多少個列就用多少個序號標識就行
        "decodeColumns": {
            "emp_no":       "@1",                   ## 對應文件中的第1列
            "birth_date":   "@2",                   ## 對應文件中的第2個列
            "first_name":   "upper(@3)",            ## 對應文件中的第3個列,并做轉為大寫的處理
            "last_name":    "lower(@4)",            ## 對應文件中的第4個列,并做轉為大寫的處理
            "full_name":    "concat(@3,' ',@4)",    ## 將文件中的第3,4列合并成一列生成表中字段值
            "gender":       "@5",                   ## 對應文件中的第5個列
            "hire_date":    "@6",                   ## 對應文件中的第6個列
            "modify_date":  "now()",                ## 用函數生成表中字段值
            "delete_flag":  "if(@6'1988-01-01','Y','N')"  ## 基于文件中第6列做邏輯判斷,生成表中對應字段值
        }
    })

3.2 并發導入

在實驗并發導入前我們創建一張1000W的sbtest1表(大約2G數據),做并發模擬,import_table用threads參數作為并發配置, 默認為8個并發.

## 導出測試需要的sbtest1數據
[root@10-186-61-162 tmp]# ls -lh
總用量 1.9G
-rw-r----- 1 mysql mysql  579 3月  24 19:07 employees_01.csv
-rw-r----- 1 mysql mysql  584 3月  24 18:48 employees_02.csv
-rw-r----- 1 mysql mysql  576 3月  24 18:48 employees_03.csv
-rw-r----- 1 mysql mysql 1.9G 3月  26 17:15 sbtest1.csv

## 開啟threads為8個并發
util.import_table(
    [
        "/data/mysql/3306/tmp/sbtest1.csv",
    ],
    {
        "schema": "demo", 
        "table": "sbtest1",
        "dialect": "csv-unix",
        "skipRows": 0,
        "showProgress": True,
        "characterSet": "utf8mb4",
        "threads": "8"
    })

3.3 導入速率控制

可以通過maxRatethreads來控制每個并發線程的導入數據,如,當前配置線程為4個,每個線程的速率為2M/s,則最高不會超過8M/s

util.import_table(
    [
        "/data/mysql/3306/tmp/sbtest1.csv",
    ],
    {
        "schema": "demo", 
        "table": "sbtest1",
        "dialect": "csv-unix",
        "skipRows": 0,
        "showProgress": True,
        "characterSet": "utf8mb4",
        "threads": "4",
        "maxRate": "2M"
    })

3.4 自定義chunk大小

默認的chunk大小為50M,我們可以調整chunk的大小,減少事務大小,如我們將chunk大小調整為1M,則每個線程每次導入的數據量也相應減少

util.import_table(
    [
        "/data/mysql/3306/tmp/sbtest1.csv",
    ],
    {
        "schema": "demo", 
        "table": "sbtest1",
        "dialect": "csv-unix",
        "skipRows": 0,
        "showProgress": True,
        "characterSet": "utf8mb4",
        "threads": "4",
        "bytesPerChunk": "1M",
        "maxRate": "2M"
    })

4. Load Data vs import_table性能對比

  • 使用相同庫表
  • 不對數據做特殊處理,原樣導入
  • 不修改參數默認值,只指定必備參數
-- Load Data語句
load data infile '/data/mysql/3306/tmp/sbtest1.csv'
into table demo.sbtest1
character set utf8mb4
fields terminated by ','
enclosed by '"'
lines terminated by '\n'

-- import_table語句
util.import_table(
    [
        "/data/mysql/3306/tmp/sbtest1.csv",
    ],
    {
        "schema": "demo", 
        "table": "sbtest1",
        "dialect": "csv-unix",
        "skipRows": 0,
        "showProgress": True,
        "characterSet": "utf8mb4"
    })

可以看到,Load Data耗時約5分鐘,而import_table則只要不到一半的時間即可完成數據導入,效率高一倍以上(虛擬機環境磁盤IO能力有限情況下)

5. 技術總結

  • import_table包含了Load Data幾乎所有的功能
  • import_table導入的效率比Load Data更高
  • import_table支持對導入速度,并發以及每次導入的數據大小做精細控制
  • import_table的導入進度報告更加詳細,便于排錯及時間評估,包括
    • 導入速度
    • 導入總耗時
    • 每批次導入的數據量,是否存在Warning等等
    • 導入最終的匯總報告

到此這篇關于MySQL import_table數據導入的實現的文章就介紹到這了,更多相關MySQL import_table數據導入內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • Mysql命令行導入sql數據
  • MYSQL 數據庫導入導出命令
  • mysql導入導出數據中文亂碼解決方法小結
  • MySQL 文本文件的導入導出數據的方法
  • MySQL如何導入csv格式數據文件解決方案
  • 在linux中導入sql文件的方法分享(使用命令行轉移mysql數據庫)
  • mysql 導入導出數據庫、數據表的方法
  • mysql 導入導出數據庫以及函數、存儲過程的介紹
  • MYSQL大數據導入

標簽:無錫 山西 定西 三明 揚州 福州 阿里 溫州

巨人網絡通訊聲明:本文標題《MySQL Shell import_table數據導入的實現》,本文關鍵詞  MySQL,Shell,import,table,數據,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《MySQL Shell import_table數據導入的實現》相關的同類信息!
  • 本頁收集關于MySQL Shell import_table數據導入的實現的相關信息資訊供網民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    欧美精品一区二区三区高清aⅴ| 亚洲日本va午夜在线影院| 亚洲精品在线观| 九九**精品视频免费播放| 56国语精品自产拍在线观看| 国产精品久久久久久亚洲毛片| 亚洲自拍都市欧美小说| 国产麻豆精品在线观看| 欧美亚洲动漫精品| 中文字幕一区二区三区av| 麻豆成人在线观看| 日本中文字幕一区二区视频| 精品欧美一区二区三区精品久久 | 日韩欧美国产电影| 国模一区二区三区白浆| 亚洲精品免费视频| 91视视频在线观看入口直接观看www | 不卡的看片网站| 精品国产凹凸成av人导航| 午夜亚洲福利老司机| 91传媒视频在线播放| 性欧美疯狂xxxxbbbb| 99精品视频一区| 日韩电影在线观看电影| 国产网站一区二区| 在线一区二区三区做爰视频网站| 性欧美疯狂xxxxbbbb| 日韩一区二区免费在线观看| 精彩视频一区二区三区| 亚洲国产日韩a在线播放性色| 欧美激情一区在线| 欧美日本视频在线| 不卡的电视剧免费网站有什么| 九九精品一区二区| 青青草国产成人99久久| 最新久久zyz资源站| 精品国产乱子伦一区| 在线观看91视频| 国产91精品入口| 成人午夜激情片| 91色综合久久久久婷婷| 欧美一区日韩一区| 亚洲一区二区三区四区中文字幕| 亚洲专区一二三| 亚洲成人资源网| 亚洲地区一二三色| 亚洲丰满少妇videoshd| 日韩中文字幕区一区有砖一区| 亚洲自拍偷拍网站| 又紧又大又爽精品一区二区| 亚洲免费资源在线播放| 亚洲日本中文字幕区| 亚洲观看高清完整版在线观看 | 欧美性一区二区| 日韩午夜电影av| 亚洲图片你懂的| 欧美国产日韩精品免费观看| 一区在线中文字幕| 亚洲成av人片在线观看| 国产一区二区三区香蕉| 95精品视频在线| 91免费国产在线| 精品欧美乱码久久久久久1区2区| 久久久久久久精| 夜夜嗨av一区二区三区| 国产福利精品一区| 欧美二区三区的天堂| 欧美激情在线看| 久久99久久99小草精品免视看| 99久久精品国产导航| 欧美一区永久视频免费观看| 中文字幕一区av| 日韩一区欧美二区| 日韩电影在线免费看| 日本精品免费观看高清观看| 欧美亚洲国产一区二区三区| 国产人妖乱国产精品人妖| 五月天中文字幕一区二区| 成人高清视频在线| 亚洲天堂网中文字| 国v精品久久久网| 欧美a级理论片| 99re成人精品视频| 欧美日韩一区二区三区免费看| 亚洲国产精品av| 国产久卡久卡久卡久卡视频精品| 99re6这里只有精品视频在线观看| 日韩欧美久久一区| 中文字幕国产精品一区二区| 洋洋av久久久久久久一区| 热久久免费视频| 欧美日韩综合一区| 色综合久久久久久久久久久| 亚洲国产一区二区视频| 欧美日韩视频不卡| 国产精品免费看片| 国产精品66部| 日韩美女精品在线| 亚洲成人1区2区| 欧美午夜电影网| 九九视频精品免费| 日韩精品一区二区三区三区免费| 一区二区在线观看视频在线观看| 北岛玲一区二区三区四区| 中文字幕国产一区二区| 99精品黄色片免费大全| 亚洲美女视频一区| 欧美日韩日日夜夜| 日韩精品久久久久久| 久久日一线二线三线suv| 国产一区二区在线观看免费| 国产精品第一页第二页第三页| 欧美一区二区三区日韩视频| 黑人巨大精品欧美黑白配亚洲| 国产亚洲一本大道中文在线| 成人国产视频在线观看| 亚洲老司机在线| 欧美性大战久久| 韩国成人在线视频| 国产精品久久久久久久久免费相片| kk眼镜猥琐国模调教系列一区二区| 一区二区三区四区国产精品| 久久精品国产亚洲高清剧情介绍| 国产精品理论在线观看| 久久久青草青青国产亚洲免观| 在线免费一区三区| 国产精品996| 极品少妇一区二区| 天堂在线亚洲视频| 亚洲最快最全在线视频| 亚洲欧美日韩国产综合| 国产午夜亚洲精品羞羞网站| 欧美精品欧美精品系列| 免费观看30秒视频久久| 一区二区三区资源| 欧美一区二区三区在线观看视频| 91麻豆成人久久精品二区三区| 91久久精品网| 玉足女爽爽91| 中文字幕综合网| 国产精品护士白丝一区av| 欧美成人三级在线| 91精品办公室少妇高潮对白| 粉嫩嫩av羞羞动漫久久久| 久久国产精品区| 韩国在线一区二区| 奇米综合一区二区三区精品视频| 精品国产伦一区二区三区观看体验| 日本一区二区三区在线观看| 国产亚洲va综合人人澡精品| 日韩免费看的电影| 精品成人佐山爱一区二区| 精品噜噜噜噜久久久久久久久试看 | 91麻豆精品国产91| 色8久久精品久久久久久蜜| 99re成人在线| 欧美日韩国产片| 日韩一区二区精品葵司在线 | 日韩一区二区在线看| 久久久精品免费免费| 国产欧美一区二区三区在线看蜜臀 | 国精产品一区一区三区mba桃花 | 亚洲免费伊人电影| 日韩国产欧美在线视频| 国产成人综合网| 91亚洲精品久久久蜜桃| 欧美美女一区二区三区| 欧美日韩精品一二三区| 久久久久青草大香线综合精品| 国产欧美视频一区二区三区| 亚洲图片一区二区| 国产精品一区二区久激情瑜伽| 91蝌蚪国产九色| 国产精品久久看| 麻豆成人久久精品二区三区红| av电影在线观看一区| 欧美三电影在线| √…a在线天堂一区| 国产成人久久精品77777最新版本| 91久久精品一区二区三区| 欧美日韩在线不卡| **欧美大码日韩| 一本色道久久综合精品竹菊| 中文字幕av资源一区| 麻豆精品视频在线观看| 91麻豆成人久久精品二区三区| 亚洲国产视频直播| 欧美在线观看一区| 亚洲一区二区偷拍精品| 91麻豆免费在线观看| 久久综合狠狠综合久久激情 | 亚洲婷婷在线视频| 成人一级视频在线观看| 成人高清av在线| 亚洲精品免费视频| 欧美在线你懂的| 亚洲一区二区精品视频| 日韩精品一区二区三区三区免费 | 婷婷综合另类小说色区| 欧美日韩电影在线|