婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > MySQL Shell import_table數據導入的實現

MySQL Shell import_table數據導入的實現

熱門標簽:話務外呼系統怎么樣 云南電商智能外呼系統價格 臨清電話機器人 拉卡拉外呼系統 高清地圖標注道路 400電話可以辦理嗎 大眾點評星級酒店地圖標注 智能外呼系統復位 外東北地圖標注

1. import_table介紹

上期技術分享我們介紹了MySQL Load Data的4種常用的方法將文本數據導入到MySQL,這一期我們繼續介紹另一款更加高效的數據導入工具,MySQL Shell 工具集中的import_table,該工具的全稱是Parallel Table Import Utility,顧名思義,支持并發數據導入,該工具在MySQL Shell 8.0.23版本后,功能更加完善, 以下列舉該工具的核心功能

  • 基本覆蓋了MySQL Data Load的所有功能,可以作為替代品使用
  • 默認支持并發導入(支持自定義chunk大小)
  • 支持通配符匹配多個文件同時導入到一張表(非常適用于相同結構數據匯總到一張表)
  • 支持限速(對帶寬使用有要求的場景,非常合適)
  • 支持對壓縮文件處理
  • 支持導入到5.7及以上MySQL

2. Load Data 與 import table功能示例

該部分針對import table和Load Data相同的功能做命令示例演示,我們依舊以導入employees表的示例數據為例,演示MySQL Load Data的綜合場景

  • 數據自定義順序導入
  • 數據函數處理
  • 自定義數據取值
## 示例數據如下
[root@10-186-61-162 tmp]# cat employees_01.csv
"10001","1953-09-02","Georgi","Facello","M","1986-06-26"
"10003","1959-12-03","Parto","Bamford","M","1986-08-28"
"10002","1964-06-02","Bezalel","Simmel","F","1985-11-21"
"10004","1954-05-01","Chirstian","Koblick","M","1986-12-01"
"10005","1955-01-21","Kyoichi","Maliniak","M","1989-09-12"
"10006","1953-04-20","Anneke","Preusig","F","1989-06-02"
"10007","1957-05-23","Tzvetan","Zielinski","F","1989-02-10"
"10008","1958-02-19","Saniya","Kalloufi","M","1994-09-15"
"10009","1952-04-19","Sumant","Peac","F","1985-02-18"
"10010","1963-06-01","Duangkaew","Piveteau","F","1989-08-24"

## 示例表結構
 10.186.61.162:3306  employees  SQL > desc emp;
+-------------+---------------+------+-----+---------+-------+
| Field       | Type          | Null | Key | Default | Extra |
+-------------+---------------+------+-----+---------+-------+
| emp_no      | int           | NO   | PRI | NULL    |       |
| birth_date  | date          | NO   |     | NULL    |       |
| first_name  | varchar(14)   | NO   |     | NULL    |       |
| last_name   | varchar(16)   | NO   |     | NULL    |       |
| full_name   | varchar(64)   | YES  |     | NULL    |       |  -- 表新增字段,導出數據文件中不存在
| gender      | enum('M','F') | NO   |     | NULL    |       |
| hire_date   | date          | NO   |     | NULL    |       |
| modify_date | datetime      | YES  |     | NULL    |       |  -- 表新增字段,導出數據文件中不存在
| delete_flag | varchar(1)    | YES  |     | NULL    |       |  -- 表新增字段,導出數據文件中不存在
+-------------+---------------+------+-----+---------+-------+

2.1 用Load Data方式導入數據

具體參數含義不做說明,需要了解語法規則及含義可查看系列上一篇文章MySQL Load Data的多種用法>

load data infile '/data/mysql/3306/tmp/employees_01.csv'
into table employees.emp
character set utf8mb4
fields terminated by ','
enclosed by '"'
lines terminated by '\n'
(@C1,@C2,@C3,@C4,@C5,@C6)
set emp_no=@C1,
    birth_date=@C2,
    first_name=upper(@C3),
    last_name=lower(@C4),
    full_name=concat(first_name,' ',last_name),
    gender=@C5,
    hire_date=@C6 ,
    modify_date=now(),
    delete_flag=if(hire_date'1988-01-01','Y','N');

2.2 用import_table方式導入數據

util.import_table(
    [
        "/data/mysql/3306/tmp/employees_01.csv",
    ],
    {
        "schema": "employees", 
        "table": "emp",
        "dialect": "csv-unix",
        "skipRows": 0,
        "showProgress": True,
        "characterSet": "utf8mb4",
        "columns": [1,2,3,4,5,6],                   ## 文件中多少個列就用多少個序號標識就行
        "decodeColumns": {
            "emp_no":       "@1",                   ## 對應文件中的第1列
            "birth_date":   "@2",                   ## 對應文件中的第2個列
            "first_name":   "upper(@3)",            ## 對應文件中的第3個列,并做轉為大寫的處理
            "last_name":    "lower(@4)",            ## 對應文件中的第4個列,并做轉為大寫的處理
            "full_name":    "concat(@3,' ',@4)",    ## 將文件中的第3,4列合并成一列生成表中字段值
            "gender":       "@5",                   ## 對應文件中的第5個列
            "hire_date":    "@6",                   ## 對應文件中的第6個列
            "modify_date":  "now()",                ## 用函數生成表中字段值
            "delete_flag":  "if(@6'1988-01-01','Y','N')"  ## 基于文件中第6列做邏輯判斷,生成表中對應字段值
        }
    })

3. import_table特定功能

3.1 多文件導入(模糊匹配)

## 在導入前我生成好了3分單獨的employees文件,導出的結構一致
[root@10-186-61-162 tmp]# ls -lh
總用量 1.9G
-rw-r----- 1 mysql mysql  579 3月  24 19:07 employees_01.csv
-rw-r----- 1 mysql mysql  584 3月  24 18:48 employees_02.csv
-rw-r----- 1 mysql mysql  576 3月  24 18:48 employees_03.csv
-rw-r----- 1 mysql mysql 1.9G 3月  26 17:15 sbtest1.csv

## 導入命令,其中對對文件用employees_*做模糊匹配
util.import_table(
    [
        "/data/mysql/3306/tmp/employees_*",
    ],
    {
        "schema": "employees", 
        "table": "emp",
        "dialect": "csv-unix",
        "skipRows": 0,
        "showProgress": True,
        "characterSet": "utf8mb4",
        "columns": [1,2,3,4,5,6],                   ## 文件中多少個列就用多少個序號標識就行
        "decodeColumns": {
            "emp_no":       "@1",                   ## 對應文件中的第1列
            "birth_date":   "@2",                   ## 對應文件中的第2個列
            "first_name":   "upper(@3)",            ## 對應文件中的第3個列,并做轉為大寫的處理
            "last_name":    "lower(@4)",            ## 對應文件中的第4個列,并做轉為大寫的處理
            "full_name":    "concat(@3,' ',@4)",    ## 將文件中的第3,4列合并成一列生成表中字段值
            "gender":       "@5",                   ## 對應文件中的第5個列
            "hire_date":    "@6",                   ## 對應文件中的第6個列
            "modify_date":  "now()",                ## 用函數生成表中字段值
            "delete_flag":  "if(@6'1988-01-01','Y','N')"  ## 基于文件中第6列做邏輯判斷,生成表中對應字段值
        }
    })
    
## 導入命令,其中對要導入的文件均明確指定其路徑
util.import_table(
    [
        "/data/mysql/3306/tmp/employees_01.csv",
        "/data/mysql/3306/tmp/employees_02.csv",
        "/data/mysql/3306/tmp/employees_03.csv"
    ],
    {
        "schema": "employees", 
        "table": "emp",
        "dialect": "csv-unix",
        "skipRows": 0,
        "showProgress": True,
        "characterSet": "utf8mb4",
        "columns": [1,2,3,4,5,6],                   ## 文件中多少個列就用多少個序號標識就行
        "decodeColumns": {
            "emp_no":       "@1",                   ## 對應文件中的第1列
            "birth_date":   "@2",                   ## 對應文件中的第2個列
            "first_name":   "upper(@3)",            ## 對應文件中的第3個列,并做轉為大寫的處理
            "last_name":    "lower(@4)",            ## 對應文件中的第4個列,并做轉為大寫的處理
            "full_name":    "concat(@3,' ',@4)",    ## 將文件中的第3,4列合并成一列生成表中字段值
            "gender":       "@5",                   ## 對應文件中的第5個列
            "hire_date":    "@6",                   ## 對應文件中的第6個列
            "modify_date":  "now()",                ## 用函數生成表中字段值
            "delete_flag":  "if(@6'1988-01-01','Y','N')"  ## 基于文件中第6列做邏輯判斷,生成表中對應字段值
        }
    })

3.2 并發導入

在實驗并發導入前我們創建一張1000W的sbtest1表(大約2G數據),做并發模擬,import_table用threads參數作為并發配置, 默認為8個并發.

## 導出測試需要的sbtest1數據
[root@10-186-61-162 tmp]# ls -lh
總用量 1.9G
-rw-r----- 1 mysql mysql  579 3月  24 19:07 employees_01.csv
-rw-r----- 1 mysql mysql  584 3月  24 18:48 employees_02.csv
-rw-r----- 1 mysql mysql  576 3月  24 18:48 employees_03.csv
-rw-r----- 1 mysql mysql 1.9G 3月  26 17:15 sbtest1.csv

## 開啟threads為8個并發
util.import_table(
    [
        "/data/mysql/3306/tmp/sbtest1.csv",
    ],
    {
        "schema": "demo", 
        "table": "sbtest1",
        "dialect": "csv-unix",
        "skipRows": 0,
        "showProgress": True,
        "characterSet": "utf8mb4",
        "threads": "8"
    })

3.3 導入速率控制

可以通過maxRatethreads來控制每個并發線程的導入數據,如,當前配置線程為4個,每個線程的速率為2M/s,則最高不會超過8M/s

util.import_table(
    [
        "/data/mysql/3306/tmp/sbtest1.csv",
    ],
    {
        "schema": "demo", 
        "table": "sbtest1",
        "dialect": "csv-unix",
        "skipRows": 0,
        "showProgress": True,
        "characterSet": "utf8mb4",
        "threads": "4",
        "maxRate": "2M"
    })

3.4 自定義chunk大小

默認的chunk大小為50M,我們可以調整chunk的大小,減少事務大小,如我們將chunk大小調整為1M,則每個線程每次導入的數據量也相應減少

util.import_table(
    [
        "/data/mysql/3306/tmp/sbtest1.csv",
    ],
    {
        "schema": "demo", 
        "table": "sbtest1",
        "dialect": "csv-unix",
        "skipRows": 0,
        "showProgress": True,
        "characterSet": "utf8mb4",
        "threads": "4",
        "bytesPerChunk": "1M",
        "maxRate": "2M"
    })

4. Load Data vs import_table性能對比

  • 使用相同庫表
  • 不對數據做特殊處理,原樣導入
  • 不修改參數默認值,只指定必備參數
-- Load Data語句
load data infile '/data/mysql/3306/tmp/sbtest1.csv'
into table demo.sbtest1
character set utf8mb4
fields terminated by ','
enclosed by '"'
lines terminated by '\n'

-- import_table語句
util.import_table(
    [
        "/data/mysql/3306/tmp/sbtest1.csv",
    ],
    {
        "schema": "demo", 
        "table": "sbtest1",
        "dialect": "csv-unix",
        "skipRows": 0,
        "showProgress": True,
        "characterSet": "utf8mb4"
    })

可以看到,Load Data耗時約5分鐘,而import_table則只要不到一半的時間即可完成數據導入,效率高一倍以上(虛擬機環境磁盤IO能力有限情況下)

5. 技術總結

  • import_table包含了Load Data幾乎所有的功能
  • import_table導入的效率比Load Data更高
  • import_table支持對導入速度,并發以及每次導入的數據大小做精細控制
  • import_table的導入進度報告更加詳細,便于排錯及時間評估,包括
    • 導入速度
    • 導入總耗時
    • 每批次導入的數據量,是否存在Warning等等
    • 導入最終的匯總報告

到此這篇關于MySQL import_table數據導入的實現的文章就介紹到這了,更多相關MySQL import_table數據導入內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • Mysql命令行導入sql數據
  • MYSQL 數據庫導入導出命令
  • mysql導入導出數據中文亂碼解決方法小結
  • MySQL 文本文件的導入導出數據的方法
  • MySQL如何導入csv格式數據文件解決方案
  • 在linux中導入sql文件的方法分享(使用命令行轉移mysql數據庫)
  • mysql 導入導出數據庫、數據表的方法
  • mysql 導入導出數據庫以及函數、存儲過程的介紹
  • MYSQL大數據導入

標簽:無錫 山西 定西 三明 揚州 福州 阿里 溫州

巨人網絡通訊聲明:本文標題《MySQL Shell import_table數據導入的實現》,本文關鍵詞  MySQL,Shell,import,table,數據,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《MySQL Shell import_table數據導入的實現》相關的同類信息!
  • 本頁收集關于MySQL Shell import_table數據導入的實現的相關信息資訊供網民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    91麻豆福利精品推荐| 久久精品国产免费| 国产精品人成在线观看免费 | 视频一区二区三区入口| 亚洲黄色av一区| 一区二区三区欧美日| 亚洲综合久久久| 婷婷成人激情在线网| 日韩不卡手机在线v区| 久久精品国产亚洲a| 精品一区二区三区av| 国产精一品亚洲二区在线视频| 久久精品国产亚洲一区二区三区| 精品一区二区三区欧美| 国产成人精品亚洲午夜麻豆| 9色porny自拍视频一区二区| 欧美视频中文字幕| 久久一区二区三区国产精品| 国产免费久久精品| 亚洲伊人伊色伊影伊综合网| 亚洲第一会所有码转帖| 国产中文字幕一区| 一本一道波多野结衣一区二区| 欧美日韩三级视频| 久久精子c满五个校花| 国产精品护士白丝一区av| 亚洲激情中文1区| 国内成人免费视频| 99re亚洲国产精品| 欧美一级片在线| 亚洲欧美在线aaa| 蜜芽一区二区三区| 92精品国产成人观看免费| 欧美精品在线一区二区三区| 久久免费视频色| 亚洲精品一卡二卡| 国产精品一区二区久久不卡| 色8久久精品久久久久久蜜| 日韩欧美国产一区二区三区| 亚洲精品日产精品乱码不卡| 韩国女主播一区| 欧美色视频一区| 亚洲天堂免费看| 国产一区二区美女诱惑| 欧美日韩国产成人在线免费| 中文字幕一区二区三区精华液 | 国产精品一区二区久久精品爱涩| 欧美综合视频在线观看| 久久久99精品久久| 久久99精品一区二区三区| 色婷婷精品久久二区二区蜜臂av| wwwwww.欧美系列| 日韩精品一区第一页| 色综合天天综合网天天狠天天| 精品国产第一区二区三区观看体验| 亚洲婷婷在线视频| 99久久精品99国产精品| 国产午夜精品理论片a级大结局| 午夜视频一区二区三区| 一本大道久久精品懂色aⅴ| 欧美韩国日本不卡| 国产成人综合在线| 久久蜜桃av一区二区天堂| 青青草原综合久久大伊人精品优势| 欧美三级日韩三级国产三级| 一区二区三区中文免费| 色偷偷成人一区二区三区91| 亚洲同性gay激情无套| 97精品国产露脸对白| 亚洲欧美日韩国产另类专区| 成人黄色小视频在线观看| 国产亚洲精品久| 国产精品综合av一区二区国产馆| 欧美精品一区二区不卡| 黑人巨大精品欧美黑白配亚洲| 91麻豆精品国产自产在线观看一区| 亚洲成人精品一区二区| 欧美日韩国产高清一区| 青青草97国产精品免费观看 | av综合在线播放| 亚洲欧洲精品一区二区精品久久久| 播五月开心婷婷综合| 亚洲欧美日韩在线不卡| 91国偷自产一区二区开放时间| 一区二区在线观看免费| 欧美日韩三级一区| 久久99精品网久久| 国产精品美女一区二区三区| 色综合色综合色综合色综合色综合| 亚洲视频在线观看三级| 欧美日韩一区二区在线观看视频| 毛片一区二区三区| 欧美国产一区视频在线观看| 在线观看网站黄不卡| 偷拍亚洲欧洲综合| 国产亚洲美州欧州综合国| 91在线精品秘密一区二区| 五月综合激情网| 亚洲国产高清aⅴ视频| 91捆绑美女网站| 三级影片在线观看欧美日韩一区二区| 欧美一区二区三区在线视频| 国产福利一区二区三区视频在线| 成人欧美一区二区三区黑人麻豆 | 丁香激情综合国产| 一区2区3区在线看| 欧美成人精品1314www| 成人精品国产免费网站| 亚洲成av人片在线观看无码| 国产亚洲欧洲一区高清在线观看| 在线观看免费视频综合| 国产一区二三区| 午夜精品久久久久久久久| 国产女同互慰高潮91漫画| 欧美精品一二三区| 不卡一区二区三区四区| 欧美aaa在线| 亚洲综合一二区| 国产精品网站在线| 欧美一激情一区二区三区| 波多野洁衣一区| 国产主播一区二区三区| 首页综合国产亚洲丝袜| 亚洲品质自拍视频网站| 久久久亚洲高清| 日韩欧美国产一二三区| 在线免费观看日本一区| 丰满白嫩尤物一区二区| 麻豆中文一区二区| 日精品一区二区三区| 一区二区三区在线高清| 久久综合色一综合色88| 欧美一区二区三区在线观看视频 | 国产女主播视频一区二区| 日韩一区国产二区欧美三区| 在线亚洲+欧美+日本专区| 成人99免费视频| 粉嫩一区二区三区性色av| 久久疯狂做爰流白浆xx| 蜜桃视频免费观看一区| 日本成人在线网站| 日韩影院在线观看| 五月综合激情婷婷六月色窝| 亚洲一区二区四区蜜桃| 亚洲影院久久精品| 亚洲大尺度视频在线观看| 一区二区三区.www| 亚洲午夜久久久久久久久电影网| 亚洲一区在线观看视频| 亚洲在线一区二区三区| 日韩精品一二区| 久久精品国产一区二区三| 精品一区在线看| 国产v综合v亚洲欧| jizzjizzjizz欧美| 色噜噜偷拍精品综合在线| 在线视频一区二区三区| 91麻豆精品国产91久久久使用方法| 欧美日韩不卡在线| 91精品国模一区二区三区| 91精品福利在线一区二区三区 | 国产麻豆成人精品| 成人午夜免费视频| 91免费观看视频| 欧美一区二区免费| 久久久久久夜精品精品免费| 国产日本一区二区| 一区二区日韩av| 免费在线观看视频一区| 国产一区二三区好的| 日本精品一级二级| 日韩视频中午一区| 国产精品久久久久久久久免费桃花 | 亚洲男人电影天堂| 亚洲电影你懂得| 国产一区二区三区在线观看免费| 不卡的av电影| 欧美一级二级三级蜜桃| 综合精品久久久| 日本欧美肥老太交大片| www.亚洲人| 精品少妇一区二区三区视频免付费| 国产丝袜欧美中文另类| 亚洲国产日韩综合久久精品| 麻豆高清免费国产一区| 91片在线免费观看| 精品欧美一区二区在线观看| 亚洲欧美日韩系列| 国产一区二区三区美女| 欧美日韩综合不卡| 中文字幕一区在线观看| 麻豆91小视频| 欧美三级中文字幕| 国产精品国产三级国产专播品爱网 | 国产欧美一二三区| 日韩av电影天堂| 在线观看欧美日本| 国产精品不卡在线| 国产乱淫av一区二区三区| 4438x亚洲最大成人网|