承接上一篇文档《sqoop的使用之import导入到HDFS》
mysql导入数据到hive中该如何做呢?
先登录hive
在hive中操作,创建数据库:
create database frommysql;
创建表
创建表
create table importhive_info(
num int,
name string
)row format delimited fields terminated by "\t";
2024年09月27日
承接上一篇文档《sqoop的使用之import导入到HDFS》
mysql导入数据到hive中该如何做呢?
先登录hive
在hive中操作,创建数据库:
create database frommysql;
创建表
创建表
create table importhive_info(
num int,
name string
)row format delimited fields terminated by "\t";
2024年09月27日
Linux下mysql数据的导出和导入
1、导出数据
导出数据库用mysqldump命令
//查看mysqldump命令位置
which mysqldump
(1) 、导出数据和表结构
以wechat数据库为例
新开一个终端,执行导出命令
[root@kingdom ~]# /usr/bin/mysqldump -u root -p wechat > /tmp/wechat.sql
2024年09月27日
数据库导出必须在windows的dos命令窗口中执行;
导出整个数据库(db_name)
mysqldump db_name>D:\db_name.sql -u用户名 -p密码
导出数据库中的(table_name)表
2024年09月27日
问题还原
我们的甲方爸爸遇到了一点技术的问题,具体如下
有一个比较大的sql文件,sql文件是逻辑备份出来的。 导入的过程中出现了
ERROR 1044(42000):Access denied for user ‘username’@‘%’ to database ‘dbname’
应该是权限有问题?
甲方说的是,他们的普通用户只有select,create,insert,update,delete,alter,drop ,这些权限。还要求我们也给相同的权限测试,会不会出现这种情况?
2024年09月27日
承接上一篇文档《sqoop的使用之import导入到HDFS》
mysql导入数据到hive中该如何做呢?
先登录hive
在hive中操作,创建数据库:
create database frommysql;
创建表
创建表
create table importhive_info(
num int,
name string
)row format delimited fields terminated by "\t";
2024年09月27日
最近在做一些数据处理工作需要将后缀为“.jsonl”的文件数据导入到 MySQL 库。由于之前没有尝试过,这次就当作经验记录一下。
首先肯定是要先建库和建表(这些就不再细说了),接着就可以通过 LOAD DATA INFILE 命令将 jsonl 文件内容进行提取。由于这次使用的是 MySQL 5.7 以上的版本(MySQL 8),因此直接使用@json 用户变量告诉 MySQL 要将数据以 JSON 格式进行存储就可以了。如下图:
2024年09月27日
普通的导入和导出都是使用insert,如果数据量很大的话,速度会比较慢,使用LOAD DATA INFLIE ,比一般的insert语句快20倍。