概述
最近运维人员在从excel表导入数据到mysql数据库时,发现excel小数点后10位导到数据库后就变成小数点后6位,下面介绍下碰到这种情况应该如何去解决。
1、查看数据库字段
desc t_ocs_dst_apply_change_line_copy
2、文本转换
把要导入的数据用
2024年09月27日
最近运维人员在从excel表导入数据到mysql数据库时,发现excel小数点后10位导到数据库后就变成小数点后6位,下面介绍下碰到这种情况应该如何去解决。
desc t_ocs_dst_apply_change_line_copy
把要导入的数据用
2024年09月27日
ClickHouse的数据导入方式,本文主要介绍如何使用Flink、Spark、Kafka、MySQL、Hive将数据导入ClickHouse,具体内容包括:
2024年09月27日
mysql导入导出也许最简单不过了,但是当存在外键的时候,而且导入的表依赖另一个还未导入的表的时候,就直接报错了,停止导入.
首先在将要导入的数据库打开mysql命令行,执行 :
SET FOREIGN_KEY_CHECKS=0;
2024年09月27日
作者:ksfzhaohui
来源:https://my.oschina.net/OutOfMemory/blog/3117737
最近有个需求解析一个订单文件,并且说明文件可达到千万条数据,每条数据大概在20个字段左右,每个字段使用逗号分隔,需要尽量在半小时内入库。
思路
1.估算文件大小
因为告诉文件有千万条,同时每条记录大概在20个字段左右,所以可以大致估算一下整个订单文件的大小,方法也很简单使用
2024年09月27日
我用到的数据库为,mysql数据库5.7版本的
其实我在插入1000万条数据的时候遇到了一些问题,现在先来解决他们,一开始我插入100万条数据时候报错,控制台的信息如下:
com.mysql.jdbc.PacketTooBigException: Packet for query is too large (4232009 > 4194304). You can change this value on the server by setting the max_allowed_packet’ variable.
2024年09月27日
Solr主要是做数据搜索的,那么Solr的数据是从哪里来的呢?总不能一条一条的插入吧。Solr也有这方面的考虑,比如配置Dataimport将mysql数据批量导入Solr中。
环境说明:
ambari v2.6.1
SolrCloud 5.5.5
我使用的ambari来自动化安装的Solr
2024年09月27日
show variables like '%secure%';
secure_file_priv:安全文件路径,只有此路径可以导入导出。设置为空可以随意导出。
在配置文件中,找到[mysqld],添加
secure_file_priv =
(1)NULL,表示禁止。
(2)如果value值有文件夹目录,则表示只允许该目录下文件(PS:测试子目录也不行)。
2024年09月27日
任务背景
由于现有业务架构已不能满足当前业务需求,在保证数据完整的前提下,现需要将原有数据库迁移到另外一台单独的服务器上,在保证原有服务正常的情况下,将原有LAMP环境中mysql数据库版本5.6.31升级为5.6.35.
2024年09月27日
只需在load data 后面加上local就好了