sqoopsqoop 导入文件到HDFS怎么都是java文件总结

后使用快捷导航没有帐号?
查看: 4116|回复: 5
利用SQOOP将数据从数据库导入到HDFS
金牌会员, 积分 1219, 距离下一级还需 1781 积分
论坛徽章:4
基本使用[size=0.9em]如下面这个shell脚本:[size=0.9em]#Oracle的连接字符串,其中包含了Oracle的地址,SID,和端口号
CONNECTURL=jdbcracle:thin:@20.135.60.21:1521WRAC2
#使用的用户名
ORACLENAME=kkaa
#使用的密码
ORACLEPASSWORD=kkaa123
#需要从Oracle中导入的表名
oralceTableName=tt
#需要从Oracle中导入的表中的字段名
columns=AREA_ID,TEAM_NAME
#将Oracle中的数据导入到HDFS后的存放路径
hdfsPath=apps/as/hive/$oralceTableName
#执行导入逻辑。将Oracle中的数据导入到HDFS中
sqoop import --append --connect $CONNECTURL --username $ORACLENAME --password $ORACLEPASSWORD --target-dir $hdfsPath&&--num-mappers 1 --table $oralceTableName --columns $columns --fields-terminated-by '\001'[size=0.9em]执行这个脚本之后,导入程序就完成了。[size=0.9em]接下来,用户可以自己创建外部表,将外部表的路径和HDFS中存放Oracle数据的路径对应上即可。[size=0.9em]注意:这个程序导入到HDFS中的数据是文本格式,所以在创建Hive外部表的时候,不需要指定文件的格式为RCFile,而使用默认的TextFile即可。数据间的分隔符为'\001'。如果多次导入同一个表中的数据,数据以append的形式插入到HDFS目录中。并行导入[size=0.9em]假设有这样这个sqoop命令,需要将Oracle中的数据导入到HDFS中:[size=0.9em]sqoop import --append --connect $CONNECTURL --username $ORACLENAME --password $ORACLEPASSWORD --target-dir $hdfsPath&&--m 1 --table $oralceTableName --columns $columns --fields-terminated-by '\001'&&--where &data_desc=''&[size=0.9em]请注意,在这个命令中,有一个参数“-m”,代表的含义是使用多少个并行,这个参数的值是1,说明没有开启并行功能。[size=0.9em]现在,我们可以将“-m”参数的值调大,使用并行导入的功能,如下面这个命令:[size=0.9em]sqoop import --append --connect $CONNECTURL --username $ORACLENAME --password $ORACLEPASSWORD --target-dir $hdfsPath&&--m 4 --table $oralceTableName --columns $columns --fields-terminated-by '\001'&&--where &data_desc=''&[size=0.9em]一般来说,Sqoop就会开启4个进程,同时进行数据的导入操作。[size=0.9em]但是,如果从Oracle中导入的表没有主键,那么会出现如下的错误提示:[size=0.9em]ERROR tool.ImportTool: Error during import: No primary key could be found for table creater_user.popt_cas_redirect_his. Please specify one with --split-by or perform a sequential import with '-m 1'.[size=0.9em]在这种情况下,为了更好的使用Sqoop的并行导入功能,我们就需要从原理上理解Sqoop并行导入的实现机制。[size=0.9em]如果需要并行导入的Oracle表的主键是id,并行的数量是4,那么Sqoop首先会执行如下一个查询:[size=0.9em]select max(id) as max, select min(id) as min from table [where 如果指定了where子句];[size=0.9em]通过这个查询,获取到需要拆分字段(id)的最大值和最小值,假设分别是1和1000。[size=0.9em]然后,Sqoop会根据需要并行导入的数量,进行拆分查询,比如上面的这个例子,并行导入将拆分为如下4条同时执行:[size=0.9em]select * from table where 0 &= id & 250;[size=0.9em]select * from table where 250 &= id & 500;[size=0.9em]select * from table where 500 &= id & 750;[size=0.9em]select * from table where 750 &= id & 1000;[size=0.9em]注意,这个拆分的字段需要是整数。[size=0.9em]从上面的例子可以看出,如果需要导入的表没有主键,我们应该如何手动选取一个合适的拆分字段,以及选择合适的并行数。[size=0.9em]再举一个实际的例子来说明:[size=0.9em]我们要从Oracle中导入creater_user.popt_cas_redirect_his。[size=0.9em]这个表没有主键,所以我们需要手动选取一个合适的拆分字段。[size=0.9em]首先看看这个表都有哪些字段:[size=0.9em]然后,我假设ds_name字段是一个可以选取的拆分字段,然后执行下面的sql去验证我的想法:[size=0.9em]select min(ds_name), max(ds_name) from creater_user.popt_cas_redirect_his where data_desc=''[size=0.9em]发现结果不理想,min和max的值都是相等的。所以这个字段不合适作为拆分字段。[size=0.9em]再测试一下另一个字段:CLIENTIP
select min(CLIENTIP), max(CLIENTIP) from creater_user.popt_cas_redirect_his where data_desc=''[size=0.9em]这个结果还是不错的。所以我们使用CLIENTIP字段作为拆分字段。[size=0.9em]所以,我们使用如下命令并行导入:[size=0.9em]sqoop import --append --connect $CONNECTURL --username $ORACLENAME --password $ORACLEPASSWORD --target-dir $hdfsPath&&--m 12 --split-by CLIENTIP --table $oralceTableName --columns $columns --fields-terminated-by '\001'&&--where &data_desc=''&[size=0.9em]这次执行这个命令,可以看到,消耗的时间为:20mins, 35sec,导入了33,222,896条数据。[size=0.9em]另外,如果觉得这种拆分不能很好满足我们的需求,可以同时执行多个Sqoop命令,然后在where的参数后面指定拆分的规则。如:[size=0.9em]sqoop import --append --connect $CONNECTURL --username $ORACLENAME --password $ORACLEPASSWORD --target-dir $hdfsPath&&--m 1 --table $oralceTableName --columns $columns --fields-terminated-by '\001'&&--where &data_desc='' logtime&10:00:00&[size=0.9em]sqoop import --append --connect $CONNECTURL --username $ORACLENAME --password $ORACLEPASSWORD --target-dir $hdfsPath&&--m 1 --table $oralceTableName --columns $columns --fields-terminated-by '\001'&&--where &data_desc='' logtime&=10:00:00&[size=0.9em]从而达到并行导入的目的。[size=0.9em]更多关于的文章,可以参考:
中级会员, 积分 219, 距离下一级还需 281 积分
论坛徽章:1
不错 ,学习了,自己试试
金牌会员, 积分 1877, 距离下一级还需 1123 积分
论坛徽章:11
高级会员, 积分 675, 距离下一级还需 325 积分
论坛徽章:8
还有没有尝试与oracle的导入导出,有时间尝试下
中级会员, 积分 274, 距离下一级还需 226 积分
论坛徽章:3
学习了,但是我从HDFS中拷到mysql的时候8020端口连不上,从mysql到HDFS就没什么问题,有谁知道吗?
扫一扫加入本版微信群利用Sqoop将数据从数据库导入到HDFS - 逖靖寒 - 博客园
Blog Stats
Posts - 175
Stories - 12
Comments - 1335
Trackbacks - 8
如下面这个shell脚本:
#Oracle的连接字符串,其中包含了Oracle的地址,SID,和端口号CONNECTURL=jdbc:oracle:thin:@20.135.60.21:1521:DWRAC2#使用的用户名ORACLENAME=kkaa#使用的密码ORACLEPASSWORD=kkaa123#需要从Oracle中导入的表名oralceTableName=tt#需要从Oracle中导入的表中的字段名columns=AREA_ID,TEAM_NAME#将Oracle中的数据导入到HDFS后的存放路径hdfsPath=apps/as/hive/$oralceTableName#执行导入逻辑。将Oracle中的数据导入到HDFS中sqoop import --append --connect $CONNECTURL --username $ORACLENAME --password $ORACLEPASSWORD --target-dir $hdfsPath& --num-mappers 1 --table $oralceTableName --columns $columns --fields-terminated-by '\001'
执行这个脚本之后,导入程序就完成了。
接下来,用户可以自己创建外部表,将外部表的路径和HDFS中存放Oracle数据的路径对应上即可。
注意:这个程序导入到HDFS中的数据是文本格式,所以在创建Hive外部表的时候,不需要指定文件的格式为RCFile,而使用默认的TextFile即可。数据间的分隔符为'\001'。如果多次导入同一个表中的数据,数据以append的形式插入到HDFS目录中。
假设有这样这个sqoop命令,需要将Oracle中的数据导入到HDFS中:
sqoop import --append --connect $CONNECTURL --username $ORACLENAME --password $ORACLEPASSWORD --target-dir $hdfsPath& --m 1 --table $oralceTableName --columns $columns --fields-terminated-by '\001'& --where "data_desc=''"
请注意,在这个命令中,有一个参数&-m&,代表的含义是使用多少个并行,这个参数的值是1,说明没有开启并行功能。
现在,我们可以将&-m&参数的值调大,使用并行导入的功能,如下面这个命令:
sqoop import --append --connect $CONNECTURL --username $ORACLENAME --password $ORACLEPASSWORD --target-dir $hdfsPath& --m 4 --table $oralceTableName --columns $columns --fields-terminated-by '\001'& --where "data_desc=''"
一般来说,Sqoop就会开启4个进程,同时进行数据的导入操作。
但是,如果从Oracle中导入的表没有主键,那么会出现如下的错误提示:
ERROR tool.ImportTool: Error during import: No primary key could be found for table creater_user.popt_cas_redirect_his. Please specify one with --split-by or perform a sequential import with '-m 1'.
在这种情况下,为了更好的使用Sqoop的并行导入功能,我们就需要从原理上理解Sqoop并行导入的实现机制。
如果需要并行导入的Oracle表的主键是id,并行的数量是4,那么Sqoop首先会执行如下一个查询:
select max(id) as max, select min(id) as min from table [where 如果指定了where子句];
通过这个查询,获取到需要拆分字段(id)的最大值和最小值,假设分别是1和1000。
然后,Sqoop会根据需要并行导入的数量,进行拆分查询,比如上面的这个例子,并行导入将拆分为如下4条SQL同时执行:
select * from table where 0 &= id & 250;
select * from table where 250 &= id & 500;
select * from table where 500 &= id & 750;
select * from table where 750 &= id & 1000;
注意,这个拆分的字段需要是整数。
从上面的例子可以看出,如果需要导入的表没有主键,我们应该如何手动选取一个合适的拆分字段,以及选择合适的并行数。
再举一个实际的例子来说明:
我们要从Oracle中导入creater_user.popt_cas_redirect_his。
这个表没有主键,所以我们需要手动选取一个合适的拆分字段。
首先看看这个表都有哪些字段:
然后,我假设ds_name字段是一个可以选取的拆分字段,然后执行下面的sql去验证我的想法:
select min(ds_name), max(ds_name) from creater_user.popt_cas_redirect_his where data_desc=''
发现结果不理想,min和max的值都是相等的。所以这个字段不合适作为拆分字段。
再测试一下另一个字段:CLIENTIPselect min(CLIENTIP), max(CLIENTIP) from creater_user.popt_cas_redirect_his where data_desc=''
这个结果还是不错的。所以我们使用CLIENTIP字段作为拆分字段。
所以,我们使用如下命令并行导入:
sqoop import --append --connect $CONNECTURL --username $ORACLENAME --password $ORACLEPASSWORD --target-dir $hdfsPath& --m 12 --split-by CLIENTIP --table $oralceTableName --columns $columns --fields-terminated-by '\001'& --where "data_desc=''"
这次执行这个命令,可以看到,消耗的时间为:20mins, 35sec,导入了33,222,896条数据。
另外,如果觉得这种拆分不能很好满足我们的需求,可以同时执行多个Sqoop命令,然后在where的参数后面指定拆分的规则。如:
sqoop import --append --connect $CONNECTURL --username $ORACLENAME --password $ORACLEPASSWORD --target-dir $hdfsPath& --m 1 --table $oralceTableName --columns $columns --fields-terminated-by '\001'& --where "data_desc='' logtime&10:00:00"
sqoop import --append --connect $CONNECTURL --username $ORACLENAME --password $ORACLEPASSWORD --target-dir $hdfsPath& --m 1 --table $oralceTableName --columns $columns --fields-terminated-by '\001'& --where "data_desc='' logtime&=10:00:00"
从而达到并行导入的目的。
更多关于Hadoop的文章,可以参考:/gpcuster/tag/Hadoop/利用SQOOP将数据从数据库导入到HDFS
利用SQOOP将数据从导入到HDFS
如下面这个shell脚本:
#的连接字符串,其中包含了Oracle的地址,SID,和端口号
CONNECTURL=jdbc:oracle:thin:@20.135.60.21:1521:DWRAC2
#使用的用户名
ORACLENAME=kkaa
#使用的密码
ORACLEPASSWORD=kkaa123
#需要从Oracle中导入的表名
oralceTableName=tt
#需要从Oracle中导入的表中的字段名
columns=AREA_ID,TEAM_NAME
#将Oracle中的数据导入到HDFS后的存放路径
hdfsPath=apps/as/hive/$oralceTableName
#执行导入逻辑。将Oracle中的数据导入到HDFS中
sqoop import --append --connect $CONNECTURL --username $ORACLENAME --password $ORACLEPASSWORD --target-dir $hdfsPath
--num-mappers 1 --table $oralceTableName --columns $columns --fields-terminated-by '\001'
执行这个脚本之后,导入程序就完成了。
接下来,用户可以自己创建外部表,将外部表的路径和HDFS中存放Oracle数据的路径对应上即可。
注意:这个程序导入到HDFS中的数据是文本格式,所以在创建Hive外部表的时候,不需要指定文件的格式为RCFile,而使用默认的TextFile即可。数据间的分隔符为'\001'。如果多次导入同一个表中的数据,数据以append的形式插入到HDFS目录中。
假设有这样这个sqoop命令,需要将Oracle中的数据导入到HDFS中:
sqoop import --append --connect $CONNECTURL --username $ORACLENAME --password $ORACLEPASSWORD --target-dir $hdfsPath
--m 1 --table $oralceTableName --columns $columns --fields-terminated-by '\001'
--where &data_desc=''&
请注意,在这个命令中,有一个参数&-m&,代表的含义是使用多少个并行,这个参数的值是1,说明没有开启并行功能。
现在,我们可以将&-m&参数的值调大,使用并行导入的功能,如下面这个命令:
sqoop import --append --connect $CONNECTURL --username $ORACLENAME --password $ORACLEPASSWORD --target-dir $hdfsPath
--m 4 --table $oralceTableName --columns $columns --fields-terminated-by '\001'
--where &data_desc=''&
一般来说,Sqoop就会开启4个进程,同时进行数据的导入操作。
但是,如果从Oracle中导入的表没有主键,那么会出现如下的错误提示:
ERROR tool.ImportTool: Error during import: No primary key could be found for table creater_user.popt_cas_redirect_his. Please specify one with --split-by or perform a sequential import with '-m 1'.
在这种情况下,为了更好的使用Sqoop的并行导入功能,我们就需要从原理上理解Sqoop并行导入的实现机制。
如果需要并行导入的Oracle表的主键是id,并行的数量是4,那么Sqoop首先会执行如下一个查询:
select max(id) as max, select min(id) as min from table [where 如果指定了where子句];
通过这个查询,获取到需要拆分字段(id)的最大值和最小值,假设分别是1和1000。
然后,Sqoop会根据需要并行导入的数量,进行拆分查询,比如上面的这个例子,并行导入将拆分为如下4条SQL同时执行:
select * from table where 0 &= id & 250;
select * from table where 250 &= id & 500;
select * from table where 500 &= id & 750;
select * from table where 750 &= id & 1000;
注意,这个拆分的字段需要是整数。
从上面的例子可以看出,如果需要导入的表没有主键,我们应该如何手动选取一个合适的拆分字段,以及选择合适的并行数。
再举一个实际的例子来说明:
我们要从Oracle中导入creater_user.popt_cas_redirect_his。
这个表没有主键,所以我们需要手动选取一个合适的拆分字段。
首先看看这个表都有哪些字段:
然后,我假设ds_name字段是一个可以选取的拆分字段,然后执行下面的sql去验证我的想法:
select min(ds_name), max(ds_name) from creater_user.popt_cas_redirect_his where data_desc=''
发现结果不理想,min和max的值都是相等的。所以这个字段不合适作为拆分字段。
再测试一下另一个字段:CLIENTIP
select min(CLIENTIP), max(CLIENTIP) from creater_user.popt_cas_redirect_his where data_desc=''
这个结果还是不错的。所以我们使用CLIENTIP字段作为拆分字段。
所以,我们使用如下命令并行导入:
sqoop import --append --connect $CONNECTURL --username $ORACLENAME --password $ORACLEPASSWORD --target-dir $hdfsPath
--m 12 --split-by CLIENTIP --table $oralceTableName --columns $columns --fields-terminated-by '\001'
--where &data_desc=''&
这次执行这个命令,可以看到,消耗的时间为:20mins, 35sec,导入了33,222,896条数据。
另外,如果觉得这种拆分不能很好满足我们的需求,可以同时执行多个Sqoop命令,然后在where的参数后面指定拆分的规则。如:
sqoop import --append --connect $CONNECTURL --username $ORACLENAME --password $ORACLEPASSWORD --target-dir $hdfsPath
--m 1 --table $oralceTableName --columns $columns --fields-terminated-by '\001'
--where &data_desc='' logtime&10:00:00&
sqoop import --append --connect $CONNECTURL --username $ORACLENAME --password $ORACLEPASSWORD --target-dir $hdfsPath
--m 1 --table $oralceTableName --columns $columns --fields-terminated-by '\001'
--where &data_desc='' logtime&=10:00:00&
从而达到并行导入的目的。Sqoop是一个转换工具,用于在关系型数据库与HDFS之间进行数据转换。
以下操作就是使用sqoop在mysql和hdfs之间转换数据。
我们使用的版本是sqoop-1.4.3.bin__hadoop-1.0.0.tar.gz,打算安装在/usr/local目录下。
Sqoop是一个转换工具,用于在关系型数据库与HDFS之间进行数据转换。
以下操作就是使用sqoop在mysql和hdfs之间转换数据。
我们使用的版本是sqoop-1.4.3.bin__hadoop-1.0.0.tar.gz,打算安装在/usr/local目录下。
首先就是解压缩,重命名为sqoop,然后在文件/etc/profile中设置环境变量SQOOP_HOME。
把mysql的jdbc驱动mysql-connector-java-5.1.10.jar复制到sqoop项目的lib目录下。
2.重命名配置文件
在${SQOOP_HOME}/conf中执行命令
sqoop-env-template.sh
sqoop-env.sh
在conf目录下,有两个文件sqoop-site.xml和sqoop-site-template.xml内容是完全一样的,不必在意,我们只关心sqoop-site.xml即可。
3.修改配置文件sqoop-env.sh
#Set path to where bin/hadoop is available
export HADOOP_COMMON_HOME=/usr/local/hadoop/
#Set path to where hadoop-*-core.jar is available
export HADOOP_MAPRED_HOME=/usr/local/hadoop
#set the path to where bin/hbase is available
export HBASE_HOME=/usr/local/hbase
#Set the path to where bin/hive is available
export HIVE_HOME=/usr/local/hive
#Set the path for where zookeper config dir is
export ZOOCFGDIR=/usr/local/zk
好了,搞定了,下面就可以运行了。
4.把数据从mysql导入到hdfs中
在mysql中数据库test中有一张表是aa
现在我们要做的是把aa中的数据导入到hdfs中,执行命令如下
sqoop ##sqoop命令
import ##表示导入
–connect jdbc:mysql://ip:3306/sqoop ##告诉jdbc,连接mysql的url
–username root ##连接mysql的用户名
–password admin ##连接mysql的密码
–table aa ##从mysql导出的表名称
–fields-terminated-by ‘\t’ ##指定输出文件中的行的字段分隔符
-m 1 ##复制过程使用1个map作业
以上的命令中后面的##部分是注释,执行的时候需要删掉;另外,命令的所有内容不能换行,只能一行才能执行。以下操作类似。
该命令执行结束后,观察hdfs的目录/user/{USER_NAME},下面会有一个文件夹是aa,里面有个文件是part-m-00000。该文件的内容就是数据表aa的内容,字段之间是使用制表符分割的。
5.把数据从hdfs导出到mysql中
把上一步导入到hdfs的数据导出到mysql中。我们已知该文件有两个字段,使用制表符分隔的。那么,我们现在数据库test中创建一个数据表叫做bb,里面有两个字段。然后执行下面的命令
export ##表示数据从hive复制到mysql中
–connect jdbc:mysql://192.168.1.113:3306/test
–username root
–password admin
–table bb ##mysql中的表,即将被导入的表名称
–export-dir ‘/user/root/aa/part-m-00000′ ##hive中被导出的文件
–fields-terminated-by ‘\t’ ##hive中被导出的文件字段的分隔符
命令执行完后,再去观察表bb中的数据,是不是已经存在了!
Hadoop启动时,出现 Warning:$HADOOP_HOME is deprecated
虽然不影响程序运行,但是看到这样的警告信息总是觉得自己做得不够好,怎么去掉哪?
我们一步步分享,先看一下启动脚本start-all.sh的源码,
虽然我们看不懂shell脚本的语法,但是可以猜到可能和文件hadoop-config.sh有关,我们再看一下这个文件的源码。该文件特大,我们只截取最后一部分,
从图中的红色框框中可以看到,脚本判断变量HADOOP_HOME_WARN_SUPPRESS和HADOOP_HOME的值,如果前者为空,后者不为空,则显示警告信息“Warning……”。
我们在安装hadoop是,设置了环境变量HADOOP_HOME造成的。
网上有的说新的hadoop版本使用HADOOP_INSTALL作为环境变量,我还没有看到源代码,并且担心其他框架与hadoop的兼容性,所以暂时不修改,那么只好设置HADOOP_HOME_WARN_SUPPRESS的值了。
修改配置文件/etc/profile(我原来一直在这里设置环境变量,操作系统是rhel6.3),增加环境变量HADOOP_HOME_WARN_SUPPRESS,
保存退出,再次启动hadoop,就不会出现警告信息了
1、列出mysql数据库中的所有数据库
sqoop list-databases –connect jdbc:mysql://localhost:3306/ -username dyh -password 000000
2、连接mysql并列出数据库中的表
sqoop list-tables –connect jdbc:mysql://localhost:3306/test –username dyh –password 000000
3、将关系型数据的表结构复制到hive中
sqoop create-hive-table –connect jdbc:mysql://localhost:3306/test –table users –username dyh
–password 000000 –hive-table users –fields-terminated-by “\0001″ –lines-terminated-by “\n”;
参数说明:
–fields-terminated-by “\0001″ 是设置每列之间的分隔符,”\0001″是ASCII码中的1,它也是hive的默认行内分隔符, 而sqoop的默认行内分隔符为”,”
–lines-terminated-by “\n” 设置的是每行之间的分隔符,此处为换行符,也是默认的分隔符;
注意:只是复制表的结构,表中的内容没有复制
4、将数据从关系数据库导入文件到hive表中
sqoop import –connect jdbc:mysql://localhost:3306/test –username dyh –password 000000
–table users –hive-import –hive-table users -m 2 –fields-terminated-by “\0001″;
参数说明:
-m 2 表示由两个map作业执行;
–fields-terminated-by “\0001″ 需同创建hive表时保持一致;
5、将hive中的表数据导入到mysql数据库表中
sqoop export –connect jdbc:mysql://192.168.20.118:3306/test –username dyh –password 000000
–table users –export-dir /user/hive/warehouse/users/part-m-00000
–input-fields-terminated-by ‘\0001′
1、在进行导入之前,mysql中的表userst必须已经提起创建好了。
2、jdbc:mysql://192.168.20.118:3306/test中的IP地址改成localhost会报异常,具体见本人上一篇帖子
6、将数据从关系数据库导入文件到hive表中,–query 语句使用
sqoop import –append –connect jdbc:mysql://192.168.20.118:3306/test –username dyh –password 000000 –query “select id,age,name from userinfos where \$CONDITIONS” -m 1 –target-dir /user/hive/warehouse/userinfos2 –fields-terminated-by “,”;
7、将数据从关系数据库导入文件到hive表中,–columns –where 语句使用
sqoop import –append –connect jdbc:mysql://192.168.20.118:3306/test –username dyh –password 000000 –table userinfos –columns “id,age,name” –where “id & 3 and (age = 88 or age = 80)” -m 1 –target-dir /user/hive/warehouse/userinfos2 –fields-terminated-by “,”;
注意:–target-dir /user/hive/warehouse/userinfos2 可以用 –hive-import –hive-table userinfos2 进行替换
版权声明:本文内容由互联网用户自发贡献,本社区不拥有所有权,也不承担相关法律责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件至: 进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容。
用云栖社区APP,舒服~
【云栖快讯】首届阿里巴巴中间件技术峰会,揭秘阿里10年分布式技术沉淀!阿里高可用体系核心缔造者、全链路压测创始人,DRDS与TDDL负责人等大咖出场,干货分享,不可错过!&&
一种稳定、可靠、容量和服务能力可弹性伸缩的分布式关系型数据库服务。
深度挖掘企业与企业、企业与人物的关系,通过多位交叉分析及智能算法,构建基于企业全息画像和企业关系网络的风险洞察、...
RDS是一种稳定可靠、可弹性伸缩的在线数据库服务。支持MySQL、SQL Server、PostgreSQL、高...
为您提供简单高效、处理能力可弹性伸缩的计算服务,帮助您快速构建更稳定、安全的应用,提升运维效率,降低 IT 成本...
2017杭州云栖大会火热抢票
Loading...

我要回帖

更多关于 java导入xlsx文件 的文章

 

随机推荐