当前位置:操作系统 > Unix/Linux >>

优化exp/imp导入导出速度大全

优化exp/imp导入导出速度大全
 
1、exp 
 
  我们知道采用direct path可以提高导出速度。所以,在使用exp时,就可以采用直接路径模式。这种模式有2个相关的参数:DIRECT和RECORDLENGTH参数。
 
       DIRECT参数定义了导出是使用直接路径方式(DIRECT=Y),还是常规路径方式(DIRECT=N)。常规路径导出使用SQL SELECT语句从表中抽取数据,直接路径导出则是将数据直接从磁盘读到PGA再原样写入导出文件,从而避免了SQL命令处理层的数据转换过程,大大提高了导出效率。在数据量大的情况下,直接路径导出的效率优势更为明显,可比常规方法速度提高三倍之多。
 
  和DIRECT=Y配合使用的是RECORDLENGTH参数,它定义了Export I/O缓冲的大小,作用类似于常规路径导出使用的BUFFER参数。建议设置RECORDLENGTH参数为最大I/O缓冲,即65535(64kb)。其用法如下:
 
       如:exp userid=system/manager  full=y  direct=y  recordlength=65535 file=exp_full.dmp log=exp_full.log
 
 
 
一些限制如下:
 
·    直接路径不能使用在tablespace-mode
 
·    直接路径不支持query参数。query只能在conventional path模式下使用。
 
·    如果exp版本小于8.1.5,不能使用exp导入有lob字段的表。 不过现在很少有有8版本的数据库了。这点可以忽略掉了。
 
·    buffer选项只对conventional path exp(传统路径)有效。对于直接路径没有影响。对于直接路径,应该设置RECORDLENGTH参数。
 
·    对于直接路径下, RECORDLENGTH参数建议设成64k(65535)。这个值对性能提高比较大。
 
 
 
 
 
2、IMP
 
       Oracle Import进程需要花比Export进程数倍的时间将数据导入数据库。某些关键时刻,导入是为了应对数据库的紧急故障恢复。为了减少宕机时间,加快导入速度显得至关重要。没有特效办法加速一个大数据量的导入,但我们可以做一些适当的设定以减少整个导入时间。
 
·    IMP作了大量的跟普通方式一样的insert
 
·    IMP时候创建索引通常是logging的,产生了大量的undo和redo
 
 
 
提高IMP速度:
 
(1、不建议使用commit参数,因为当imp失败的时候,会导致很多后续的麻烦事儿
 
 
 
(2、增大buffer参数值,以便于一次读进更大的array
 
  Imp 参数BUFFER定义了每一次读取导出文件的数据量,设的越大,就越减少Import进程读取数据的次数,从而提高导入效率。BUFFER的大小取决于系统应用、数据库规模,通常来说,设为百兆就足够了。其用法如下:
 
  imp  user/pwd  fromuser=user1  touser=user2  file=/tmp/imp_db_pipe1  commit=y feedback=10000 buffer=10240000
 
 
 
(3、设置较大的初始化参数sort_area_size,以加快创建索引时候的排序速度,大内存启用ASMM/AMM之后感觉没有什么作用。
 
 
 
(4、使用INDEXES=N选项,导入数据之后再手工创建索引。
 
  前面谈到增加排序区时,说明Imp进程会先导入数据再创建索引。导入过程中建立用户定义的索引,特别是表上有多个索引或者数据表特别庞大时,需要耗费大量时间。某些情况下,需要以最快的时间导入数据,而索引允许后建,我们就可以使用INDEXES=N只导入数据不创建索引,从而加快导入速度。
 
  我们可以用INDEXFILE选项生成创建索引的DLL脚本,再手工创建索引。我们也可以用如下的方法导入两次,第一次导入数据,第二次导入索引。其用法
 
如下:
 
imp user/pwd fromuser=user1 touser=user2 file=/tmp/imp_db_pipe1 commit=y feedback=10000 buffer=10240000 ignore=y rows=y indexes=n
 
imp user/pwd fromuser=user1 touser=user2 file=/tmp/imp_index_pipe1 commit=y feedback=10000 buffer=10240000 ignore=y rows=n indexes=y
 
 
 
(5、增加 LARGE_POOL_SIZE
 
  如果在init.ora中配置了MTS_SERVICE,MTS_DISPATCHERS等参数,tnsnames.ora中又没有(SERVER=DEDICATED)的配置,那么数据库就使用了共享服务器模式。在MTS模式下,Exp/Imp操作会用到LARGE_POOL,建议调整LARGE_POOL_SIZE到150M。
 
检查数据库是否在MTS模式下:
 
  SQL>select distinct server from v$session;    ----如果返回值出现none或shared,说明启用了MTS。
 
 
 
(6、增大重作日志的大小
 
       以减少log switch的次数,也就是减少checkpoint次数,减少写磁盘的次数
 
 
 
(7、如果要往已经存在的表中追加数据
 
       那么有些情况下,比如表中存在位图索引,那么最好先删除索引,再导入。否则更新索引时会产生大量等待
 
 
 
注意:相关的几个参数
 
1、db_writer_processes imp导入时,如果吧上面的几点都做好了,还有一个影响最大的参数需要确认,那就是db_writer_processes,进程的个数,可以根据服务器的CPU酌情增加。速度可以大大提高。
 
2、 fast_start_mttr_target平均恢复时间,需要设置一个合理的数字,比如300秒。加快系统做检查点
 
 
 
其他需要注意的:
 
1. 目标数据库设置为非归档模式,当然停掉资料库同使用Nologging更好。
 
2. 导入的时候可以将索引和约束全部去掉( index , constraint , trigger等, drop或者disable掉所有的index以及相关的pk)
 
3. 在回滚段够大的情况下,不用加commit=y参数,频繁提交会影响效率;
 
4. 可以考虑使用DBLINK迁移,同样使用非归档模式,insert /*+ append*/ into select /*+ parallel(t,4)*/ * from t@dblink; ;
 
5. 迁移的过程中时刻注意各种空间是否够用(包括redolog,archivelog,undo segment,temp tbs);
 
6. 其他的因素干扰(Job, Trigger, Profile等等)。
 
7.Imp的时候buffer给的大一些。
 
8.imp没有parallel,想要用parallel那么就把原表输出成多个csv然后用sqlldr
 
9. 可以试试物化视图(Material View),如果是单独表空间的话,也可以考虑transport tablespace 。
 
10.可以考虑使用EXPDP和IMPDP。
 
11 为 table/index设置Nologging。
 
12. 同平台的话,按表空间传输,更快 .
 
13. 用的query子查询导出导入 (exp imp) .
 
14.ignore=y buffer=40960000,一秒至少应该是10w记录。
 
15.先创建表,删除索引信息。表设置并行度。如果可以分区的话。建议并行导入。即写多个脚本。每个脚本导入不同的分区内容。加上commit=y,导入完毕后并行创建索引,创建完毕后取消并行度。
 
CopyRight © 2022 站长资源库 编程知识问答 zzzyk.com All Rights Reserved
部分文章来自网络,