下载此文档

数据迁移实例.docx


文档分类:IT计算机 | 页数:约7页 举报非法文档有奖
1/7
下载提示
  • 1.该资料是网友上传的,本站提供全文预览,预览什么样,下载就什么样。
  • 2.下载该文档所得收入归上传者、原创者。
  • 3.下载的文档,不会出现我们的网址水印。
1/7 下载此文档
文档列表 文档介绍
前段时间完成一个大型数据库的迁移工作,情况比较复杂好在经过一些小插曲之后总算圆满完成任务。下面是我的一些经验总结
希望各位多提意见。
虽然在操作之前作过一些测试,但主要考虑脚本的正确与否以及对数据库对象的影响。并没有完全在实际系统上运行。这也成为后来
出现的一个问题没有预计到的根源。毕竟比较早的版本我没有用过:)。,file=file1,
file2不能使用,而且也不清楚老的hp-unix是32位的时候支持大于2g的文件,。后来出现问题之后
经过查证系统支持,此避免使用磁带机或者文件压缩的方式(具体方法网络上有相关资料)。
由于考虑到加快数据导入速度,我在数据导入的时候将数据库指定用户所有not unique index全部删除,注意因为新数据库中已经有
一部分数据,为保证不导入重复数据不能够禁止PK,这样也就无法将unique index删除或者unusable。这里要提醒大家的是如果是PK的
unique index设置为unusable之后将不能向其中插入数据,这样在imp 时使用skip_unusable参数也不起作用,不管数据重复与否都无法
插入表。所以当表由数据的时候,要保证没有重复数据,并且可以插入新数据就不能将unique index设置为unusable。
这里我采用的方法是删除所有not unique index,保留PK对应索引。这样既保证数据不重复,有提高速度。
老系统运行环境:
os hp-unix
db
memory 2G
cpu 2个
数据文件大小22G(包括数据、索引、临时),。其中表数据经过分析大小不到4G。后来导出数据的确是不到
3G多,说明是前的分析还是比较准确。
我使用分析脚本是:其它还有一些脚本也差不多,就是从几个关键字典表分析。
SELECT , ,
SUBSTR('Free: '||SUM()/1024/1024,1,30) File_Size
FROM dba_free_space b, v$DATABASE a
GROUP BY ,
UNION
SELECT , ,
SUBSTR('Total: '||SUM()/1024/1024,1,30)
FROM dba_data_files b, v$DATABASE a
GROUP BY ,
ORDER BY 1,2,3
SELECT TABLESPACE_NAME, SUM(BYTES)/(1024*1024) FREE_SPACE
FROM DBA_FREE_SPACE GROUP BY TABLESPACE_NAME;
SELECT TABLESPACE_NAME, BYTES, AUTOEXTENSIBLE,FILE_NAME FROM DBA_DATA_FILES;
二、数据迁移目标

数据迁移实例 来自淘豆网m.daumloan.com转载请标明出处.

非法内容举报中心
文档信息
  • 页数7
  • 收藏数0 收藏
  • 顶次数0
  • 上传人莫欺少年穷
  • 文件大小20 KB
  • 时间2020-12-28