我试图弄清楚我现在拥有的当前重做日志大小是否是最佳的。这是我所做的:
- 我使用 Oracle 文档找到了大部分此类信息: http ://www.oracle.com/technetwork/database/availability/async-2587521.pdf
使用 SQL 我使用了以下查询
select thread#,sequence#,blocks*block_size/1024/1024 "MB",(next_time-first_time)*86400 "sec", (blocks*block_size/1024/1024)/((next_time-first_time)*86400) "MB/s" from V$ARCHIVED_LOG where ((next_time-first_time)*86400<>0) and first_time between to_date('2020/03/28 08:00:00','YYYY/MM/DD HH24:MI:SS') and to_date('2020/05/28 11:00:00','YYYY/MM/DD HH24:MI:SS') and dest_id=3 order by first_time
根据结果,我计算出平均 MB/S 为 7.67,最大 MB/S 为 245 MB/S
- 根据 Oracle 文档, 请参阅有关推荐的重做日志组大小的表
使用此查询
select * from V$LOGFILE a, V$LOG b where a.GROUP# = b.GROUP#
我发现我有 15 个 2 GB 的组,所以重做日志组大小是 30 GB。
- Oracle 说“一般来说,我们建议在峰值速率的基础上再增加 30%”,这意味着我预计会有 245mb/s*1.3 = 318.5 MB/S。然后这里是我有点迷路的地方。我是否使用我所附图片中的表格?如果是这样,我应该有一个 64GB 的重做日志组大小?还是我在不应该建立联系的地方建立联系?
最后,我也做了
select optimal_logfile_size from v$instance_recovery
并返回 14 GB。
我无法建立所有连接并试图确认我的重做日志大小足够。