
Oracle-sql优化之统计信息
本文章主要讲述生产运维中常见的统计信息导致执行计划异常的情形以及如何确认统计信息是否存在问题,Oracle的执行计划生成是基于cost,而cost则是根据表的统计信息以及服务器性能指标去计算的,所以一个正确的统计信息对于执行计划的生成非常重要。
前言:
本文章主要讲述生产运维中常见的统计信息导致执行计划异常的情形以及如何确认统计信息是否存在问题,Oracle的执行计划生成是基于cost,而cost则是根据表的统计信息以及服务器性能指标去计算的,所以一个正确的统计信息对于执行计划的生成非常重要。
初始化测试数据:
#关闭动态收集,避免对测试造成影响
alter system set optimizer_dynamic_sampling=0;
#创建T1表
create table t1(id number(10) primary key,id1 number(10),name varchar2(32),name1 varchar2(32),name2 varchar2(32),create_date date);
create index t1_ind1 on t1(create_date);
#插入500W数据
declare
v_count number(10):=0;
v_interval number(10):=0;
begin
for i in 1..5000000 loop
insert into T1 values(i,i+1,'aaaaaaaaa','bbbbbbbbbbbbbbbb','cccccccccccccc',sysdate-v_interval);
v_count:=v_count+1;
if v_count>=50000 THEN
commit;
v_count:=0;
v_interval:=v_interval+1;
end if;
end loop;
commit;
end;
/
#创建表t2
create table t2 as select * from t1 sample(30) where rownum<100001;
alter table t2 add constraint t2_pk_id primary key(id);
#对表T2收集统计信息
BEGIN
DBMS_STATS.GATHER_TABLE_STATS(ownname => 'SYS',
tabname => 'T2',
estimate_percent => 60,
method_opt => 'for all columns size skewonly',
no_invalidate => FALSE,
degree => 1,
cascade => TRUE);
END;
/
场景一:表缺失统计信息或者统计信息过旧
由于初始化数据之后,我们并没有收集统计信息,所以现在表的统计信息是缺失的。
SELECT owner,
table_name,
num_rows,
sample_size,
round(sample_size / num_rows * 100) estimate_percent
FROM DBA_TAB_STATISTICS
WHERE table_name='T1'
OWNER TABLE_NAME NUM_ROWS SAMPLE_SIZE ESTIMATE_PERCENT
-------------------------------------------------- -------------------------------------------------- ---------- ----------- ----------------
SYS T1
执行以下查询。
set linesize 200 pagesize 999
set serveroutput off
alter session set statistics_level=all;
select /*no_statistics */ count(name) from t1 where create_date>to_date('2022-02-01 00:00:00','yyyy-mm-dd hh24:mi:ss');
select * from table(dbms_xplan.display_cursor(null,null,'advanced PROJECTION allstats last'));
执行计划走了索引扫描,执行时间2.09秒,估算的行数为35857,但实际扫描的行数为3580K。
通过10053获取执行计划的产生过程。
ALTER SESSION SET EVENTS='10053 trace name context forever, level 2';
select /*no_statistics */ count(name) from t1 where create_date>to_date('2022-02-01 00:00:00','yyyy-mm-dd hh24:mi:ss');
ALTER SESSION SET EVENTS '10053 trace name context off';
可以查看,由于统计信息为空,Oracle采用的是估算出的表的统计信息,但估算的统计信息与实际是差别很大的。
根据估算的统计信息,走全表扫描的cost为13253.374804,走索引的cost为0.000005,所以最终 优化器走了索引。
接下来,我们对表进行统计信息收集。
BEGIN
DBMS_STATS.GATHER_TABLE_STATS(ownname => 'SYS',
tabname => 'T1',
estimate_percent => 60,
method_opt => 'for all columns size skewonly',
no_invalidate => FALSE,
degree => 1,
cascade => TRUE);
END;
/
再执行查询语句。
set linesize 200 pagesize 999
set serveroutput off
alter session set statistics_level=all;
select /*statistics */ count(name) from t1 where create_date>to_date('2022-02-0100:00:00','yyyy-mm-dd hh24:mi:ss');
select * from table(dbms_xplan.display_cursor(null,null,'advanced PROJECTION allstats last'));
可以看到,这次执行计划走了全表扫描,执行时间0.47秒,估算的行数为3862K与实际扫描的行数3580K非常接近。
通过10053获取执行计划的产生过程。
ALTER SESSION SET EVENTS='10053 trace name context forever, level 2';
select /*statistics */ count(name) from t1 where create_date>to_date('2022-02-01 00:00:00','yyyy-mm-dd hh24:mi:ss');
ALTER SESSION SET EVENTS '10053 trace name context off';
可以看到,这次生成执行计划有了表的统计信息。
根据表的统计信息,走全表扫描的cost为13263.554628,走索引的cost为55119,所以最终优化器走了全表扫描。
综上所述,我们可以看到一个正确的统计信息对于执行计划的重要性。
场景二:清理数据导致统计信息不准
在跑批的场景中,经常会对中间表进行清理数据的操作,重复流程为:跑批开始--->清理中间表--->插入数据--->处理数据,而有时候如果在清理数据--->插入数据期间刚好进行了统计信息收集,通常是数据库自己的定时统计信息收集,就会导致表的统计信息与实际的数据量差入很大的情况。
在这种情况下,往往会出现平常只需要跑几分钟的批量,由于执行计划的异常几个小时也跑不完。
清空t1数据。
truncate table t1;
对t1执行统计信息收集。
BEGIN
DBMS_STATS.GATHER_TABLE_STATS(ownname => 'SYS',
tabname => 'T1',
estimate_percent => 60,
method_opt => 'for all columns size skewonly',
no_invalidate => FALSE,
degree => 1,
cascade => TRUE);
END;
/
这时候的表统计信息都为0,因为没有数据。
set linesize 200
set pagesize 200
select a.column_name,a.owner,a.table_name,
b.num_rows,
a.num_nulls,
a.num_distinct Cardinality,
a.histogram,
a.num_buckets,
to_char(a.LAST_ANALYZED,'yyyy-mm-dd hh24:mi:ss')
from dba_tab_col_statistics a, dba_tables b
where a.owner = b.owner
and a.table_name = b.table_name
and a.table_name = 'T1';
再重新插入数据。
declare
v_count number(10):=0;
v_interval number(10):=0;
begin
for i in 1..5000000 loop
insert into T1 values(i,i+1,'aaaaaaaaa','bbbbbbbbbbbbbbbb','cccccccccccccc',sysdate-v_interval);
v_count:=v_count+1;
if v_count>=50000 THEN
commit;
v_count:=0;
v_interval:=v_interval+1;
end if;
end loop;
commit;
end;
/
执行sql,执行时间为1.33秒。
set linesize 200 pagesize 999
set serveroutput off
alter session set statistics_level=all;
select /*no_statistics */ sum(t1.id1) from t1,t2 where t1.id=t2.id and t1.create_date>to_date('2022-03-01 00:00:00','yyyy-mm-dd hh24:mi:ss') and t2.id1>10000;
select * from table(dbms_xplan.display_cursor(null,null,'advanced PROJECTION allstats last'));
通过执行计划可以看到,由于错误的统计信息,执行计划让T1做为了驱动表(统计信息里面数据量少,优化器认为是小表),这样最终会导致被驱动表走2500k次扫描,不是一个合理的执行计划。
重新对T1表执行统计信息收集。
BEGIN
DBMS_STATS.GATHER_TABLE_STATS(ownname => 'SYS',
tabname => 'T1',
estimate_percent => 60,
method_opt => 'for all columns size skewonly',
no_invalidate => FALSE,
degree => 1,
cascade => TRUE);
END;
/
重新执行sql,执行时间为0.6秒。
set linesize 200 pagesize 999
set serveroutput off
alter session set statistics_level=all;
select /*statistics */ sum(t1.id1) from t1,t2 where t1.id=t2.id and t1.create_date>to_date('2022-03-01 00:00:00','yyyy-mm-dd hh24:mi:ss') and t2.id1>10000;
select * from table(dbms_xplan.display_cursor(null,null,'advanced PROJECTION allstats last'));
查看执行计划,T2为驱动表、T1为被驱动两表表全表扫描+hash join,因为T1,T2过滤之后的数据量还是很大,不适合走索引+nest loop,通过hash join关联走全表是一个合理的选择。
场景三: 新增数据导致统计信息不准
对于表每日新增的数据,由于统计信息不能及时的更新会导致执行计划的异常,特别是对于没有使用绑定变量的sql,每次执行都进行硬解析,执行计划异常的概率会更加大。
对T1表进行统计信息收集。
BEGIN
DBMS_STATS.GATHER_TABLE_STATS(ownname => 'SYS',
tabname => 'T1',
estimate_percent => 60,
method_opt => 'for all columns size skewonly',
no_invalidate => FALSE,
degree => 1,
cascade => TRUE);
END;
/
执行sql查询2022-4-17号的数据,执行时间0.39秒。
set linesize 200 pagesize 999
set serveroutput off
alter session set statistics_level=all;
select /*2022-4-17 */ sum(t1.id1) from t1,t2 where t1.id=t2.id and t1.create_date>to_date('2022-04-17 00:00:00','yyyy-mm-dd hh24:mi:ss') and t2.id1>10000;
select * from table(dbms_xplan.display_cursor(null,null,'advanced PROJECTION allstats last'));
T2作为驱动表、T1作为被驱动表走hash join,执行计划合理 。
批量插入2022-04-19号的数据。
declare
v_count number(10):=0;
v_interval number(10):=0;
begin
for i in 5000001..6000000 loop
insert into T1 values(i,i+1,'aaaaaaaaa','bbbbbbbbbbbbbbbb','cccccccccccccc',sysdate);
v_count:=v_count+1;
if v_count>=50000 THEN
commit;
v_count:=0;
v_interval:=v_interval+1;
end if;
end loop;
commit;
end;
/
执行sql查询2022-4-19号的数据,0.59秒。
set linesize 200 pagesize 999
set serveroutput off
alter session set statistics_level=all;
select /*2022-04-19 */ sum(t1.id1) from t1,t2 where t1.id=t2.id and t1.create_date>to_date('2022-04-19 00:00:00','yyyy-mm-dd hh24:mi:ss') and t2.id1>50000;
select * from table(dbms_xplan.display_cursor(null,null,'advanced PROJECTION allstats last'));
可以看到执行计划用了T1表做驱动表,由于统计信息没有包含2022-04-19的信息,所以执行计划用了估算的统计信息,但T1表实际过滤之后还有1000K的数据,并且使用了hash join,需要消耗57M的内存,不是一个合理的执行计划。
对T1表重新进行统计信息收集。
BEGIN
DBMS_STATS.GATHER_TABLE_STATS(ownname => 'SYS',
tabname => 'T1',
estimate_percent => 60,
method_opt => 'for all columns size skewonly',
no_invalidate => FALSE,
degree => 1,
cascade => TRUE);
END;
/
再次执行sql查询2022-4-19号的数据,0.35秒。
set linesize 200 pagesize 999
set serveroutput off
alter session set statistics_level=all;
select /*2022-04-19 */ sum(t1.id1) from t1,t2 where t1.id=t2.id and t1.create_date>to_date('2022-04-19 00:00:00','yyyy-mm-dd hh24:mi:ss') and t2.id1>50000;
select * from table(dbms_xplan.display_cursor(null,null,'advanced PROJECTION allstats last'));
查看这一次的执行计划,用了更小的表T2作为驱动表,依然是hash join但内存消耗只有5784k,并且速度更快,是一个合理的执行计划。
场景四:统计信息缺失直方图信息
如果表字段存在数据倾斜的情况,可能导致执行计划选择不合理的执行路径,为什么数据倾斜会导致不合理的执行路径?我们假设一个1000W的表,A列存放1000个不同值,其中a1值占了90%、其他值占剩下10%,那么对于其他10%的值走索引是个合理的执行计划,但对于占了90%的a1值来说,走索引的执行计划是不合理,这种情况我们需要对列索引收集直方图(数据的分布情况),来确保执行计划选择的正确性。
创建T3表,并插入倾斜数据channel_code,其中'1-1000'占20%,'888888888888'占80%。
#创建T3表
create table t3(id number(10) primary key,id1 number(10),name varchar2(32),name1 varchar2(32),name2 varchar2(32),channel_code varchar2(32));
create index t3_ind1 on t3(channel_code);
#插入500W数据
declare
v_count number(10):=0;
v_interval number(10):=0;
begin
for i in 1..1000000 loop
insert into T3 values(i,i+1,'aaaaaaaaa','bbbbbbbbbbbbbbbb','cccccccccccccc',v_interval);
v_count:=v_count+1;
if v_count>=1000 THEN
commit;
v_count:=0;
v_interval:=v_interval+1;
end if;
end loop;
commit;
end;
/
declare
v_count number(10):=0;
v_interval number(10):=0;
begin
for i in 1000001..5000000 loop
insert into T3 values(i,i+1,'aaaaaaaaa','bbbbbbbbbbbbbbbb','cccccccccccccc','888888888888');
v_count:=v_count+1;
if v_count>=100000 THEN
commit;
v_count:=0;
v_interval:=v_interval+1;
end if;
end loop;
commit;
end;
/
进行统计信息收集,不收集直方图。
BEGIN
DBMS_STATS.GATHER_TABLE_STATS(ownname => 'SYS',
tabname => 'T3',
estimate_percent => 60,
method_opt => 'for all columns size 1',
no_invalidate => FALSE,
degree => 1,
cascade => TRUE);
END;
/
查看表列的直方图信息,可以看到HISTOGRAM 为none,没有直方图信息。
set linesize 200
col owner for a10
col table_name for a15
col column_name for a15
alter session set nls_date_format='yyyy-mm-dd hh24:mi:ss';
select owner,table_name,column_name,histogram,num_distinct,num_buckets,last_analyzed
from dba_tab_columns
where table_name='T3';
执行sql查询channel_code='1'。
set linesize 200 pagesize 999
set serveroutput off
alter session set statistics_level=all;
select /*channel_code=1 */ sum(t3.id1) from t3 where channel_code='1';
select * from table(dbms_xplan.display_cursor(null,null,'advanced PROJECTION allstats last'));
可以看到走了T3_IND1的访问扫描,而估算的行数为5082,这个值为统计信息column_distinct/table_rows。
执行sql查询channel_code='888888888888'。
set linesize 200 pagesize 999
set serveroutput off
alter session set statistics_level=all;
select /*channel_code=888888888888 */ sum(t3.id1) from t3 where channel_code='888888888888';
select * from table(dbms_xplan.display_cursor(null,null,'advanced PROJECTION allstats last'));
可以看到查询channel_code='888888888888',依然走的是索引范围扫描,估算的行依然是5082,但实际的行数为4000k,一致性读和物理读也很高。
对T3表重新进行统计信息收集,收集直方图。
BEGIN
DBMS_STATS.GATHER_TABLE_STATS(ownname => 'SYS',
tabname => 'T3',
estimate_percent => 60,
method_opt => 'for all columns size 245',
no_invalidate => FALSE,
degree => 1,
cascade => TRUE);
END;
/
查看表列的直方图信息,可以看到HISTOGRAM 为高度均衡直方图(height balanced)。
再次执行sql查询channel_code='888888888888'。
set linesize 200 pagesize 999
set serveroutput off
alter session set statistics_level=all;
select /*channel_code=888888888888 */ sum(t3.id1) from t3 where channel_code='888888888888';
select * from table(dbms_xplan.display_cursor(null,null,'advanced PROJECTION allstats last'));
可以看到查询走的是全表扫描,估算的行为3998k,一致性读和物理读比走索引下降了20%,执行时间也下降了1秒。
如何确认统计信息是否存在问题
1 通过执行计划确认统计信息是否正确,这种方法,需要我们获取实际的扫描行数并需要正常执行完sql。
要采用以下的方法执行sql,才能获取实际的扫描行数。
set linesize 200 pagesize 999
set serveroutput off
alter session set statistics_level=all;
执行sql语句
select * from table(dbms_xplan.display_cursor(null,null,'advanced PROJECTION allstats last'));
通过比对估算E-ROWS 与实际行数A-ROWS的差异,来确认统计信息是否正确。
2 通过系统视图dba_tab_statistics查看是否过期,#STALE_STATS 显示为 YES 表示表的统计信息过期了。如果 STALE_STATS 显示为 NO,表示表的统计信息没有过期。
select owner, table_name , object_type, stale_stats, last_analyzed
from dba_tab_statistics
where owner = 'SYS'
and table_name = 'T1';
例如,现在查看表T1的统计信息stale_stats为NO,表示没有过期。
执行truncate 清空表数据。
再次查看,会发现T1的统计信息stale_stats为YES,表示过期。
而过期的原因,我们可以通过dba_tab_modifications去获取。
#表记录的是上一次统计信息以来,表的DML操作记录
select table_owner, table_name, inserts, updates, deletes, timestamp
from dba_tab_modifications
where table_owner = 'SYS'
and table_name = 'T1';
可以看到,过期的原因是因为delete了5948743行数据。
3 上述方法1,2都没有直观的去比较统计信息的差异,我们可以通过dbms_stats去比对统计信息的差异。
查询统计信息收集的历史执行情况。
select OBJ# ,ROWCNT,BLKCNT,AVGRLN,SAMPLESIZE,ANALYZETIME,SAVTIME
from sys.WRI$_OPTSTAT_TAB_HISTORY
where obj#=(select object_id from dba_objects where object_name='T1' and owner='SYS' and object_type='TABLE')
order by ANALYZETIME;
比对当前执行计划跟2022-04-19 11:52:37的区别。
set longchunksize 99999;
select *
from table(
dbms_stats.diff_table_stats_in_history(
ownname => 'SYS',
tabname => 'T1',
time1 => systimestamp,
time2 => to_timestamp(to_date('2022-04-19 11:52:37','yyyy-mm-dd hh24:mi:ss'))
));
执行之后会生成一份报告,从报告我们可以看到当前的统计信息与之前的统计信息的差异,当前统计信息的行数为0,而之前旧的统计信息的行数接近500W,可以推断出这段时间表做了数据清理的工作。
#PCTTHRESHOLD : 10 表示差异超过10%的数据
REPORT
--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
MAXDIFFPCT
----------
###############################################################################
STATISTICS DIFFERENCE REPORT FOR:
.................................
TABLE : T1
OWNER : SYS
SOURCE A : Statistics as of 19-APR-22 07.25.10.225877 PM +08:00
SOURCE B : Statistics as of 19-APR-22 11.52.37.000000 AM +08:00
REPORT
--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
MAXDIFFPCT
----------
PCTTHRESHOLD : 10
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
TABLE / (SUB)PARTITION STATISTICS DIFFERENCE:
.............................................
OBJECTNAME TYP SRC ROWS BLOCKS ROWLEN SAMPSIZE
...............................................................................
REPORT
--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
MAXDIFFPCT
----------
T1 T A 0 0 0 0
B 4950363 48822 62 2970218
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
COLUMN STATISTICS DIFFERENCE:
.............................
COLUMN_NAME SRC NDV DENSITY HIST NULLS LEN MIN MAX SAMPSIZ
...............................................................................
REPORT
--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
MAXDIFFPCT
----------
CREATE_DATE A 0 0 NO 0 0 NULL
B 381 .003164556 YES 0 8 787A0 787A0 2968832
ID A 0 0 NO 0 0 NULL
B 4949143 .000000202 NO 0 6 C3060 C4056 2969486
ID1 A 0 0 NO 0 0 NULL
B 4948497 .000000202 NO 0 6 C3060 C406 2969098
NAME A 0 0 NO 0 0 NULL
B 1 .000000101 YES 0 10 61616 61616 2969401
REPORT
--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
MAXDIFFPCT
----------
NAME1 A 0 0 NO 0 0 NULL
B 1 .000000100 YES 0 17 62626 62626 2971380
NAME2 A 0 0 NO 0 0 NULL
B 1 .000000100 YES 0 15 63636 63636 2971287
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
INDEX / (SUB)PARTITION STATISTICS DIFFERENCE:
.............................................
REPORT
--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
MAXDIFFPCT
----------
OBJECTNAME TYP SRC ROWS LEAFBLK DISTKEY LF/KY DB/KY CLF LVL SAMPSIZ
...............................................................................
INDEX: SYS_C007578
..................
SYS_C007578 I A 0 0 0 0 0 0 0 0
B 5060837 10003 5060837 1 1 48137 2 3036502
REPORT
--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
MAXDIFFPCT
----------
INDEX: T1_IND1
..............
T1_IND1 I A 0 0 0 0 0 0 0 0
B 4966732 23065 381 60 124 47612 2 2980039
###############################################################################
REPORT
--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
MAXDIFFPCT
如何避免统计信息对执行计划产生不利影响
1 要定期对统计信息过期的表做统计信息收集。
2 在进行大数据量的修改操作之后要进行统计信息收集。
3 sql语句要使用绑定变量,避免sql语句进行硬解析,每次硬解析的产生,都会重新解析生成执行计划,这会加大生成错误执行计划的概率。
4 对于已经确定最优的执行计划,可以人为的将执行计划与sql进行绑定,避免统计信息的影响。
5 合理使用dbms_stas对统计信息进行固化,避免统计信息变动对执行计划产生影响。
6 对于有索引的列,统计信息收集要包含直方图的采集。
更多推荐
所有评论(0)