@@ -98,28 +98,28 @@ function llama_case_list_auto() {
9898 #  The test name must have "llama_" as a prefix, which will 
9999 #  be used for tracking the execution status of the case.
100100 llama_dygraph_auto_bs4_bf16_SD2
101-  llama_dygraph_auto_bs8_fp32_DP2
102-  llama_dygraph_auto_bs8_fp32_DP2-MP2
103-  llama_dygraph_auto_bs8_fp32_DP2-MP2-PP2
104-  llama_dygraph_auto_bs8_fp16_DP2-MP2-PP2
105-  llama_dygraph_auto_bs8_fp16_DP2-MP2-PP2_hybrid_pp
106-  #  llama_dygraph_auto_bs8_fp16_DP2-MP2-PP2_intermediate
107-  llama_dy2st_auto_bs4_bf16_DP1-MP1-PP4-SD2-VPP3_split_bw
108-  llama_dy2st_auto_bs4_bf16_DP1-MP1-PP4-SD2
109-  llama_align_dygraph_dy2st_auto_bs2_bf16_DP2-MP1-PP1
110-  llama_pir_auto_fuse_ffn_attention_qkv_MP2
111-  llama_convert_hybrid_ckpt_to_auto_parallel_bs2_fp32_DP2-MP1-PP1
112-  llama_align_dygraph_dy2st_pir_auto_bs2_bf16_DP2-MP2-PP1-SP
113-  llama_align_dygraph_dy2st_pir_auto_bs2_bf16_DP2-MP2-PP2-SP
114-  llama_align_dygraph_dy2st_pir_auto_grad_merge_bs2_fp32_DP1-MP1-PP1
115-  llama_align_dy2st_fthenb_and_vpp_auto_bs2_fp32_DP1-MP1-PP4
116-  llama_align_dygraph_dy2st_pir_auto_pp_bs2_bf16_DP1-MP1-PP4
117-  llama_baichuan_pir_auto_fuse_ffn_attention_qkv_DP2_MP2_PP2
118-  #  llama_baichuan_pir_auto_fuse_ffn_attention_qkv_DP2_MP2_PP2_intermediate
119-  llama_dy2st_auto_bs2_bf16_DP2-MP1-PP1-CINN
120-  llama_lora_static_graph_auto_bs_2_bf16_DP2-TP2-PP1
121-  llama_dpo_dy2st_auto_bs2_bf16_MP8_intermediate
122-  llama_baichuan_dygraph_auto_sp_async_reduce_scatter_bs8_bf16_DP4-MP2-SP
101+  #   llama_dygraph_auto_bs8_fp32_DP2
102+  #   llama_dygraph_auto_bs8_fp32_DP2-MP2
103+  #   llama_dygraph_auto_bs8_fp32_DP2-MP2-PP2
104+  #   llama_dygraph_auto_bs8_fp16_DP2-MP2-PP2
105+  #   llama_dygraph_auto_bs8_fp16_DP2-MP2-PP2_hybrid_pp
106+  #  #  llama_dygraph_auto_bs8_fp16_DP2-MP2-PP2_intermediate
107+  #   llama_dy2st_auto_bs4_bf16_DP1-MP1-PP4-SD2-VPP3_split_bw
108+  #   llama_dy2st_auto_bs4_bf16_DP1-MP1-PP4-SD2
109+  #   llama_align_dygraph_dy2st_auto_bs2_bf16_DP2-MP1-PP1
110+  #   llama_pir_auto_fuse_ffn_attention_qkv_MP2
111+  #   llama_convert_hybrid_ckpt_to_auto_parallel_bs2_fp32_DP2-MP1-PP1
112+  #   llama_align_dygraph_dy2st_pir_auto_bs2_bf16_DP2-MP2-PP1-SP
113+  #   llama_align_dygraph_dy2st_pir_auto_bs2_bf16_DP2-MP2-PP2-SP
114+  #   llama_align_dygraph_dy2st_pir_auto_grad_merge_bs2_fp32_DP1-MP1-PP1
115+  #   llama_align_dy2st_fthenb_and_vpp_auto_bs2_fp32_DP1-MP1-PP4
116+  #   llama_align_dygraph_dy2st_pir_auto_pp_bs2_bf16_DP1-MP1-PP4
117+  #   llama_baichuan_pir_auto_fuse_ffn_attention_qkv_DP2_MP2_PP2
118+  #  #  llama_baichuan_pir_auto_fuse_ffn_attention_qkv_DP2_MP2_PP2_intermediate
119+  #   llama_dy2st_auto_bs2_bf16_DP2-MP1-PP1-CINN
120+  #   llama_lora_static_graph_auto_bs_2_bf16_DP2-TP2-PP1
121+  #   llama_dpo_dy2st_auto_bs2_bf16_MP8_intermediate
122+  #   llama_baichuan_dygraph_auto_sp_async_reduce_scatter_bs8_bf16_DP4-MP2-SP
123123 )
124124 if  [ $1  =  " prepare_case" ;  then 
125125 restore_func $fun_list  
@@ -160,10 +160,10 @@ function llm_gpt_case_list_auto() {
160160 fun_list=(
161161 #  The test name must have "llm_gpt_dygraph_auto_" as a prefix, 
162162 #  which will be used for tracking the execution status of the case.
163-  llm_gpt_dygraph_auto_bs8_fp32_DP2
164-  llm_gpt_dygraph_auto_bs8_fp32_DP2-MP2
165-  llm_gpt_dygraph_auto_bs8_fp32_DP2-MP2-PP2
166-  llm_gpt_dygraph_auto_bs8_fp16_DP2-MP2-PP2
163+  #   llm_gpt_dygraph_auto_bs8_fp32_DP2
164+  #   llm_gpt_dygraph_auto_bs8_fp32_DP2-MP2
165+  #   llm_gpt_dygraph_auto_bs8_fp32_DP2-MP2-PP2
166+  #   llm_gpt_dygraph_auto_bs8_fp16_DP2-MP2-PP2
167167 llm_gpt_dygraph_auto_bs8_fp16_DP2-MP2-PP2_intermediate
168168 llm_gpt_pir_auto_bs4_TP2
169169 llm_gpt_pir_auto_bs4_TP2_PP2
@@ -2657,7 +2657,7 @@ function llm_gpt_dygraph_auto_bs8_fp16_DP2-MP2-PP2_intermediate() {
26572657 ips_base=-1
26582658 mem_base=-1
26592659 if  [ $IS_A100  -ne  0 ]; then 
2660-  loss_base=10.56166935  #  after add dropout spmd
2660+  loss_base=10.56668091  #  after add dropout spmd
26612661 fi 
26622662 check_result $FUNCNAME  ${loss_base}  ${loss}  ${ips_base}  ${ips}  ${mem_base}  ${mem} 
26632663 echo  " =========== $FUNCNAME  run end ===========" 
0 commit comments