Skip to content

Commit 0c65540

Browse files
committed
tmp
1 parent 5c456fe commit 0c65540

File tree

1 file changed

+27
-27
lines changed

1 file changed

+27
-27
lines changed

scripts/distribute/ci_case_auto.sh

Lines changed: 27 additions & 27 deletions
Original file line numberDiff line numberDiff line change
@@ -98,28 +98,28 @@ function llama_case_list_auto() {
9898
# The test name must have "llama_" as a prefix, which will
9999
# be used for tracking the execution status of the case.
100100
llama_dygraph_auto_bs4_bf16_SD2
101-
llama_dygraph_auto_bs8_fp32_DP2
102-
llama_dygraph_auto_bs8_fp32_DP2-MP2
103-
llama_dygraph_auto_bs8_fp32_DP2-MP2-PP2
104-
llama_dygraph_auto_bs8_fp16_DP2-MP2-PP2
105-
llama_dygraph_auto_bs8_fp16_DP2-MP2-PP2_hybrid_pp
106-
# llama_dygraph_auto_bs8_fp16_DP2-MP2-PP2_intermediate
107-
llama_dy2st_auto_bs4_bf16_DP1-MP1-PP4-SD2-VPP3_split_bw
108-
llama_dy2st_auto_bs4_bf16_DP1-MP1-PP4-SD2
109-
llama_align_dygraph_dy2st_auto_bs2_bf16_DP2-MP1-PP1
110-
llama_pir_auto_fuse_ffn_attention_qkv_MP2
111-
llama_convert_hybrid_ckpt_to_auto_parallel_bs2_fp32_DP2-MP1-PP1
112-
llama_align_dygraph_dy2st_pir_auto_bs2_bf16_DP2-MP2-PP1-SP
113-
llama_align_dygraph_dy2st_pir_auto_bs2_bf16_DP2-MP2-PP2-SP
114-
llama_align_dygraph_dy2st_pir_auto_grad_merge_bs2_fp32_DP1-MP1-PP1
115-
llama_align_dy2st_fthenb_and_vpp_auto_bs2_fp32_DP1-MP1-PP4
116-
llama_align_dygraph_dy2st_pir_auto_pp_bs2_bf16_DP1-MP1-PP4
117-
llama_baichuan_pir_auto_fuse_ffn_attention_qkv_DP2_MP2_PP2
118-
# llama_baichuan_pir_auto_fuse_ffn_attention_qkv_DP2_MP2_PP2_intermediate
119-
llama_dy2st_auto_bs2_bf16_DP2-MP1-PP1-CINN
120-
llama_lora_static_graph_auto_bs_2_bf16_DP2-TP2-PP1
121-
llama_dpo_dy2st_auto_bs2_bf16_MP8_intermediate
122-
llama_baichuan_dygraph_auto_sp_async_reduce_scatter_bs8_bf16_DP4-MP2-SP
101+
# llama_dygraph_auto_bs8_fp32_DP2
102+
# llama_dygraph_auto_bs8_fp32_DP2-MP2
103+
# llama_dygraph_auto_bs8_fp32_DP2-MP2-PP2
104+
# llama_dygraph_auto_bs8_fp16_DP2-MP2-PP2
105+
# llama_dygraph_auto_bs8_fp16_DP2-MP2-PP2_hybrid_pp
106+
# # llama_dygraph_auto_bs8_fp16_DP2-MP2-PP2_intermediate
107+
# llama_dy2st_auto_bs4_bf16_DP1-MP1-PP4-SD2-VPP3_split_bw
108+
# llama_dy2st_auto_bs4_bf16_DP1-MP1-PP4-SD2
109+
# llama_align_dygraph_dy2st_auto_bs2_bf16_DP2-MP1-PP1
110+
# llama_pir_auto_fuse_ffn_attention_qkv_MP2
111+
# llama_convert_hybrid_ckpt_to_auto_parallel_bs2_fp32_DP2-MP1-PP1
112+
# llama_align_dygraph_dy2st_pir_auto_bs2_bf16_DP2-MP2-PP1-SP
113+
# llama_align_dygraph_dy2st_pir_auto_bs2_bf16_DP2-MP2-PP2-SP
114+
# llama_align_dygraph_dy2st_pir_auto_grad_merge_bs2_fp32_DP1-MP1-PP1
115+
# llama_align_dy2st_fthenb_and_vpp_auto_bs2_fp32_DP1-MP1-PP4
116+
# llama_align_dygraph_dy2st_pir_auto_pp_bs2_bf16_DP1-MP1-PP4
117+
# llama_baichuan_pir_auto_fuse_ffn_attention_qkv_DP2_MP2_PP2
118+
# # llama_baichuan_pir_auto_fuse_ffn_attention_qkv_DP2_MP2_PP2_intermediate
119+
# llama_dy2st_auto_bs2_bf16_DP2-MP1-PP1-CINN
120+
# llama_lora_static_graph_auto_bs_2_bf16_DP2-TP2-PP1
121+
# llama_dpo_dy2st_auto_bs2_bf16_MP8_intermediate
122+
# llama_baichuan_dygraph_auto_sp_async_reduce_scatter_bs8_bf16_DP4-MP2-SP
123123
)
124124
if [ $1 = "prepare_case" ]; then
125125
restore_func $fun_list
@@ -160,10 +160,10 @@ function llm_gpt_case_list_auto() {
160160
fun_list=(
161161
# The test name must have "llm_gpt_dygraph_auto_" as a prefix,
162162
# which will be used for tracking the execution status of the case.
163-
llm_gpt_dygraph_auto_bs8_fp32_DP2
164-
llm_gpt_dygraph_auto_bs8_fp32_DP2-MP2
165-
llm_gpt_dygraph_auto_bs8_fp32_DP2-MP2-PP2
166-
llm_gpt_dygraph_auto_bs8_fp16_DP2-MP2-PP2
163+
# llm_gpt_dygraph_auto_bs8_fp32_DP2
164+
# llm_gpt_dygraph_auto_bs8_fp32_DP2-MP2
165+
# llm_gpt_dygraph_auto_bs8_fp32_DP2-MP2-PP2
166+
# llm_gpt_dygraph_auto_bs8_fp16_DP2-MP2-PP2
167167
llm_gpt_dygraph_auto_bs8_fp16_DP2-MP2-PP2_intermediate
168168
llm_gpt_pir_auto_bs4_TP2
169169
llm_gpt_pir_auto_bs4_TP2_PP2
@@ -2657,7 +2657,7 @@ function llm_gpt_dygraph_auto_bs8_fp16_DP2-MP2-PP2_intermediate() {
26572657
ips_base=-1
26582658
mem_base=-1
26592659
if [ $IS_A100 -ne 0 ];then
2660-
loss_base=10.56166935 # after add dropout spmd
2660+
loss_base=10.56668091 # after add dropout spmd
26612661
fi
26622662
check_result $FUNCNAME ${loss_base} ${loss} ${ips_base} ${ips} ${mem_base} ${mem}
26632663
echo "=========== $FUNCNAME run end ==========="

0 commit comments

Comments
 (0)