ML-Summit2023 ML-Summit2023 全球机器学习技术大会 大规模语言模型中语言与知识 张奇 复旦大学 ML-Summit2023 目录 1MultilingualBERT中存在多语言对齐现象 2大语言模型中多语言对齐 3大语言模型中的语言和知识分离 ML-Summit2023 01 MultilingualBERT中存在多语言对齐现象 ML-Summit2023 MULTILINGUALBERT中存在多语言对齐现象 mBERT不同层恢复各类语言语法关系的准确性。 Xuetal.Cross-LinguisticSyntacticDifferenceinMultilingualBERT:HowGoodisItandHowDoesItAffectTransfer?EMNLP2022 ML-Summit2023 MULTILINGUALBERT中存在多语言对齐现象 mBERT第7层的不同语法关系表示的可视化。 Xuetal.Cross-LinguisticSyntacticDifferenceinMultilingualBERT:HowGoodisItandHowDoesItAffectTransfer?EMNLP2022 ML-Summit2023 MULTILINGUALBERT中存在多语言对齐现象 mBERT第7层的不同语法关系表示的可视化在进行任务Fine-Tune之后,聚合对齐更加明显 Xuetal.Cross-LinguisticSyntacticDifferenceinMultilingualBERT:HowGoodisItandHowDoesItAffectTransfer?EMNLP2022 ML-Summit2023 在大语言模型中有类似现象吗? 02 大语言模型中多语言对齐 ML-Summit2023 大语言模型中也存在类似现象 ML-Summit2023 语言直接在句法关系上具有很强的对齐性 Xuetal.AreStructuralConceptsUniversalinTransformerLanguageModels?TowardsInterpretableCross-LingualGeneralization,EMNLP2023 大语言模型中也存在类似现象 ML-Summit2023 词性标注任务,可以通过跨语言训练得到非常高的结果 Xuetal.AreStructuralConceptsUniversalinTransformerLanguageModels?TowardsInterpretableCross-LingualGeneralization,EMNLP2023 ML-Summit2023 通过多语言模型预训练,多语言语义在模型中已经完成对齐 大规模语言模型中多语言对齐 ML-Summit2023 Zhaoetal.LLaMABeyondEnglish:AnEmpiricalStudyonLanguageCapabilityTransfer.AAAI2024submitted 大规模语言模型中多语言对齐 ML-Summit2023 比较如下模型: •LLaMA(Touvronetal.2023a) •LLaMA2(Touvronetal.2023b) •ChineseLLaMA(Cui,Yang,andYao2023b) •基于LLaMA,扩展中文词元,30B中文Token语料二次训练(120GB) •ChineseLLaMA2(Cui,Yang,andYao2023a) •基于LLaMA2,扩展中文词元,30B中文Token语料二次训练 •OpenChineseLLaMA(OpenLMLab2023) •基于LLaMA,扩展中文词元,100B中英混合Token语料二次训练 •LLaMA+10K、LLaMA+100K、LLaMA+1M •基于LLamA不扩展中文词元,直接使用中文语料二次训练 Zhaoetal.LLaMABeyondEnglish:AnEmpiricalStudyonLanguageCapabilityTransfer.AAAI2024submitted 大规模语言模型中多语言对齐 ML-Summit2023 Zhaoetal.LLaMABeyondEnglish:AnEmpiricalStudyonLanguageCapabilityTransfer.AAAI2024submitted ML-Summit2023 TOKEN扩展对模型影响很大,扩展后丢失原始信息,需要大量训练才能恢复 ML-Summit2023 SFT数据量扩展到950K后,1M这种量级二次预训练没有特别的意义 ML-Summit2023 使用中文进行二次预训练并不能在知识层面提升模型能力 在其他低资源语言中表现很类似 ML-Summit2023 ML-Summit2023 训练过程中非常明显的CODING-SWITCH现象 训练过程中非常明显的CODING-SWITCH现象 ML-Summit2023 ML-Summit2023 在大语言模型训练中我们还可以看到这些现象 ML-Summit2023 大部分LLM在迭代1轮之后,效果提升就很不明显 ML-Summit2023 trainforoneepoch SimilarlytoWuetal.(2021),wefindthatourSFTmodelsoverfitonvalidationlossafter1epoch Traininglanguagemodelstofollowinstructionswithhumanfeedback,OpenAI,2022 TrainingaHelpfulandHarmlessAssistantwithReinforcementLearningfromHumanFeedback,Anthropic,2023 ML-Summit2023 有智能,打不开打的开,没智能打的开,有智能看不透 From:中科院软件所韩先培 ML-Summit2023 ML-Summit2023 这些现象是否以及如何体现在大语言模型参数中? ML-Summit2023 ML-Summit2023 03 大语言模型中的语言与知识 ML-Summit2023 注意:非常初步的结果,很多结论和实验并不十分可靠,仍在实验验证中 ML-Summit2023 大语言模型参数中记录了知识 有明显的语言核心区 大模型中的语言和知识分区如何确定 ML-Summit2023 如何确定模型中的语言核心区和非核心区: 1.阿拉伯语、韩语、西班牙语、中文、俄语、越南语,每个语言10W条文本 2.分别利用上述数据对模型进行二次预训练 3.6种语言训练前后参数变化累加,权重变化最小的1-5% 大模型中的语言和知识分区如何确定 ML-Summit2023 变化超过1/3/5%的点取并集 ParameterName 变化超过1%点并集 变化超过3%点并集 变化超过5%点并集 model.layers.0.self_attn.q_proj.weight 99.952% 99.040% 96.757% model.layers.0.self_attn.k_proj.weight 99.975% 99.145% 96.655% model.layers.0.self_attn.v_proj.weight 99.998% 99.668% 98.024% model.layers.0.self_attn.o_proj.weight 99.999% 99.909% 99.434% model.layers.0.mlp.gate_proj.weight 99.996% 99.328% 95.437% model.layers.0.mlp.down_proj.weight 99.998% 99.301% 95.230% model.layers.0.mlp.up_proj.weight 99.999% 99.391% 95.651% model.layers.0.input_layernorm.weight 99.976% 99.487% 98.877% model.layers.0.post_attention_layernorm.weight 99.829% 89.453% 54.517% model.layers.1.self_attn.q_proj.weight 99.855% 95.745% 88.410% model.layers.1.self_attn.k_proj.weight 99.847% 95.608% 87.953% model.layers.1.self_attn.v_proj.weight 99.999% 99.811% 98.604% model.layers.1.self_attn.o_proj.weight 99.999% 99.936% 99.456% model.layers.1.mlp.gate_proj.weight 99.994% 99.145% 94.551% model.layers.1.mlp.down_proj.weight 99.998% 99.411% 95.738% model.layers.1.mlp.up_proj.weight 99.997% 99.368% 95.518% model.layers.1.input_layernorm.weight 99.316% 80.908% 50.195% model.layers.1.post_attention_layernorm.weight 96.729% 25.391% 2.539% 有非常少数的参数在所有语言二次预训练中变化都很小 对语言核心区和非核心区参数分别随机扰动 ML-Summit2023 Greek3.8436.028448650.1565.156 扰动核心区域在30种语言上PPL全都呈现爆炸趋势 LLaMA2-7B-base Top0.03 Bottom0.03 Random0.03 Arabic 6.732 10.890 132988.312 8.815 Chinese 8.554 15.018 200279.453 10.909 Czech 19.622 37.882 48612.707 28.025 Danish 8.412 16.151 72907.688 11.224 Dutch 16.863 33.976 53034.961 23.371 English 8.386 9.060 25308.410 8.673 Finnish 7.535 17.228 57291.129 10.800 French 13.485 22.260 40576.059 16.776 German 18.195 30.792 73363.977 24.122 对语言核心区和非核心区参数分别随机扰动 ML-Summit2023 Greek3.6094.337162718.4064.393 LLaMA27B和13B现象完全一样 LLaMA2-13B-Base Top0.03 Bottom0.03 Random0.03 Arabic 6.265 8.296 66492.734 7.836 Chinese 7.832 8.951 136295.359 8.757 Czech 17.367 23.863 20363.225 22.303 Danish 7.414 8.507 18157.621 8.627 Dutch 15.534 20.711 20631.898 19.647 English 7.851 8.501 8503.634 8.536 Finnish 6.802 8.291 15942.838 8.366 French