1.大模型架構設計與優化:
研發面向語音識別場景的大規模語音模型(如端到端ASR、語音大模型),優化聲學建模、語言建模及多模態融合技術;
探索輕量化大模型架構(如Transformer變體、稀疏模型),適配邊緣端語音芯片的算力與功耗約束。
2.芯片算法協同開發:
與芯片NPU設計團隊深度合作,適配NPU加速部署至自研語音芯片,優化推理延遲、內存占用及能效比;
設計模型壓縮方案(量化、蒸餾、剪枝),實現高精度低比特模型在芯片端的落地。
3.數據與訓練系統構建:
參與構建超大規模語音數據集,開發數據增強與自動標注pipeline,提升模型魯棒性(抗噪、口音適應等);
搭建分布式訓練框架,優化千億參數級模型的訓練效率與穩定性。
4.前沿技術探索:
跟蹤語音大模型國際前沿(如Whisper、Conformer、Paraformer),推進自研模型在低資源喚醒、低信噪比等場景的性能突破;
5.技術賦能與支持:支持客戶技術對接,解決實際應用中的識別率、實時性問題;
任職要求:
1.碩士以上學歷,計算機科學、機器學習、人工智能、數學、控制科學與工程、自動化等相關專業,有至少一個完整的大模型落地案例;
2.熟悉大模型基礎原理,了解主流大模型架構(如Transformer、LLaMA、GPT、CLIP),掌握大模型微調技術(如SFT、LoRA、QLoRA、Adapter);
3.精通Transformer、RNN-T、CTC等語音識別模型架構,有千億參數級模型訓練/部署經驗;掌握PyTorch框架,熟悉DeepSpeed、Megatron等分布式訓練工具;
4.具備模型壓縮(INT8/FP16量化、知識蒸餾)及嵌入式部署經驗(TensorRT、ONNX Runtime);了解芯片硬件特性(內存帶寬、計算單元),能優化模型與硬件的匹配度;
5.深入理解語音信號處理流程(MFCC/FBank、端到端建模)、語音識別評測指標(WER);熟悉主流語音工具鏈(Kaldi、ESPnet、WeNet)及數據集(LibriSpeech、AISHELL);
6.熟練掌握C\C \Matlab\Python編程語言的一種或多種,熟悉Linux操作系統;
7.邏輯思路清晰,較強的學習能力、創新能力和自驅力,一定的抗壓能力,積極主動、責任心強、團隊合作良好;
加分項:
8.有大語言模型、語音識別/合成、深度學習等研究或者技術背景;有語音芯片、邊緣AI設備或云-端協同語音系統開發經驗者更佳。
9.在語音領域發表過頂級會議文章(NIPS、ICML、ICLR、ACL、ICASSP、INTERSPEECH等)更佳。
求職提示:用人單位發布虛假招聘信息,或以任何名義向求職者收取財物(如體檢費、置裝費、押金、服裝費、培訓費、身份證、畢業證等),均涉嫌違法,請求職者務必提高警惕。
-
電子技術·半導體·集成電路
-
51-99人
-
公司性質未知
-
孵化園6號樓106號

應屆畢業生
碩士
2026-03-29 18:38:07
4人關注
注:聯系我時,請說是在四川人才網上看到的。
