Fairseq是一个基于卷积神经网络的机器翻译项目,使用一种全新的卷积神经网络进行语言翻译,能以 9 倍于以往循环神经网络的速度实现目前最高准确率。Fairseq由Facebook AI Research(FAIR)于2017年首次开源,最初聚焦于卷积神经网络(CNN)在机器翻译中的应用,并在WMT 2014英语-法语任务上达到当时最优性能(BLEU提升1.5),速度比传统RNN快9倍。2018年后,Fairseq逐步引入Transformer架构,并成为主流模型支持方案。2020年,Fairseq 0.10.0版本整合Hydra配置框架,提升了实验管理的灵活性。2022年,FAIR启动Fairseq v2项目,目标是重构代码库、增强可扩展性,并计划实现与PyTorch生态的深度融合。2025年,Fairseq2正式发布,新增指令微调、张量并行训练(支持70B+模型)、与VLLM集成等功能,进一步巩固其在NLP研究和工业界的地位。