Hugging Face、英偉達和約翰霍普金斯大學的研究人員近日宣布推出ModernBERT,這是對2018年發布的BERT模型的重大升級。ModernBERT不僅保留了BERT的高效性,還新增了處理長達8192個Token上下文的能力,顯著提升了模型的適用范圍和性能。
盡管BERT模型自發布以來一直是Hugging Face平臺上最受歡迎的模型之一,每月下載量超過6800萬次,但隨著技術的進步,原版BERT已顯得有些落后。ModernBERT的開發團隊借鑒了近年來大型語言模型(LLM)的進展,對BERT的架構和訓練過程進行了全面改進。
據悉,ModernBERT使用了2萬億個Token進行訓練,使其在多種分類測試和向量檢索測試中均達到了業界領先水平。目前,開發團隊已發布了兩個版本的ModernBERT,分別是1.39億參數和3.95億參數版本,供開發者和研究人員使用。