OLMo – 艾倫AI研究所開源的完全開放的大語言模型框架

AI工具7個月前發佈新公告 AI管理員
0 0

OLMo是什麼?

OLMo(Open Language Model)是由Allen AI(AI2,艾倫人工智能研究所)開發的一個完全開源開放的大型語言模型(LLM)框架,設計初衷是爲了通過開放研究,促進學術界和研究人員共同研究語言模型的科學。OLMo框架提供了一系列的資源,包括數據、訓練代碼、模型權重以及評估工具,以便研究人員能夠更深入地理解和改進語言模型。

OLMo – 艾倫AI研究所開源的完全開放的大語言模型框架

OLMo的官網入口

  • 官方項目主頁:https://allenai.org/olmo
  • GitHub代碼庫:https://github.com/allenai/olmo
  • Hugging Face地址:https://huggingface.co/allenai/OLMo-7B
  • 研究論文:https://allenai.org/olmo/olmo-paper.pdf

OLMo的主要特點

  • 大規模預訓練數據:基於AI2的Dolma數據集,這是一個包含3萬億個標記的大規模開放語料庫,爲模型提供了豐富的語言學習材料。
  • 多樣化的模型變體:OLMo框架包含了四種不同規模的模型變體,每種模型至少經過2萬億token的訓練,這爲研究人員提供了多種選擇,以適應不同的研究需求。
  • 詳細的訓練和評估資源:除了模型權重,OLMo還提供了完整的訓練日誌、訓練指標和500多個檢查點,這些資源可以幫助研究人員更好地理解模型的訓練過程和性能。
  • 開放性和透明度:OLMo的所有代碼、權重和中間檢查點都在Apache 2.0許可證下發布,這意味着研究人員可以自由地使用、修改和分發這些資源,以促進知識的共享和創新。

OLMo的模型性能

據OLMo的論文報告,OLMo-7B模型在零樣本(zero-shot)評估中的表現與其他幾個模型進行了對比,這些模型包括Falcon-7B、LLaMA-7B、MPT-7B、Pythia-6.9B、RPJ-INCITE-7B和LLaMA-7B。

以下是OLMo-7B在一些核心任務上的比較結果:

OLMo – 艾倫AI研究所開源的完全開放的大語言模型框架

  1. 下游任務評估:OLMo-7B在9個核心任務的零樣本評估中,在2個任務(科學問題和因果推理)上表現最佳,8個任務上保持在前三名。這表明OLMo-7B在這些任務上具有較強的競爭力。
  2. 基於困惑度的評估:在Paloma評估框架中,OLMo-7B在多個數據源上的困惑度(bits per byte)表現也顯示出競爭力。特別是在與代碼相關的數據源(如Dolma 100 Programming Languages)上,OLMo-7B的表現顯著優於其他模型。
  3. 額外任務評估:在額外的6個任務(headqa en、logiqa、mrpcw、qnli、wic、wnli)上,OLMo-7B在零樣本評估中的表現同樣優於或接近其他模型。
© 版權聲明

相關文章

暫無評論

暫無評論...