ELLA – 騰訊推出的擴散模型適配器,可增強語義對齊

AI工具6個月前發佈新公告 AI管理員
4 0

ELLA是什麼

ELLA(Efficient Large Language Model Adapter,高效的大模型適配器)是由騰訊的研究人員推出的一種新型方法,旨在提升文本到圖像生成模型在處理複雜文本提示時的語義對齊能力。現有的擴散模型通常依賴於CLIP作爲文本編碼器,在處理包含多個對象、詳細屬性和複雜關係等信息的長文本提示時存在侷限性。因此,研究團隊提出了ELLA,使用一個時序感知語義連接器(TSC)來動態提取預訓練LLM中的時序依賴條件,從而提高了模型解釋複雜提示的能力。

ELLA - 騰訊推出的擴散模型適配器,可增強語義對齊

ELLA的官網入口

  • 官方項目主頁:https://ella-diffusion.github.io/
  • GitHub代碼庫:https://github.com/ELLA-Diffusion/ELLA
  • arXiv研究論文:https://arxiv.org/abs/2403.05135

ELLA的功能特性

  • 語義對齊增強:ELLA通過與大型語言模型(LLM)的結合,提高了擴散模型對文本提示中包含的多個對象、詳細屬性和複雜關係的理解能力,從而生成與文本更貼合的圖像。
  • 時序感知語義提取:ELLA的Timestep-Aware Semantic Connector(TSC)模塊能夠根據擴散過程中的不同時間步動態提取語義特徵,使得模型能夠在生成圖像的不同階段關注不同的文本信息。
  • 無需重新訓練:ELLA的設計允許其直接應用於預訓練的LLM和U-Net模型,無需對這些模型進行額外的訓練,從而節省了大量的計算資源和時間。
  • 兼容性:ELLA可以與現有的社區模型(如Stable Diffusion)和下游工具(如ControlNet)無縫集成,提升這些模型和工具在處理複雜文本提示時的表現。

ELLA的工作原理

ELLA的主要工作原理是通過一個輕量級的、可訓練的時序感知語義連接器(TSC)模塊,將強大的LLM的語義理解能力與現有的圖像生成擴散模型相結合,從而在不重新訓練整個系統的情況下,提高模型對複雜文本提示的理解和圖像生成的質量。
ELLA - 騰訊推出的擴散模型適配器,可增強語義對齊

  1. 文本編碼:首先,ELLA使用一個預訓練的大型語言模型(LLM)來編碼輸入的文本提示。該LLM能夠理解複雜的文本,包括多個對象、屬性和關係,並提取出豐富的語義特徵。
  2. 時序感知語義連接器(TSC):ELLA的核心是一個名爲TSC的模塊,它負責將LLM提取的文本特徵與圖像生成模型(如U-Net)的擴散過程相結合。TSC模塊根據生成過程中的不同時間步長動態地提取和調整語義特徵,以便更好地對齊文本提示和生成的圖像內容。
  3. 凍結的U-Net:在ELLA的架構中,U-Net模型(用於圖像生成的擴散模型)和LLM保持凍結狀態,即它們的參數在ELLA的訓練過程中不會被更新。這樣可以避免重新訓練整個模型,節省資源並保持原有模型的性能。
  4. 語義特徵適應:TSC模塊接收來自LLM的文本特徵和時間步嵌入,然後輸出固定長度的語義查詢。這些查詢通過交叉注意力機制與U-Net模型交互,指導圖像生成過程中的噪聲預測和去噪步驟。
  5. 訓練TSC模塊:儘管LLM和U-Net保持凍結,但TSC模塊是需要訓練的。它在包含高信息密度的文本-圖像對數據集上進行訓練,學習如何根據文本提示的不同部分和擴散過程的不同階段提取和適應語義特徵。
  6. 生成圖像:在生成圖像時,ELLA的TSC模塊會根據文本提示和當前的擴散時間步,提供條件性的特徵給U-Net模型。這些特徵幫助U-Net在每個時間步生成與文本更緊密對齊的圖像。
  7. 評估和優化:使用如Dense Prompt Graph Benchmark(DPGBench)這樣的基準測試來評估增強模型的性能。根據評估結果,可能需要對TSC模塊或訓練過程進行微調,以進一步優化模型的表現。
© 版權聲明

相關文章

暫無評論

暫無評論...