TimesFM – 預訓練時間序列基礎模型

Google Research 發佈 TimesFM,這是一個基於 Transformer 的 200M 參數基礎模型,用於時間序列預測。 TimesFM 經過近 100B 個資料點的訓練,具有零樣本預測效能

這個 預訓練時間序列基礎模型(Time Series Foundation Model),可用於時間序列預測。它是一種基於 Transformer 的模型,在大量時間序列數據上進行了預訓練。TimesFM 可以用於各種時間序列預測任務,包括:

  • 銷售預測
  • 庫存管理
  • 需求預測
  • 異常檢測
  • 設備故障預測

TimesFM 是由 Google Research 開發的預訓練時間序列基礎模型(Time Series Foundation Model),可用於時間序列預測。它是一種基於 Transformer 的模型,在大量時間序列數據上進行了預訓練。TimesFM 可以用於各種時間序列預測任務,包括:

  • 銷售預測
  • 庫存管理
  • 需求預測
  • 異常檢測
  • 設備故障預測

TimesFM 的優點包括:

  • **高準確性:**TimesFM 在許多基準測試中表現出最先進的準確性。
  • **可解釋性:**TimesFM 可以提供其預測的解釋,這有助於用戶理解模型的決策。
  • **可擴展性:**TimesFM 可以針對各種時間序列預測任務進行微調。

TimesFM 的工作原理是學習時間序列數據的表示。然後,它可以使用此表示來預測新數據點的值。TimesFM 使用的一種特殊技術稱為自注意力(self-attention)。自注意力允許模型學習序列中不同點之間的長期依賴關係。

TimesFM 已被用於各種應用,包括:

  • **零售:**TimesFM 可用於預測零售產品的銷售額。這有助於零售商優化其庫存水平和促銷活動。
  • **金融:**TimesFM 可用於預測股票價格和匯率。這有助於金融機構做出明智的投資決策。
  • **製造業:**TimesFM 可用於預測機器故障。這有助於製造商防止停機和生產損失。

TimesFM 是一種強大的工具,可用於各種時間序列預測任務。它有可能在許多行業產生重大影響。

以下是一些關於 TimesFM 的其他資源:



Keyframer – Apple 推出的生成式 AI 動畫工具

Keyframer 的優點包括:

  • **易用性:**用戶可以使用自然語言描述來描述他們想要的動畫,無需任何編程或動畫知識。
  • **靈活性:**Keyframer 可用於生成各種不同類型的動畫,包括簡單的移動動畫和複雜的角色動畫。
  • **創造力:**Keyframer 可用於創建新穎而原創的動畫。

Keyframer 的一些示例用例包括:

  • 創建動畫表情符號或貼紙
  • 為演示文稿或營銷材料製作動畫圖形
  • 創建動畫故事板或插圖
  • 原型化動畫用戶界面

Keyframer 仍在開發中,但它有可能成為動畫師、設計師和任何想要創建動畫內容的人的強大工具。

以下是一些關於 Keyframer 的其他資源:



Meta 已著手訓練 Llama 3


MS-Vid2Vid (Video-to-Video)高清視頻生成大模型

「MS- Video-to-Video」係一種深度學習模型,可以將一段視頻轉換成另一種風格、場景轉換、動作等操作。例如,可以將一段日本動畫轉換成中國水墨畫風格,或者將一段街頭表演轉換成動畫風格。

MS-Vid2Vid-XL 和 Video-to-Video 第一階段相同,都是基於隱空間的視頻擴散模型(VLDM),且其共享相同結構的時空UNet(ST-UNet),其設計細節延續我們自研 VideoComposer,具體可以參考其技術報告。


台灣-繁體中文 LLM v2,包括 7B 和 13B 模型

Taiwan LLM 基於 Meta Llama 2 的全參數微調模型技術,融合台灣本土的文本資料,包括公開的百科、新聞、小說、雜誌以及社群討論等,涵蓋超過 200 億個繁體中文字,使大型語言模型能對台灣地區的問題回答得更精確

Taiwan-LLM 是一個基於 Meta/LLaMa-2 ,適用於繁體中文應用。

台灣-LLM v2.0 13B 對超過 300 億個標記進行了預訓練,並對超過 100 萬個傳統普通話指令跟踪對話進行了指令調整。

台灣-LLM v2.0 7B 對超過 300 億個標記進行了預訓練,並對超過 100 萬個傳統普通話指令跟踪對話進行了指令調整。

台灣-LLM v1.0 13B 對超過 50 億個標記進行了預訓練,並對超過 49 萬個傳統普通話對話進行了指令調整。


Amphion 多功能聲頻 LLM

香港中文大學(深圳)、上海人工智慧實驗室和深圳大數據研究院聯合開發。

(more…)


大規模中文自然語言處理 nlp_chinese_corpus

語料庫將會不斷擴充。。。

一期目標:10個百萬級中文語料 & 3個千萬級中文語料(2019年5月1號)

二期目標:30個百萬級中文語料 & 10個千萬級中文語料 & 1個億級中文語料(2019年12月31日)

Update: 增加高質量社區問答json版(webtext2019zh),可用於訓練超大規模NLP模型;添加520萬翻譯語料(translation2019zh)。

1.維基百科(wiki2019zh)100萬個結構良好的中文詞條

2.新聞語料(news2016zh)250萬篇新聞,含關鍵詞、描述

3.百科問答(baike2018qa)150萬個帶問題類型的問答

4.社區問答json(webtext2019zh)410萬個高質量社區問答,適合訓練超大模型

5.翻譯語料(translation2019zh)520萬個中英文句子對

為什麼需要這個項目

中文的信息無處不在,但如果想要獲得大量的中文語料,卻是不太容易,有時甚至非常困難。在2019年初這個時點上,

普通的從業者、研究人員或學生,並沒有一個比較好的渠道獲得極大量的中文語料。筆者想要訓練一個中文的詞向量,

在百度和github上上搜索了好久,收穫卻很少:要麼語料的量級太小,要麼數據過於成舊,或需要的處理太複雜。

不知道你是否也遇到了這樣的問題?

我們這個項目,就是為瞭解決這一問題貢獻微薄之力。


Page 6 of 7
1 4 5 6 7

Popular Tags