日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 编程资源 > 编程问答 >内容正文

编程问答

【数据挖掘】谷歌提出最新时序框架--Deep Transformer

發(fā)布時(shí)間:2025/3/12 编程问答 32 豆豆
生活随笔 收集整理的這篇文章主要介紹了 【数据挖掘】谷歌提出最新时序框架--Deep Transformer 小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

作者:杰少

Deep Transformer Models for TSF

簡(jiǎn) 介

Transformer技術(shù)在諸多問(wèn)題,例如翻譯,文本分類(lèi),搜索推薦問(wèn)題中都取得了巨大的成功,那么能否用于時(shí)間序列相關(guān)的數(shù)據(jù)呢?答案是肯定的,而且效果非常棒。本篇文章我們就基于Transformer的方法動(dòng)態(tài)地學(xué)習(xí)時(shí)間序列數(shù)據(jù)的復(fù)雜模式,并且在時(shí)間序列相關(guān)的問(wèn)題上取得了目前最好的效果。

方法

01

問(wèn)題定義

假設(shè)時(shí)間序列有個(gè)每周的數(shù)據(jù)點(diǎn):

對(duì)于一個(gè)步的預(yù)測(cè),監(jiān)督的ML模型的輸入就是

我們輸出的就是:

每個(gè)輸出點(diǎn)可以是一個(gè)標(biāo)量或者是一個(gè)包含了大量特征的向量。

02

模型框架

1. Encoder

Encoder由輸入層、位置編碼層和四個(gè)相同編碼器層的堆棧組成。

輸入層通過(guò)一個(gè)完全連接的網(wǎng)絡(luò)將輸入的時(shí)間序列數(shù)據(jù)映射到一個(gè)維度為的向量。這一步對(duì)于模型采用多頭注意機(jī)制至關(guān)重要。

  • 使用sin和cos函數(shù)的位置編碼,通過(guò)將輸入向量與位置編碼向量按元素相加,對(duì)時(shí)間序列數(shù)據(jù)中的順序信息進(jìn)行編碼。

最終的向量被輸入到四個(gè)encoder層。每個(gè)encoder層由兩個(gè)子層組成:一個(gè)self-attention的子層和一個(gè)全連接的前饋?zhàn)訉印C總€(gè)子層后面都有一個(gè)normalization層。編碼器生成一個(gè)維向量,往后傳入decoder層。

2. decoder層

此處Transformer的Decoder設(shè)計(jì)架構(gòu)和最早的Transformer是類(lèi)似的。Decoder包括輸入層、四個(gè)相同的解碼器層和一個(gè)輸出層。Decoder輸入從編碼器輸入的最后一個(gè)數(shù)據(jù)點(diǎn)開(kāi)始。輸入層將解碼器輸入映射到維向量。除了每個(gè)編碼器層中的兩個(gè)子層之外,解碼器插入第三個(gè)子層以在編碼器輸出上應(yīng)用自注意機(jī)制。

最后,還有一個(gè)輸出層,它將最后一個(gè)Decoder層的輸出映射到目標(biāo)時(shí)間序列

我們?cè)诮獯a器中使用前l(fā)ook-ahead masking和在輸入和目標(biāo)輸出之間的one-position的偏移,以確保時(shí)間序列數(shù)據(jù)點(diǎn)的預(yù)測(cè)將僅依賴(lài)于先前的數(shù)據(jù)點(diǎn)。

實(shí)驗(yàn)

01

效果比較

  • Transformer架構(gòu)的效果遠(yuǎn)好于其他的效果

02

Time Delay Embedding實(shí)驗(yàn)

對(duì)于一個(gè)標(biāo)量的序列數(shù)據(jù),它的delay embedding(TDE)就是將每個(gè)scalar值映射到一個(gè)唯獨(dú)的time-delay的空間,

我們發(fā)現(xiàn)并非是越大越好,在5-7之間是最好的。

小結(jié)

本文提出的基于Transformer的時(shí)間序列數(shù)據(jù)預(yù)測(cè)方法。與其他序列對(duì)齊的深度學(xué)習(xí)方法相比,

  • Transformer的方法利用self-attention對(duì)序列數(shù)據(jù)進(jìn)行建模,可以從時(shí)間序列數(shù)據(jù)中學(xué)習(xí)不同長(zhǎng)度的復(fù)雜依賴(lài)關(guān)系。

  • 基于Transformer的方案具有非常好的可擴(kuò)展性,適用于單變量和多變量時(shí)間序列數(shù)據(jù)的建模,只需對(duì)模型實(shí)現(xiàn)進(jìn)行最小的修改。

參考文獻(xiàn)

  • https://arxiv.org/pdf/2001.08317.pdf

  • 往期精彩回顧適合初學(xué)者入門(mén)人工智能的路線及資料下載機(jī)器學(xué)習(xí)及深度學(xué)習(xí)筆記等資料打印機(jī)器學(xué)習(xí)在線手冊(cè)深度學(xué)習(xí)筆記專(zhuān)輯《統(tǒng)計(jì)學(xué)習(xí)方法》的代碼復(fù)現(xiàn)專(zhuān)輯 AI基礎(chǔ)下載黃海廣老師《機(jī)器學(xué)習(xí)課程》視頻課黃海廣老師《機(jī)器學(xué)習(xí)課程》711頁(yè)完整版課件

    本站qq群851320808,加入微信群請(qǐng)掃碼:

    總結(jié)

    以上是生活随笔為你收集整理的【数据挖掘】谷歌提出最新时序框架--Deep Transformer的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

    如果覺(jué)得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。