前言
Transformer 跟 Bert 很有關係,他是用來處理自然語言的模型。簡單來說 Transformer 就是一個 Seq2seq 的模型。輸入是一個 sequence,輸出是一個未知的長度 sequence 由機器自行判斷。常見的例子有:
- 語音辨識
- 一串語音訊號 ➞ 辨識的文字
- 機器翻譯
- 中文句子 ➞ 英文句子
- 語音翻譯
- 英文語音訊號 ➞ 中文句子
最常見例子閩南語、台語語音辨識,輸出中文字:
Seq2seq 應用舉例
台語語音合成,是輸入一串中文句子輸出一串語音訊號(TTS)。以下實驗將中文文字轉成台羅拼音,再將拼音轉成聲音訊號。
在文字上也有廣泛使用 Seq2seq 模型,例如對話機器人。輸入一句話,經過模型判斷吐出回應的句子。
Seq2seq 在自然語言處理的領域使用的非常廣泛。我們可以將所有自然語言的問題想像成 QA 問答系統,例如句子翻譯、摘要重點、情意分析…等。然而 QA 的問題往往都以 Seq2seq 形式來解。至於該如何解呢?以下舉個範例,輸入有一個問題以及一串文字,輸出就是問題的答案。
其實有很多的應用你不覺得他是 Seq2seq 的問題,但你可以硬用 Seq2seq 來解。舉例來說文法頗析,例如給機器一段文字,機器要產生文法的頗析樹。輸出是一個樹狀結構可以把它看成是 Seq2seq,如下圖所示:
我們可以把文法頗析,當作是一個翻譯問題。參考以下論文。
[論文] Oriol Vinyals, “grammar as a foreign language”, arxiv, Dec 2014.
還有一些任務也可以用 Seq2seq,舉例來說 Multi-label Classfication 這問題會與 Multi-class Classfication 搞混。Multi-class Classfication 是指機器要從數個 x 類別當中去找出一個適合的種類作為輸出。但是 Multi-label Classfication 意思是指同一個東西他可以屬於多個類別種類。最常見的問題就是文章分類,輸入一篇文章輸出機器自己判斷有幾個類別。
再者就是物件辨識透過 Seq2seq 硬解。
Seq2seq 架構介紹
一般的 sequence to sequence 他裡面會分成兩塊,一塊是 Encoder 另一塊是 Decoder 所組成的。Seq2seq 模型起源於 2014 年 9 月,用在翻譯文章被放到 Arxiv 上,當時的架構是透過 RNN 的 LSTM 實作。但是現今所提到的 Seq2seq 模型通常是在說含有 self-attention 的 Transformer 架構。
Encoder
Seq2seq 模型 Encoder 要做的事情,就是給一排向量輸出另外一排向量。然而在 Transformer 的 Encoder 用的就是 self-attention。
Encoder 裡面會分成很多的 block,每一個 block 都是輸入一排向量輸出一排向量給另一個 block,直到最後一個 block 輸出最終的 vector sequence。至於每一個 block 其實並不是神經網路的一層。這邊之所以不稱說每一個 block 是一個 layer,是因為每一個 block 裡面的的事情是好幾個 layer 在做的事情。在 Transformer 的 Encoder 裡面,每一個 block 做的事情大約如下。輸入一排向量以後先做一個 self-attention 考慮整個 sequence 的資訊,輸出另一排向量。接下來這一排向量會丟到全連接層的網路,再輸出另外一排向量。此時的向量就是 block 的輸出。
事實上在原來的 transformer 裡面他做的事情是更複雜的。輸入一排向量經過 self-attention 後輸出的向量它是考慮所有的輸入以後所得到得結果。在 Transformer 裡面他加入了一個設計,我們不只輸出這個向量,我們同時還要把這個向量加上他原來的輸入當作是新的輸出。這樣的網路架構稱作 residual connection,他會把輸入和輸出加起來得到新的輸出。得到 residual 結果以後,再做 layer normalization。layer normalization 做的事情是輸入一個向量後輸出另外一個向量,這裡不需要考慮 batch 資訊只考慮當前的向量。他會去計算這組輸入向量的 mean 跟 standard deviation。計算出來後就可以做一個 normalize,得到 layer normalization 的輸出。此時的輸出才是全連接網路的輸入,而全連階層網路這邊也有 residual 的架構。所以我們會把全連接網路的輸入跟它的輸出加起來做一下 residual。得到新的輸出這個才是 Transformer Encoder 裡面一個 block 的輸出。
所以左邊的圖就是上述所做的事情,一個 Encoder 有很多個 Block。然而右邊的圖就是一個 Block 中所做的事情,裡面有多個網路層(multi-head self attention+FCN)。另外值得注意是 transformer 在輸入還加上 Positional Encoding 位置資訊,經過 multi-head self attention 後加上 Residual connection 接下來還要過 Layer norm。最後再進到全連階層,這裡一樣要再做 Residual connection 與 Layer norm 才是最後的一個 Block 輸出。
這個複雜的 Block 其實就是 Bert 模型裡面中的 transformer encoder。你要自行設計 Encoder 架構也行,例如在 On Layer Normalization in the Transformer Architecture 中討論 Layer norm 的位置應該放哪比較好。下圖 (a) 是原始的 Transformer,右圖 (B) 是更換 Layer norm 順序的 Transformer 結果是較好的。
另外你可能會想為何要 Layer norm?有更好的方法嗎?這篇 PowerNorm: Rethinking Batch Normalization in Transformers 5翁會先討論為何 Batch norm 不如 Layer norm。接下來他提出 Power norm 效果能更好。
Reference
如果你對 AI 和深度學習有興趣,歡迎參考我的免費線上電子書《深度學習與神經網路》。這本書涵蓋了許多實用的深度學習知識與技巧,適合任何對此領域有興趣的讀者。內容集結了多位專家的教學資源,例如台大李弘毅教授的課程筆記。點擊下方連結即可獲取最新內容,讓我們一起探索 AI 的世界!
👉 全民瘋 AI 系列《深度學習與神經網路》 - 免費線上電子書
👉 其它全民瘋 AI 系列 - 匯集多主題的 AI 免費電子書
鼓勵持續創作,支持化讚為賞!透過下方的 Like 拍手👏,讓創作者獲得額外收入~
https://www.youtube.com/channel/UCSNPCGvMYEV-yIXAVt3FA5A