發表文章

目前顯示的是 11月, 2017的文章

RBF 用兩個圖就清楚了

圖片
上面這個圖說明 RBF 的原理 上面則是 RBF 網絡的實際

用 ARIMA 去決定時間序列是否為穩定 -- 需要注意的地方

假如你限制你自己在 ARIMA 模型與 BOX-Jenkin 方法 去決定時間序列是否為穩定 ,很可能 - 執意將 autocovariance (PACF or ACF)沒有一個夠好的指數驟降狀況來顯示一個好的 AR 時,當作為一個非穩定序列的提示。 - 對於上述情況,將差分時間序列作為穩定化的解法: 當我們差分它們,我們監看它的 autocovariance,直到它似乎顯示一些看起來合理的指數驟降時,才停止差分。 這裡需要小心不要過度的差分。(我們可能進入 MA 伴隨著有有強烈延遲一期的負自相關 noise 的出現 ) 這一切似乎很棒。除了一些時間序列,差分似乎對他們沒有很好的效用: 也就是說,假如我們沒有進行差分,時間序列看起來不穩定;假如一旦我們進行差分,它看起來又是過度差分了。 如此的時間序列就展示了長期相依,同時也是部份差分技巧進場的時機了。部份差分技巧允許進一步細緻化差分來適當的穩定化時間序列,那使你不需要受限於 (1-L) n   而 n 只能是整數,你可以取用實數。  當然,如此也就不再是 ARIMA 了,而是 ARFIMA。

不同情境使用 Normalization 有不同的意思

一般而言,normalizing 意味著做一轉換後產生 normal。 當數據是向量時,normalizing  意味著轉換此向量如此有單位 norm。 當數據是隨機變數時,normalizing  意味著轉換成 normal 分佈。 當數據假設為 normal 分布時, normalizing      意味著轉換成有單位變異量。 對 PCA 而言 Normalization 是重要的,因為 PCA 是找出變異量最大的方向,如果沒有將大家的 scale 轉成相同,就會嚴重偏向那些大單位變異的變數(雖然這個動作也不全然可視作 normalization)。

Kernel 方法

圖片
無論是一個機器學習方法或演算法,我們會要求它能: 1. 有效的計算 2. 穩健 3. 統計的穩定性 Kernel 方法也不例外。任何Kernel 方法由兩部份所組成: 第一部份模組執行映射到特徵空間;一部份設計一學習演算法在此空間來探索線性模式。 此方法能行得通,主要有兩個原因: 1. 對於線性關係的偵測或尋找已經是幾十年來在統計或機器學習中的重點,其產出的演算法好理解又有效。 2.Kernel 函式提供一計算捷徑能有效的在高維空間中表示線性模式。 Kernel 方法簡單來說就是用 kernel 函式來做下面這件事: 轉至特徵空間呈線性後,就好辦事好處理了。