簡單指數平滑法

雖然有些人一直在使用指數平滑法在做預測,好像很厲害,其實依我接觸的經驗,在他們當中有多人未必十分清楚其背後的理論。他們雖然能說出個大概,有時候還很大聲呢。

但要這些人們詳細說明時,他們就會佐支佑絀漏洞百出,而且不知從何說起。

所以,由對最基礎的簡單指數平滑法有一個清楚明瞭的認識非常重要。

首先,下列就一個普通對指數平滑法有了解的"專家" 應該可以列得出來。但如何完整的說明此式子,就看功力了。

先說明 y-hat-t,y-t ,就是,

假設我們已經觀察到了時間 t -1 且包含 t -1 的數據,而且我們希望去預測我們時間序列的下一個值,它在時間 t。我們在時間 t 的預測值表示為 y-hat-t。 當在時間 t 的觀察值可取得時,就可以找出預測誤差為 y-t - y-hat-t。簡單指數平滑法(由 Brown 在 1950 年代中的工作而在 1959 年 Brown 出版)是取前期來的預測並且用此預測誤差來調整。也就是說,對下一期的預測是


上式中 alpha 介於 0 到 1 之間。 上式表示,我們現在是在時間 t 並且也有時間 t 的觀察值了。然後,我們要預測 t+1 的值 - 用對時間 t 的預測值加上這個預測的預測誤差的某個固定比例做調整為 t+1 的預測值。 Why?

直覺上,預測下一期就用 y-t 也可以吧? 沒錯,這之後會提到。先用  y-hat-t 來預測,如果只用 y-hat-t ,似乎有點不妥,因為它擺明的誤差,就是 y-t - y-hat-t。那用它在時間 t+1 的預測時,也一定有誤差,假設誤差可能是 alpha*(y-t - y-hat-t),那我們就將此"已知" 的誤差項先放進估計式中就成了你們在上面看到的式子了。

另外,可以將上式寫成,

在時間 t+1的預測值是基於對最近觀察值 y-t 的加權 alpha 與對最近預測值 y-hat-t 的加權 1- alpha。因此,它可以解釋成最近預測值與最近觀察值的加權平均。 將此式反覆迭代後,則得


此 y-hat-t+1 表示成一個所有過去觀察值的加權平均,而且權重是指數遞減。這也是為何稱作指數平滑的緣故了。

我們注意到當 alpah 是一個小值並且此時間序列是相對短時, y-hat-1的權重可能是相當的大。起始值的選擇變成特別的重要而這就是"初始值問題"。

對較長範圍的預測,假設預測函式是平的。就是



使用一個平坦預測函式是因為簡單指數平滑最好是套用在那些沒有趨勢、季節性、或其它模式的數據。

另一個方式寫這個是令 l-t = y-hat-t+1[將在時間 t 的 level 設為在時間 t 時的 one-step-ahead 預測 ]。然後,y-hat-t+h|t = l-t 同時 l-t = alpha*y-t + (1-alpha)*l-(t-1)。l-t 的值是數列在時間 t 的一個 level 的量測。雖然這可能是一個冗繁複雜的表達這個方法的方式,但它提供用來一般化指數平滑到允許它有趨勢與季節性的一個基礎。[ 在時間 t 的 level 值原來是對時間 t +1 的預測值;或者說是上一期 t -1 的 level 值與本期 t 的觀察值的加權平均]  。 之前提過,使用簡單指數平滑,為了去計算預測值,我們需要指定初始值 l-0 也就是 y-hat-1 與參數值 alpha。指定初始值的方式之後有機會再說。






留言

這個網誌中的熱門文章

標準差與 Wald 統計量

可能性比檢定(Likelihood ratio test)

Wold Decomposition Theorem