發表文章

目前顯示的是 4月, 2023的文章

了解 GTM trigger 的一些重點

圖片
 Trigger 的一些重點如下:   在設 trigger 前應該先對那些   GTM event  去擊發你的 tag 有些想法.     trigger type  在概念上結合那些 GTM event(下圖中 gtm.XXX) 與交互動作(下圖中 Page View, Click, User Engagement 所指) (or event) 你想讓 GTM 開始去listening to. trigger  重點核心動作: triggers require a  dataLayer.push()  or a pre-container-snippet declaration to fire a tag. If a   push()  command doesn’t have an ‘event’ key, it becomes merely a “message” that’s added to the message bus.  It does nothing for tags. If there’s an ‘event’ key in the message, the instance gets the name of the event (unless it’s one of the three default GTM events, see below) or just “Message” if there’s no ‘event’ key in the command. if there’s an ‘event’ key in the  push()[當執行此命令] , a data layer helper object activates and goes through all the active triggers in your container. If any one of these matches the value of the ‘event’ key, and if all the other conditions in the trigger pass, the tag is injec...

EM 演算法應用在分類時數據生成的設定

 將應用的數據可經由下述程序所生成:  數據由收集或觀察得到的與觀察不到的部份:     觀察到的數據由隨機變數 X 所生成     觀察不到的數據由隨機變數 Z 所生成      一般應用於分類問題時,數據生成一樣本的過程可設定如下:       a. 由隨機變數 Z 分布 Pz(z) 抽一樣本 z       b.  z 確定後,由隨機變數 X|z 分布 Px|z(x|z) 抽一樣本 x,        數據是由 (x1, x2, x3, ...) 所組成。

時間序列中的預測原則

1. 基於條件期望值的預測:  Y(t+1)  預測值為 t 時可以得到的所有資訊所構成  X(t)*,其好壞的評判,是基於 loss function :                            Mean Square Error(MSE) = (Y(t+1) - g(X(t)*))^2 的期望值 在此的評判的條件下,當 g(X(t)*) = E[Y(t+1)|X(t)*] 時的 MSE 為最小。故 Y(t+1)  的最佳預測為 E[Y(t+1)|X(t)*] 2. 基於線性投影的預測: 將預測值限定為上述 X(t)* 的線性函數: g(X(t)*) = a' X(t) ,且假設我們找到一個 a 可使得預測誤差 Y(t+1) - a'X(t) 與 X(t) 是線性不相關的,也就是 E[(Y(t+1) - a'X(t)) X(t)'] = 0' 。如果上述成立,則 a' X(t) 就叫做 Y(t+1) 在 X(t) 上的線性投影 。 問題: 在  X(t) 上的線性投影會是有最小的 MSE 嗎?  會的。 因為 MSE = E[ (Y(t+1) - g'X(t))^2] = E[(Y(t+1) - a'X(t) + a'X(t) - g'X(t))^2]                                               = E[(Y(t+1) - a'X(t))^2]+2E[(Y(t+1) - a'X(t))(a'X(t) - g'X(t))]+E[(a'X(t) - g'X(t))^2]                            ...

一些離散化特徵值的想法與方法

怎樣的差異算是有意義的? 需要先釐清所謂有意義所只為何?  對誰?  Supervised 監督式的想法: 由本身以外的某一 supervisor 所產生的意義 ; Unsupervised 非監督式的想法:  由本身產生的意義。 先討論非監督式的離散化(discretization),一種本身就有離散化的特質; 一種是本身具備被離散化的特質。本身就有離散化的特質,就是本身結構上的分布就是呈現成"離散"的各群狀;本身具備被離散化的特質,就是根據本身性質,例如數值有大小,可被分割成一塊一塊的區域。 依本身性質可被分割的方式有: Equal Interval Width: 等距分割 Equal Frequency Intervals: 等量分割 Rounding: 捨入放大後的數值 Winsorising (Thresholding): 手動分割 Equal Entropy Intervals:  等 熵 分割 Categorizing : 類值化 本身結構上的分布就是呈現成"離散"的各群狀: Clustering: 分群  (Kmean, or GMM Expectation Maximization) Supervised 監督式的想法: ChiMerge MDLP CAIM

機器學習在零售業的應用

1. 顧客分群 - Customer Segmentation 2. 顧客流失預測 - Customer Churn Prediction 3. 商品推薦 - Product Recommendation 4. 店鋪商品銷售預測 - Store Item Sales Forecasting 5. 併買關聯分析 - Market Basket Analysis 6. 交易異常偵測 - Fraud Detection in Transactions 7. 顧客回饋分析 - Customer Feedback Analysis 8. 感知顧客需求 - Demand Sensing 9. 顧客需求預測 - Product Matching and Cross Selling Prediction 10. 店鋪人流分析 - Pedestrian Flow and Traffic Analysis