國際象棋引擎、推薦系統、LTV 預測、作弊者和詐欺者——它們有什麼共同點?

這是一項金融服務和 IT 公司之間的國際象棋錦標賽。作為 FinChess 公開演講的一部分,MyTracker 預測分析團隊的研究程式設計師 Alexander Smirnov 談到了 MyTracker 中使用的國際象棋演算法和機器學習模型的相似性。

本文介紹了他的報告的主要要點,分為三個部分:

國際象棋和推薦系統;
國際象棋和預測分析;
國際象棋和反詐欺系統。
我們將研究國際象棋遊戲和 IT 產品之間的一些令人興奮的相似之處,以及 MyTracker 的個人化、LTV 預測和詐欺掃描器解決方案的工作原理。它將對分析師、行銷人員和國際象棋愛好者很有用。

國際象棋和推薦系統

運算能力的提高改變了國際象棋和當今 IT 的遊戲規則,有助於將數十年累積的數值建模技術付諸實踐。

這催生了國際象棋引擎,它們學會了處理資源密集型任務,例如最佳走法的建議。

推薦在國際象棋和數位服務中如何發揮作用?
對下一步行動的建議是計算和選擇最有可能導致理想結果(遊戲勝利)的行動組合。

這也是任何推薦服務的工作,例如:

汽車導航器可協助駕駛者找到最快、最安全的路線到達目的地,而不會出現交通擁擠或事故。

音樂串流平台會編制 比利時 電話號碼庫 最有可能符合聽眾喜好的曲目播放清單。

推薦服務選擇最有可能吸引客戶並導致購買的商品。

電話號碼庫

國際象棋引擎的推薦

推薦服務

推薦最有可能導致遊戲勝利的動作。

選擇最有可能導致購買或其他理想行動的商品。

移動次數是有限的,這就是 有針對性的電子郵件行銷 – 如何為您的業務使用有 為什麼系統可以遍歷所有移動並找到能夠導致所需結果的移動。由於這項工作最終是關於計算能力和要計算的步數的指數級增長,因此高級國際象棋引擎以及推薦服務依賴於強化學習。

強化學習
強化學習是一種用於訓練演算法與環境互動並從回饋中學習的技術。如果某個動作會帶來獎勵,演算法將更頻繁地執行該動作或一系列動作。

獎勵範例:

汽車導航儀-旅行時間。路線完成的速度越快,系統向其他使用者推薦該路線的頻率就越高。

學習演算法依賴 台灣數據 用戶的旅行數據。

音樂串流平台-按讚和保存。聽眾越頻繁地將各種流派的曲目添加到他們的播放清單中,平台就越頻繁地向其他人推薦它們。

學習演算法依賴串流曲目的數據

推薦服務-購買次數。購買某種商品的頻率越高,系統就越頻繁地將其推薦給具有相似行為和特徵的使用者。

學習演算法依賴所採取的行動。

西洋棋引擎 – 獲勝的步數。移動組合帶來物質或位置優勢和勝利的速度越快,引擎就越頻繁地選擇這種組合。

學習演算法依賴所玩的遊戲。
這原理是 AlphaGo Zero 的基礎,而這種學習演算法取得了令人驚訝的結果。 2017年,它擊敗了最強的傳統引擎之一Stockfish 。 AlphaGo Zero 與自己進行了大量的對弈,並學會了在大多數情況下選擇最佳走法。

多臂強盜

多臂老虎機演算法通常用於推薦服務(例如MyTracker Personalize)以選擇最佳產品(報價),也是建立在強化學習的基礎上的。

提出報價後,盜賊會收到用戶是否付款的回饋。透過這種方式,強盜可以了解其行為(報價顯示)如何影響環境(用戶支付行為)並提出最佳報價。

要了解有關 MyTracker Personalize 推薦服務的更多信息,請閱讀我們關於 Hustle Castle 手機遊戲的案例。

國際象棋和預測分析

比賽前,棋手及其團隊分析對手的行動(走法)。在這個階段,他們收集對手的資訊——他們的比賽風格、最近的比賽、喜歡的動作和弱點。

預測分析在分析廣告活動的投資報酬率時有類似的目標。您越早獲得此訊息,您就能越早結束不成功的活動並節省金錢。就像國際象棋一樣,數據是透過回顧以前的廣告統計數據獲得的——受眾覆蓋、進度和收入。

返回頂端