流批一體的即時特徵工程平台建置實踐

PHPz
發布: 2023-04-04 11:35:01
轉載
1425 人瀏覽過

本文主要分享阿里雲 FeatHub 專案組在特徵工程開發的平台實務與建置經驗。

流批一體的即時特徵工程平台建置實踐

本次分享分為四大部分,第一部分整體介紹FeatHub 在特徵開發、部署、監控、分享過程中面臨的場景、目標、痛點和挑戰;第二部分介紹FeatHub 的架構思路實踐,及相關核心概念;第三部分介紹FeatHub 在使用過程中的API 基本使用、基本運算功能,範例場景的程式碼實踐,還有效能最佳化,未來的擴展目標,以及開源社群的共建,提供專案的學習、開發使用,還將分享FeatHub 歷史資料的回放功能, 支援離線、近線、線上處理和阿里雲上下游組件的支援等問題。

一、為什麼需要FeatHub

1、目標場景

流批一體的即時特徵工程平台建置實踐

#(1)需要Python 環境的資料科學家

今天大部分流行的機器學習的推理和訓練程序基本上都是由資料科學家用Python 來編寫的,例如流行的TensorFlow、PyTorch 以及一些傳統機器學習場景中用到的scikit-learn 等等。我們希望支援資料科學家繼續使用熟悉的 Python 編寫特徵工程程式碼來完成端對端機器學習連結的開發與部署,並且能夠使用他們所熟悉的 Python 生態環境中的函式庫。

(2)產生即時特徵

越來越多的機器學習應用在往即時方向發展,透過即時處理可以提高機器學習的效率和準確度。為了達到目標,需要產生即時特徵。這裡不只是去即時取得查詢特徵,而是要即時產生特徵。例如需要即時取得使用者在最近兩分鐘內的點擊次數,為此需要使用串流計算引擎完成即時特徵計算。

(3)需要開源方案支援多雲部署

越來越多的中小型公司希望做到多雲部署,以獲得生產的安全保證,以及獲得雲端廠商之間的競價優勢。因此我們的方案不要求使用者綁定一個雲廠商,而是要讓使用者能夠自由地在不同雲廠商之間做選擇,甚至在私有雲部署特徵工程作業。

這是 FeatHub 專案設立之初所希望滿足的一些條件。

2、即時特徵工程的痛點

今天已經有很多公司在開發即時特徵工程作業。其中存在一些痛點,涵蓋了特徵的整個生命週期,包含開發、部署、監控、以及之後的分享。

流批一體的即時特徵工程平台建置實踐

(1)開發難度高

① 特徵穿越

開發階段,用的比較多的是即時特徵框架Apache Flink ,因為Flink 已經基本上是即時串流計算的事實標準,但是用Flink 或類似的框架來開發即時特徵存在著需要解決特徵穿越的難點。許多資料科學家並不了解特徵穿越的解決經驗,並且需要比較多的學習時間和成本來解決這類問題,這是開發階段的主要痛點。

(2)部署難度高

① 需要手動翻譯

很多公司會有一個專門的平台團隊把資料科學家寫的單一進程Python 作業翻譯成可分佈式執行的Flink 或Spark 作業,來實現高效能高可用的部署。其翻譯過程會增加整個開發生命週期長度。並且因為還需要額外的人力去做翻譯工作,增加了開發成本,更進一步帶來了引入 Bug 的可能性。另一撥人將資料科學家的作業翻譯之後的邏輯未必和原先的邏輯保持一致,這樣就帶來更多的 Debug 工作量。

(3)監控難度高

① 特徵分佈變化

特徵工程作業的整個品質和效率不只是取決於作業有沒有 Bug,還依賴上游的輸入資料數值分佈能滿足一些特性,例如能接近訓練時的資料數值分佈。許多作業的推理效果下降,經常是由於上游作業生產的資料分佈發生了變化。在這種情況下,需要開發者去追蹤整個鏈路,一段去看在哪個地方的特徵資料分佈發生了變化,根據具體情況再去看是否需要重新訓練或解決 Bug。這部分人力工作量過大也是一個痛點。

(4)分享難度高

① 開發工作重複

#雖然許多特徵計算作業的開發團隊和場景不同,但其實實用了類似甚至相同的特徵定義。很多公司中沒有一個很好的管道,讓公司內不同團隊能查詢和重複使用已有特徵。這就導致不同團隊經常需要做重複開發,甚至對於相同特徵需要重複跑作業去產生一些特徵。這帶來了人力和計算/儲存資源的浪費,因為需要更多的運算、記憶體、儲存空間去產生相同特徵。

② point-in-time correct 語意

流批一體的即時特徵工程平台建置實踐

#為了讓大家能理解什麼叫特徵穿越,上圖給了一個簡單例子,來展現這個問題。 圖左上表是用戶的一個行為特徵,表達了在不同時間節點,對於一個給定 ID 的用戶,在最近兩分鐘內的點擊數。這個點擊數可能會幫助我們推理使用者是否會點擊某個廣告。為了用這些特徵去做訓練,通常需要將特徵拼接到一些使用者帶有 Label 的資料集。 圖左下表展現的是一些使用者實際上有沒有點擊廣告的正樣本和負樣本的資料集,標註了在不同的時間點,使用者所產生的正樣本或負樣本。為了將這兩個資料集中的特徵拼接起來,形成訓練用的資料集,通常需要根據使用者 ID 作為 key 進行特徵拼接。如果只是簡單地進行 Table Join,不考慮時間戳,就可能產生特徵穿越問題。 例如在 6:03 分時,使用者最近 2 分鐘點擊數應該是 10,但拼接得到的特徵值可能是來自 7:00 分時的 6。這種特徵穿越會帶來實際推理效果的下降。一個具有point-in-time correct 語意的Join 結果應該如下圖所示:

流批一體的即時特徵工程平台建置實踐

為了在樣本拼接時避免特徵穿越,對於在上圖左表中的每一條數據,應該在維表的多個版本特徵當中找到時間戳小於並且最接近左表中的時間戳的特徵數值,並將其拼接到最終生成的訓練數據集上。這樣一個具有 point-in-time correct 語意的拼接,將產生上圖右邊所顯示的訓練資料集。針對不同的時間點,都有所對應最近兩分鐘內產生的特徵值。這樣產生的訓練資料集可以提高訓練和推理的效果。

3、Feature Store 的核心場景

流批一體的即時特徵工程平台建置實踐

接下來介紹FeatHub 作為一個Feature Store,對於整個特徵開發週期的每個階段試圖解決的問題和提供的工具。

(1)特徵開發

在特徵開發階段,FeatHub 會提供一個基於 Python 的具有高易用性的 SDK,讓使用者能簡潔地表達特徵的計算邏輯。特徵計算本質是一個特徵的 ETL。開發階段最重要的是 SDK 的易用性和簡潔性。

(2)特徵部署

在特徵部署階段,FeatHub 會提供執行引擎,實現高效能,低延遲的特徵運算邏輯的部署,並且能對接不同的特徵儲存。部署階段最重要的是執行引擎的效能和對接不同特徵儲存的能力。

(3)特徵警報

在特徵監控階段,為了方便開發者及時發現特徵數值分佈的變化並做出應對,FeatHub 將來會產生一些常用指標來覆蓋常見的特徵品質問題,例如具有非法數值的特徵比例,或特徵平均值,並根據這些指標進行警報,去及時通知負責人調查相關特徵分佈變化的原因和做出應對,來維護端到端的建議鏈路的效果。

(4)特徵分享

在特徵分享階段,FeatHub 將來會提供特徵的註冊和搜尋能力,支援同一公司內不同團隊的開發人員去查詢自己想要的特徵是不是已經存在,並且重複使用這些特徵定義和已經產生的特徵資料。

流批一體的即時特徵工程平台建置實踐

上圖說明 FeatHub 的核心特徵。在開發階段,FeatHub 能提供簡單易用的 SDK,支援具有 point-in-time correct 語意的特徵拼接,而特徵聚合等邏輯。在部署階段,FeatHub 能支援高吞吐、低延遲的特徵生成,支援使用 Flink 作為執行引擎來運算特徵;並且能支援多種特徵儲存系統,方便使用者自由選擇所希望使用的儲存類型。在監控階段, FeatHub 將能提供即時指標來監控特徵分佈的變化,包含離線和即時監控,方便開發者及時發現問題。在分享階段,FeatHub 將會提供簡單易用的 Web UI 以及 SDK,支援開發者註冊,搜尋和重複使用功能。

流批一體的即時特徵工程平台建置實踐

在 Feature Store 領域內已經有一些代表性的 Feature Store 項目,例如今年初 LinkedIn 開源的 Feathr,以及開源了多年的 Feast。我們研究了這些項目,發現他們並不能很好地達成我們提出的目標場景。

FeatHub 比起現有方案,帶來的額外價值包括:

 簡單易用的 Python SDK。 FeatHub 的SDK 參考了現有的Feature Store 專案的SDK,能支援這些專案的核心功能,並進一步提升了SDK 的抽象能力和易用性,

② 支援單機上的開發和實驗。 開發者不需要對接分散式的Flink 或Spark 叢集來跑實驗,而只需要使用單機上的CPU 或者記憶體資源就可以進行開發和實驗,並能使用scikit-learn 等單機上的機器學習演算法庫。

③ 無需修改程式碼即可切換執行引擎。 當使用者完成單機上的開發後,可以將單機執行引擎切換到 Flink 或 Spark 等分散式執行引擎,而無需修改表達特徵計算邏輯的程式碼。使用 Flink 作為執行引擎可以讓 Feathub 支援高吞吐、低延遲的即時特徵計算。 FeatHub 將來會進一步支援使用 Spark 作為執行引擎,讓使用者在離線場景中可以獲得潛在的更好的吞吐效能,根據場景自由選擇最合適的執行引擎。

④ 提供執行引擎的擴充能力。 FeatHub 不僅可以支援以 Flink、Spark 作為執行引擎,還支援開發者自訂執行引擎,使用公司內部自研的執行引擎進行特徵 ETL。

⑤ 程式碼開源,使得使用者可以自由選擇部署 FeatHub 的雲端廠商,也可以在私有雲中部署。

二、FeatHub 架構與核心概念

1、架構

流批一體的即時特徵工程平台建置實踐

#以上是包含 FeatHub 主要模組的架構圖。最上層提供了一套 Python SDK,支援使用者定義資料來源、資料終點以及特徵計算邏輯。由 SDK 定義的特徵可以註冊到特徵元資料中心,支援其他使用者和作業來查詢和重複使用特徵,甚至可以基於特徵元資料進一步分析特徵血緣。特徵定義包含了特徵的 source、sink,以及常見的計算邏輯,例如 UDF 呼叫、特徵拼接,基於 over 視窗與滑動視窗的聚合等。當需要取產生使用者所定義的特徵時,FeatHub 會提供一些內建的 Feature Processor,也就是執行引擎,執行已有特徵的運算邏輯。當使用者需要在單機上做實驗時,可以使用 Local Processor 使用單機上的資源,而無需對接一個遠端的叢集。當需要產生即時特徵時,可以使用 Flink Processor 完成高吞吐、低延遲的流式特徵計算。

將來也可以支援類似 Lambda Function 的 Feature Service 來實現線上的特徵計算,以及對接 Spark 來完成高吞吐的離線特徵計算。執行引擎可以對接不同的離線和線上特徵儲存系統,例如用 Redis 完成線上特徵儲存,用 HDFS 完成離線特徵儲存,以及用 Kafka 完成近線特徵儲存。

流批一體的即時特徵工程平台建置實踐

上圖展現了FeatHub 如何被使用者使用,以及對接下游的機器學習訓練和推理程序,使用者或開發者將透過SDK 來表達所希望計算的特徵,然後提交到執行引擎上進行部署。特徵經過計算後,需要輸出到特徵儲存,例如 Redis 和 HDFS。一個機器學習離線訓練程式可以直接讀取 HDFS 中的資料去做批次訓練。一個線上的機器學習推理程式可以直接讀取 Redis 中的資料進行線上推理。

2、核心概念

流批一體的即時特徵工程平台建置實踐

上圖展現了 FeatHub 中的核心概念之間的關係。一個 TableDescriptor 表達一組特徵的集合。 TableDescriptor 經過邏輯轉換可以生產一個新的 TableDescriptor。

TableDescriptor 分為兩類。其中 FeatureTable 所表達的是具有特定實體位址的表,例如可以是一個在 Redis 中的表,也可以是一個在 HDFS 中的表。 FeatureView 則是一些不一定有實體位址的邏輯表,通常是從一個 FeatureTable 經過一連邏輯串轉換後得到的。

FeatureView 有以下 3 個子類別:

① DerivedFeatureView 輸出的特徵表和其輸入的特徵表(i.e. source)的行基本上是一對一的。它可以支援表達單行轉換邏輯(e.g. 加減乘除),over window 聚合邏輯,以及特徵拼接邏輯。它可用於產生訓練資料。例如在先前介紹的例子中,需要將訓練樣本去拼接來自不同維表的特徵以得到實際的訓練數據,就可以使用 DerivedFeatureView 來完成。

② SlidingFeatureView 支援表達由滑動視窗計算得到的特徵。它輸出的特徵表和其輸入的特徵表的行不一定是一對一的。這是因為即使沒有新的輸入,滑動視窗計算得到的特徵數值會隨著時間流逝而改變。 SlidingFeatureView 可用於維護即時生成的特徵,並輸出到線上特徵存儲,例如 Redis,用於線上推理。例如,我們可以用 SlidingFeatureView 去計算每個使用者最近兩分鐘內點擊某個網頁的次數,並將特徵數值即時更新到 Redis 中,然後廣告推薦連結就可以在線上查詢這個特徵的值來做線上推理。

③ OnDemandFeatureView 可以與 Feature Service 用在一起,支援線上特徵計算。例如在使用高德地圖時,開發者可能會希望在收到使用者的請求之後,根據使用者目前的實體位置與上一次發送請求時的實體位置,計算出使用者移動的速度和方向速度,來協助推薦路線的決策。這些特徵必須在收到用戶請求的時候進行線上計算得到。 OnDemandFeatureView 可以用來支援這類場景。

Transform 表達的是特徵計算邏輯。 FeatHub 目前支援以下 5 種特徵計算邏輯:

① Expression 支援使用者基於一個 DSL 語言表達單行的特徵計算邏輯。其表達能力接近SQL 語言中的 select 語句,可以支援加減乘除和內建函數調用,可以讓熟悉 SQL 的開發者快速上手。

② Join 表達的是特徵拼接邏輯。開發者可以指定維表的名字和需要拼接的特徵名字等資訊。

③ PythonUDF 支援使用者自訂 Python 函數來計算特徵。

④ OverWindow 表達的是 Over 視窗聚合邏輯。例如在收到一行資料時,使用者希望根據先前的 5 行數據,進行聚合併計算有多少資料符合某個規則。

⑤ SlidingWindow 表達的是滑動視窗聚合邏輯。

流批一體的即時特徵工程平台建置實踐

從上圖中可以看到,通常一個特徵ETL 作業會從特徵來源表讀取特徵,經過多次特徵計算邏輯產生新的特徵,並將產生的特徵輸出到特徵結果表。特徵源表可以對接不同的特徵存儲,例如有 FileSystem,Kafka,Hive 等。類似的,特徵結果表也可以對接 FileSystem,Kafka,Redis 等特徵儲存。

Processor 包括 LocalProcessor、FlinkProcessor、SparkProcessor,分別可以使用單機實體資源,分散式的 Flink 集群,以及分散式 Spark 集群,去執行使用者定義的特徵計算邏輯。

三、FeatHub API 展示

1、特徵運算功能

流批一體的即時特徵工程平台建置實踐

#在介紹了FeatHub 的架構和核心概念後,我們將透過一些範例程式來展現FeatHub SDK 的表達能力以及易用性。對於特徵開發 SDK 來說,其最核心的能力就是如何表達新的特徵計算邏輯。 FeatHub SDK 支援特徵拼接、視窗聚合、內建函數呼叫以及自訂 Python 等能力,未來還可以支援基於 JAVA 或 C 的 UDF 呼叫。

上圖展示了一個特徵拼接的程式碼片段。在這個例子中,假設 HDFS 中有原始的正負樣本數據,記錄了使用者購買商品的行為。我們想進一步想取得用戶在購買每個商品時的商品價格。一個 price_updates 表維護了商品價格變動的資料。每次商品價格變動時,會在 price_updates 表中產生一行數據,包含商品 ID 和最新的商品價格。我們可以使用 JoinTransform,設定 table_name=price_updates,feature_name=price,以及 key=item_id,來表達對應的特徵拼接邏輯。這樣 FeatHub 就可以根據在 price_updates 中,找到具有給定 item_id 的行,並根據時間戳,找到最合適的 price 數值,來拼接到樣本資料表上。

Over 視窗聚合的程式碼片段則展示如何用 OverWindowTransform 來計算特徵。使用者可以使用 expr=”item_counts * price”,以及 agg_fun=”SUM”,來根據購買的商品數量和價格,計算出最近時間窗口中的總消費量。其中視窗的時間長度為 2 分鐘。 group_by_keys=[“user_id”] 則說明了我們會為每個使用者個別計算出對應的總消費量。

滑動視窗聚合與 Over 視窗聚合比較類似,API 上唯一差異是可以額外指定 step_size。如果 step_size=1 分鐘,則視窗會在每分鐘進行滑動並產生新的特徵值。

內建函數呼叫的程式碼片段展示如何使用 DSL 語言表達加減乘除和 UDF 呼叫。假設輸入的資料包含計程車接送乘客的時間戳記。我們可以透過呼叫 UNIX_TIMESTAMP 內建函數將接送乘客的時間戳記轉換為整數類型的 epoch time,然後將得到的 epoch time 相減,得到每次旅程的時間長度,作為一個特徵用於之後的訓練和推理。

在 PythonUDF 呼叫的程式碼片段中,使用者可以自訂一個 Python 函數,對輸入的特徵進行任意的處理,例如產生小寫的字串。

透過以上幾個程式碼片段,我們可以看出 FeatHub 的 API 是比較簡潔易用的。使用者只需要設定計算邏輯所必須的參數,而無需了解處理引擎的細節。

2、範例場景

流批一體的即時特徵工程平台建置實踐

在上述範例場景中,使用者有兩個資料來源。其 Purchase Events 包含使用者購買商品的樣本數據,可以來自於 Kafka,也可以來自於 FileSystem;Item Price Events 包含商品價格變動的數據。每次商品價格變動時,都會在 Item Price Events 中產生一行數據,包含商品 ID 和最新的商品價格。我們希望對於每個用戶購買商品的樣本數據,計算用戶在該行為發生時最近兩分鐘內的消費總量,作為特徵來協助推理出用戶會不會購買某樣商品。為了產生這個特徵,可以使用上圖所描述的計算邏輯,先將 Item Price Events 中的 price 特徵以 item_id 作為 join_key 拼接到 Purchase Events 上。接著再以時間視窗和使用 user_id 為 group_by _keys 進行聚合,來計算得到每個使用者最近兩分鐘內的消費總量。

3、範例程式碼

流批一體的即時特徵工程平台建置實踐

以上程式碼片段展示了一個範例 FeatHub 應用程式所需完成的步驟。

① 首先使用者需要建立一個 FeatHubClient 並設定 processor_type。如果是本地實驗,可以設定成 Local,如果是遠端分散式生產部署,可以設定成 Flink。

② 使用者需要建立 Source 來讀取數據,例如可以使用 FileSystemSource 讀取在離線儲存系統中的數據,或使用 KafkaSource 讀取近線儲存系統中的即時數據。 FileSystemSource 中,使用者可以指定例如 data_format,schema、檔案的位置等資訊。值得注意的是,使用者可以提供 time_stamp_field 和 time_stamp_format,分別表達資料來源表中代表時間的欄位以及對應的解析格式。 FeatHub 將使用這些資訊完成做 point-in-time correct 的特徵計算,避免特徵穿越的問題。

③ 使用者可以建立一個 FeatureView 來表達特徵拼接和聚合的邏輯。如果要做拼接,使用者可以 item_price_events.price 來表達希望拼接的特徵。 FeatHub 會找到名字為 item_price_events 的表格並從中拿到名字為 price 的特徵。使用者也可以使用 OverWindowTransform 來完成 Over 視窗聚合,定義一個名為total_payment_last_two_minutes 的特徵。其中 window_size=2 分鐘表示對於兩分鐘內的資料應用指定的表達式和聚合函數來計算特徵。

流批一體的即時特徵工程平台建置實踐

④ 對於已經定義的FeatureView,如果使用者想做本地開發和實驗,並使用scikit-learn 演算法庫進行單機上的訓練,可以使用to_pandas()  API來將資料以Pandas DataFrame 格式取得到單機的記憶體中。

⑤ 當使用者需要完成特徵的生產部署時,可以使用 FileSystemSink 指定用於存放資料的離線特徵儲存。然後呼叫 execute_insert() 將特徵輸出到所指定的 Sink 當中。

流批一體的即時特徵工程平台建置實踐

FeatHub 的基本價值是提供 SDK 來方便使用者開發特徵,並且提供執行引擎來計算特徵。除此之外,FeatHub 也將提供執行引擎的效能優化,讓使用者在特徵部署階段獲得更多的效益。例如基於滑動視窗聚合的特徵,目前如果使用原生的 Flink API 來計算,Flink 會在每個滑動的 step_size 都輸出對應的特徵值,無論特徵的數值是否發生了變化。對於 window_size=1 小時,step_size=1 秒這樣的滑動窗口,大部分情況下 Flink 可能會輸出相同的特徵數值。這樣會浪費網路流量、下游儲存等資源。 FeatHub 中支援使用者配置滑動視窗的行為,讓滑動視窗只在特徵數值改變的時候輸出特徵,來優化特徵計算作業的資源使用量。

另外 FeatHub 也將進一步優化滑動視窗的記憶體和 CPU 使用量。在某些場景中,使用者會定於許多類似的滑動視窗特徵。這些特徵只有 window size 不一樣。例如我們可能希望得到每位使用者最近 1 分鐘,5 分鐘,和 10 分鐘內的購買商品的花費總數。如果使用原生的 Flink API 來計算,作業可能會使用三個聚合算子來分別計算這 3 個特徵。每個聚合算子會有單獨的記憶體空間。考慮到這些算子所處理的資料和運算邏輯有較大的重合,FeatHub 可以用一個自訂算子,統一完成這些特徵的計算,來達到節約記憶體和 CPU 資源的目標。

流批一體的即時特徵工程平台建置實踐

FeatHub 目前已經在 GitHub 開源,能夠支援一些基本的 LocalProcessor 和 FlinkProcessor 的功能。我們會進一步完善 FeatHub 的核心功能來方便使用者特徵工程的開發與落地。其中包括支援更多常用的離線儲存、線上存儲,對接 Notebook,提供 Web UI 來可視化特徵的元數據,支援用戶做特徵的註冊、搜尋、復用,以及支援使用 Spark 作為 FeatHub 的執行引擎。

流批一體的即時特徵工程平台建置實踐

FeatHub 程式碼庫:https://github.com/alibaba/FeatHub

FeatHub 程式碼範例:https://github.com/flink-extended/FeatHub-examples

FeatHub 程式碼庫目前放在github/alibaba 目錄下。為了方便大家學習使用 FeatHub,並快速找到並參考滿足所需場景需求的程式碼片段,我們在 flink-extended/feathub-examples 程式碼庫中提供額外程式碼範例,大家可以自由使用嘗試。歡迎大家提供回饋,以及貢獻 PR。

四、問答環節

Q1:在 point_in_time join 時,特徵穿越是由資料亂序延遲還是由人工寫 Join 時導致的?

A1:原則上都有,即使資料沒有亂序,如果在 Join 時沒有考慮到 timestamp 字段,就可能導致亂序。在實際場景中,來源資料可能也會亂序。這時候可以使用類似 Flink 中的 watermark 策略來等待晚到的數據,降低亂序的影響。另外我們可以用定期的離線作業來 backfill 線上特徵數據,從而進一步降低數據亂序的影響。

Q2:FeatHub 上線後,如何產出過去的訓練資料及其對應的特徵? FeatHub 是否支援歷史資料的回放?

A2:FeatHub API 是能支援回放的, 但目前這部分功能還沒有經過生產驗證。 FeatHub 將支援使用 Flink 和 Spark 作為執行引擎,因此可以重複使用 Flink 和 Spark 的運算能力來完成歷史資料的回放。例如, 我們可以啟動一個 Spark 作業,設定 Source 來處理過去一個月內所有的 HDFS 上的數據,並執行所定義的特徵拼接和聚合邏輯,然後將計算得到的特徵輸出。

Q3. FeatHub 只負責離線特徵計算,如何處理線上部分特徵?

A3:特徵計算分為離線、近線和線上,Flink 是一個近線執行引擎,可以即時計算例如最近5 分鐘內的用戶點擊次數這樣的特徵,同時也可以支援離線計算。因此 FeatHub 可以支援離線和近線特徵計算。 FeatHub 將來有計畫去支援線上特徵計算,使用基於 Feature Service 的架構,來計算 OnDemandFeatureView 所表達的特徵。

Q4:FeatHub 在阿里雲中提供服務,目前有哪些上下游的生態支持,例如 ODPS 等?

A4:FeatHub 將會支援所有 Flink 所支援的 Source/Sink,包括 ODPS,Holo 等阿里雲端提供的服務。目前 FeatHub 只支援 Kafka 和 FileSystem。我們會逐步加入更多的儲存支援。

以上是流批一體的即時特徵工程平台建置實踐的詳細內容。更多資訊請關注PHP中文網其他相關文章!

來源:51cto.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
最新問題
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板
關於我們 免責聲明 Sitemap
PHP中文網:公益線上PHP培訓,幫助PHP學習者快速成長!