参考

精排(二)特征交叉

  • 前面我们讲了Wide & Deep模型,它把记忆能力和泛化能力结合起来。不过Wide部分有个问题:需要人工设计交叉特征,比如“用户年龄×商品类别”这样的组合。这种手工设计的方式不仅费时费力,还很难覆盖所有有用的特征组合。
  • 既然手工设计这么麻烦,那能不能让模型自己学会做特征交叉呢?这就是本节要讨论的核心问题。我们会按照两条技术路线来看:先从简单的二阶交叉开始,然后到更复杂的高阶交叉,最后看看怎么让交叉变得更个性化和自适应。

1、二阶特征交叉

针对 Wide & Deep 模型中人工特征工程的局限性,特征交叉自动化成为了一个迫切需要解决的问题。在这一探索过程中,首先要攻克的是:如何自动、高效地捕捉所有成对(二阶)特征的交互,并将其与深度学习模型结合。 这里的挑战不仅在于"自动",更在于面对推荐场景下海量、高维、稀疏的数据时如何实现"高效"。直接暴力计算所有特征对的组合是不可行的,我们需要一种更巧妙的机制来参数化这些交互。同时,在解决了二阶交互的自动化表达后,如何将这些捕获到的低阶、显式交互信息,与能够学习高阶、隐式关系的深度神经网络(DNN)进行有效融合,也成为这一阶段模型探索的重点。

1.1 FM: 隐向量内积与参数共享

原理

我们在召回章节 已经初步了解了FM ,并见证了它如何作为双塔模型的雏形,通过向量匹配实现召回。在精排阶段,FM的价值得到了更核心的体现。它作为解决特征交叉自动化问题的开创性模型,其核心思想——为每个特征学习一个低维隐向量,并用向量内积来参数化所有二阶交叉项的权重——不仅有效解决了参数数量过多和数据稀疏性两大难题,也为这一小节后续模型奠定了方法论的基础。

FM模型结构

为了捕捉特征间的交互关系,一个直接的想法是在线性模型的基础上增加所有特征的二阶组合项,即多项式模型:

y=w0+i=1nwixi+i=1n1j=i+1nwijxixjy = w_0 + \sum_{i=1}^n w_i x_i + \sum_{i=1}^{n-1} \sum_{j=i+1}^n w_{ij} x_i x_j

其中,w0w_0 是全局偏置项,wiw_i 是特征 xix_i 的权重,wijw_{ij} 是特征 xix_ixjx_j 交互的权重,nn 是特征数量。这个模型存在两个致命缺陷:第一,参数数量会达到 O(n2)O(n^2) 的级别,在特征数量庞大的推荐场景下难以承受;第二,在数据高度稀疏的环境中,绝大多数的交叉特征 xixjx_i x_j 因为在训练集中从未共同出现过,导致其对应的权重 wijw_{ij} 无法得到有效学习。

FM 模型巧妙地解决了这个问题。它将交互权重 wijw_{ij} 分解为两个低维隐向量的内积,即 wij=vi,vjw_{ij}=\langle\mathbf{v}_i,\mathbf{v}_j\rangle。这样,模型的预测公式就演变为:

y=w0+i=1nwixi+i=1n1j=i+1nvi,vjxixjy = w_0 + \sum_{i=1}^n w_i x_i + \sum_{i=1}^{n-1} \sum_{j=i+1}^n \langle \mathbf{v}_i, \mathbf{v}_j \rangle x_i x_j

其中vi,vj\mathbf{v}_i,\mathbf{v}_j 分别是特征 ii 和特征 jjkk 维隐向量(Embedding)。kk 是一个远小于特征数量 nn 的超参数,vi,vj\langle \mathbf{v}_i,\mathbf{v}_j \rangle 表示两个隐向量的内积,计算方式为 f=1kvi,fvj,f\sum_{f=1}^k v_{i,f} \cdot v_{j,f}

这种参数共享的设计是 FM 的精髓所在。原本需要学习 O(n2)O(n^2) 个独立的交叉权重 wijw_{ij},现在只需要为每个特征学习一个 kk 维的隐向量 viv_i,总参数量就从 O(n2)O(n^2) 降低到了 O(nk)O(nk)。更重要的是,它极大地缓解了数据稀疏问题。即使特征 iijj 在训练样本中从未同时出现过,模型依然可以通过它们各自与其他特征(如 kk)的共现数据,分别学到有效的隐向量 viv_ivjv_j。只要隐向量学习得足够好,模型就能够泛化并预测 xix_ixjx_j 的交叉效应。此外,通过巧妙的数学变换,FM 的二阶交叉项计算复杂度可以从 O(kn2)O(kn^2) 优化到线性的 O(kn)O(kn),使其在工业界得到了广泛应用。

代码

  • FM的核心在于将 O(n2)O(n^2) 的二阶交叉项优化为线性复杂度。通过简单的代数变换,我们可以高效计算所有特征对的交互。
  • 这个实现的巧妙之处在于,无论有多少特征,计算复杂度始终保持线性,使得FM能够处理推荐系统中常见的高维稀疏特征。
    fm.py 文件:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
"""
因子分解机(FM)排序模型。
"""

import tensorflow as tf

from .utils import (
build_input_layer,
build_group_feature_embedding_table_dict,
concat_group_embedding,
add_tensor_func,
get_linear_logits,
)
from .layers import FM, PredictLayer


def build_fm_model(feature_columns, model_config):
"""
构建因子分解机(FM)模型 - 用于排序

参数:
feature_columns: 特征列配置
model_config: 模型配置字典,包含:
- linear_logits: 是否添加线性部分,默认为True
"""
# 从配置中提取参数,设置默认值
linear_logits = model_config.get("linear_logits", True)

# 构建输入层
input_layer_dict = build_input_layer(feature_columns)

# 构建特征embedding表
group_embedding_feature_dict = build_group_feature_embedding_table_dict(
feature_columns, input_layer_dict, prefix="embedding/"
)

# 存储FM特征组的字典
fm_group_feature_dict = {}
for fm_group_name in group_embedding_feature_dict.keys():
# 连接同一组内的嵌入特征,形成形状为BxNxD的张量(批次大小x特征数量x嵌入维度)
concat_fm_feature = concat_group_embedding(
group_embedding_feature_dict, fm_group_name, axis=1, flatten=False
) # BxNxD
fm_group_feature_dict[fm_group_name] = concat_fm_feature

# 对每个特征组应用FM层,并将结果相加
fm_logit = add_tensor_func(
[
FM(name=fm_group_name)(fm_input)
for fm_group_name, fm_input in fm_group_feature_dict.items()
]
)

# 如果需要线性部分,则添加线性逻辑并与FM逻辑相结合
if linear_logits:
linear_logit = get_linear_logits(input_layer_dict, feature_columns)
fm_logit = add_tensor_func([fm_logit, linear_logit], name="fm_linear_logits")

# 展平以确保输出为 (batch_size,) 用于二分类
fm_logit = tf.keras.layers.Flatten()(fm_logit)
output = tf.keras.layers.Dense(1, activation="sigmoid", name="fm_output")(fm_logit)
output = tf.keras.layers.Flatten()(output) # 确保最终输出为 (batch_size,)

model = tf.keras.models.Model(
inputs=list(input_layer_dict.values()), outputs=output
)

# 排序模型返回 (model, None, None),因为没有单独的用户/物品模型
return model, None, None

1.2 AFM: 注意力加权的交叉特征

原理

FM 对所有特征交叉给予了相同的权重,但实际上不同交叉组合的重要性是不同的。AFM 在此基础上引入注意力机制,为不同的特征交叉分配权重,使模型能关注到更重要的交互。例如,在预测一位用户是否会点击一条体育新闻时,"用户年龄=18-24岁"与"新闻类别=体育"的交叉,其重要性显然要高于"用户年龄=18-24岁"与"新闻发布时间=周三"的交叉。

AFM模型结构

AFM 的模型结构在 FM 的基础上进行了扩展。它首先将所有成对特征的隐向量进行元素积(Hadamard Product, 记为 \odot,而不是像 FM 那样直接求内积。这样做保留了交叉特征的向量信息,为后续的注意力计算提供了输入。这个步骤被称为成对交互层(Pair-wise Interaction Layer)。

fPI(E)={(vivj)xixj}(i,j)Rxf_{PI}(\mathcal{E}) = \{(v_i \odot v_j) x_i x_j \}_{(i,j) \in \mathcal{R}_x}

其中,E\mathcal{E} 表示输入样本中所有非零特征的embedding向量集合,Rx\mathcal{R}_x 表示输入样本中所有非零特征的索引对集合。随后,模型引入一个注意力机制,来学习每个交叉特征 (vivj)(v_i \odot v_j) 的重要性得分 aija_{ij}

aij=hTReLU(W(vivj)xixj+b)aij=exp(aij)(i,k)Rxexp(aik)\begin{aligned} a_{ij}' &= \textbf{h}^T \text{ReLU}(\textbf{W} (\mathbf{v}_i \odot \mathbf{v}_j) x_i x_j + \textbf{b}) \\ a_{ij} &= \frac{\exp(a_{ij}')}{\sum_{(i,k) \in \mathcal{R}_x} \exp(a_{ik}')} \end{aligned}

其中,W\textbf{W} 是注意力网络的权重矩阵,b\textbf{b} 是偏置向量,h\textbf{h} 是输出层向量。这个得分 aija_{ij} 经过 Softmax 归一化后,被用作加权求和的权重,与原始的交叉特征向量相乘,最终汇总成一个向量。这个过程被称为注意力池化层(Attention-based Pooling)。

fAtt=(i,j)Rxaij(vivj)xixjf_{Att} = \sum_{(i,j) \in \mathcal{R}_x} a_{ij} (\mathbf{v}_i \odot \mathbf{v}_j) x_i x_j

最后,AFM 的完整预测公式由一阶线性部分和经过注意力加权的二阶交叉部分组成:

y^afm(x)=w0+i=1nwixi+pTfAtt\hat{y}_{afm}(x) = w_0 + \sum_{i=1}^n w_i x_i + \textbf{p}^T f_{Att}

其中 p\textbf{p} 是一个投影向量,用于将最终的交叉结果映射为标量。通过引入注意力机制,AFM 不仅提升了模型的表达能力,还通过可视化注意力权重 aija_{ij} 赋予了模型更好的可解释性,让我们可以洞察哪些特征交叉对预测结果的贡献最大。

代码

  • AFM的关键在于注意力池化层,它为每个特征交叉对分配不同的权重。
  • 相比FM对所有特征交叉一视同仁,AFM通过注意力机制自动识别重要的交互模式,提升了模型的表达能力和可解释性。
    afm.py 文件:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
import tensorflow as tf

from .utils import (
build_input_layer,
build_group_feature_embedding_table_dict,
concat_group_embedding,
add_tensor_func,
get_linear_logits,
pairwise_feature_interactions,
)
from .layers import AttentionPoolingLayer


def build_afm_model(feature_columns, model_config):
"""
构建注意力因子分解机(AFM)排序模型。

参数:
feature_columns: FeatureColumn列表
model_config: 包含参数的字典:
- attention_factor: int, 注意力隐藏层大小 (默认 4)
- dropout_rate: float, 成对交互的dropout (默认 0.1)
- l2_reg: float, 注意力权重的L2正则化 (默认 1e-4)
- linear_logits: bool, 是否添加线性项 (默认 True)

返回:
(model, None, None): 排序模型元组
"""
attention_factor = model_config.get("attention_factor", 4)
dropout_rate = model_config.get("dropout_rate", 0.1)
l2_reg = model_config.get("l2_reg", 1e-4)
linear_logits = model_config.get("linear_logits", True)

# 输入层
input_layer_dict = build_input_layer(feature_columns)

# 分组嵌入 B x N x D
group_embedding_feature_dict = build_group_feature_embedding_table_dict(
feature_columns, input_layer_dict, prefix="embedding/"
)

group_feature_dict = {}
for group_name, _ in group_embedding_feature_dict.items():
group_feature_dict[group_name] = concat_group_embedding(
group_embedding_feature_dict, group_name, axis=1, flatten=False
) # B x N x D

# 对每个组的成对交互进行注意力池化
group_attention_pooling_out = {}
for group_name, group_feature in group_feature_dict.items():
group_pairwise = pairwise_feature_interactions(
group_feature, drop_rate=dropout_rate
) # B x num_pairs x D
group_attention_pooling_out[group_name] = AttentionPoolingLayer(
attention_factor=attention_factor, l2_reg=l2_reg
)(
group_pairwise
) # B x D

# 跨组求和
attention_pooling_output = add_tensor_func(
[
group_attention_pooling_out[group_name]
for group_name in group_feature_dict.keys()
]
) # B x D

# Logits
afm_logits = tf.keras.layers.Dense(1, activation=None)(
attention_pooling_output
) # B x 1

if linear_logits:
linear_logit = get_linear_logits(input_layer_dict, feature_columns)
afm_logits = add_tensor_func(
[afm_logits, linear_logit], name="afm_linear_logits"
)

# 遵循FM排序输出约定:展平并应用sigmoid
afm_logits = tf.keras.layers.Flatten()(afm_logits)
output = tf.keras.layers.Dense(1, activation="sigmoid", name="afm_output")(
afm_logits
)
output = tf.keras.layers.Flatten()(output)

model = tf.keras.models.Model(
inputs=list(input_layer_dict.values()), outputs=output
)
return model, None, None

1.3 NFM: 交叉特征的深度学习

原理

NFM 探索了如何更深入地利用交叉信息。它将 FM 的二阶交叉结果(用哈达玛积表示的向量)作为输入,送入一个深度神经网络(DNN),从而在 FM 的基础上学习更高阶、更复杂的非线性关系。NFM 的核心思想是,FM 所捕获的二阶交叉信息本身就是一种非常有价值的特征,可以作为“原料”输入给强大的 DNN,由 DNN 来自动学习这些交叉特征之间的高阶组合关系

NFM 的结构非常清晰。它首先通过一个创新的“特征交叉池化层”(Bi-Interaction Pooling Layer)来对所有特征对的 Embedding 向量进行处理。这一层的操作如下:

fBI(Vx)=i=1nj=i+1nxivixjvjf_{BI}(V_x) = \sum_{i=1}^n \sum_{j=i+1}^n x_i \mathbf{v}_i \odot x_j \mathbf{v}_j

其中 Vx={x1v1,x2v2,...,xnvn}V_x = \{x_1 v_1, x_2 v_2, ..., x_n v_n\} 是输入样本中所有非零特征的 Embedding 向量集合,\odot 仍然是元素积操作。这个操作的结果是一个与 Embedding 维度相同的向量,它有效地编码了所有的二阶特征交叉信息。值得注意的是,与FM中的变换类似,这一层的计算同样可以被优化到线性时间复杂度,非常高效:

fBI(Vx)=12[(i=1nxivi)2i=1n(xivi)2].f_{BI}(V_x) = \frac{1}{2} \left[\left(\sum_{i=1}^n x_i \mathbf{v}_i\right)^2 - \sum_{i=1}^n (x_i \mathbf{v}_i)^2\right].

得到特征交叉池化层的输出向量 fBI(Vx)f_{BI}(V_x) 后,NFM 将其送入一个标准的多层前馈神经网络(MLP):

z1=σ1(W1fBI(Vx)+b1), , zL=σL(WLzL1+bL)z_1 = \sigma_1(\textbf{W}_1 f_{BI}(V_x) + \textbf{b}_1),\ \ldots,\ z_L = \sigma_L(\textbf{W}_L z_{L-1} + \textbf{b}_L)

其中 Wl,bl,σl\textbf{W}_l, \textbf{b}_l, \sigma_l 分别是第 ll 个隐藏层的权重、偏置和非线性激活函数。最后,NFM 将一阶线性部分与 DNN 部分的输出结合起来,得到最终的预测结果:

y^NFM(x)=w0+i=1nwixi+hTzL\hat{y}_{NFM}(x) = w_0 + \sum_{i=1}^n w_i x_i + \textbf{h}^T z_L

其中 h\textbf{h} 是预测层的权重向量。通过这种方式,NFM 巧妙地将 FM 的二阶交叉能力与 DNN 的高阶非线性建模能力结合在了一起。FM 可以被看作是 NFM 在没有隐藏层时的特例,这表明 NFM 是对 FM 的一个自然扩展和深度化。

代码

  • NFM的双交互池化层将所有特征对的交叉信息压缩为一个固定维度的向量,作为DNN的输入。
  • NFM的关键创新在于将FM的二阶交叉信息作为DNN的输入,使得模型既能捕捉特征间的交互,又能学习高阶非线性关系。
    nfm.py 文件:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
import tensorflow as tf

from .utils import (
build_input_layer,
build_group_feature_embedding_table_dict,
concat_group_embedding,
add_tensor_func,
get_linear_logits,
)
from .layers import DNNs, BiInteractionPooling


def build_nfm_model(feature_columns, model_config):
"""
构建神经因子分解机(NFM)排序模型。

Args:
feature_columns: FeatureColumn 列表
model_config: 包含参数的字典:
- dnn_units: 列表,DNN 隐藏单元(默认 [64, 32])
- use_bn: 布尔值,是否使用批量归一化(默认 True)
- dropout_rate: 浮点数,dropout 率(默认 0.1)
- linear_logits: 布尔值,是否添加线性项(默认 True)

Returns:
(model, None, None): 排序模型元组
"""
dnn_units = model_config.get("dnn_units", [64, 32])
use_bn = model_config.get("use_bn", True)
dropout_rate = model_config.get("dropout_rate", 0.1)
linear_logits = model_config.get("linear_logits", True)

# 输入层
input_layer_dict = build_input_layer(feature_columns)

# 分组嵌入 B x N x D
group_embedding_feature_dict = build_group_feature_embedding_table_dict(
feature_columns, input_layer_dict, prefix="embedding/"
)

group_feature_dict = {}
for group_name, _ in group_embedding_feature_dict.items():
group_feature_dict[group_name] = concat_group_embedding(
group_embedding_feature_dict, group_name, axis=1, flatten=False
) # B x N x D

# 每个组的双交互池化
bi_interaction_pooling_out = add_tensor_func(
[
BiInteractionPooling(name=group_name)(group_feature)
for group_name, group_feature in group_feature_dict.items()
]
) # B x D

# 深度神经网络
dnn_out = DNNs(
units=dnn_units, activation="relu", use_bn=use_bn, dropout_rate=dropout_rate
)(bi_interaction_pooling_out)

# NFM logits
nfm_logits = tf.keras.layers.Dense(1, activation=None)(dnn_out) # B x 1

if linear_logits:
linear_logit = get_linear_logits(input_layer_dict, feature_columns)
nfm_logits = add_tensor_func(
[nfm_logits, linear_logit], name="nfm_linear_logits"
)

# 遵循 FM 排序输出约定:扁平化和 sigmoid
nfm_logits = tf.keras.layers.Flatten()(nfm_logits)
output = tf.keras.layers.Dense(1, activation="sigmoid", name="nfm_output")(
nfm_logits
)
output = tf.keras.layers.Flatten()(output)

model = tf.keras.models.Model(
inputs=list(input_layer_dict.values()), outputs=output
)
return model, None, None

1.4 PNN: 多样化的乘积操作

原理

PNN 认为仅用内积(Inner Product)或元素积(Hadamard Product)不足以捕捉所有特征交互信息。因此,它在经典的内积基础上,增加了外积(Outer Product)作为补充,尝试从更丰富的角度来表示特征间的交互。PNN 的核心创新在于其“乘积层”(Product Layer),该层专门用于对特征 Embedding 进行显式的交叉操作,其输出再送入后续的全连接网络。

PNN模型结构

PNN 的乘积层会产生两部分信号,一部分是线性信号 lz\mathbf{l}_z,直接来自于各特征的 Embedding 向量,定义为:

lzn=i=1Nk=1M(Wzn)i,kfik\mathbf{l}_z^n = \sum_{i=1}^N\sum_{k=1}^M (\mathbf{W}_z^n)_{i,k} \mathbf{f}_i^k

其中 fi\mathbf{f}_i 是特征的 Embedding 向量,Wzn\mathbf{W}_z^n 是第 nn 个神经元对应的线性信号权重矩阵。NN 为特征字段数量,MM 为 Embedding 维数。

另一部分是二次信号 lp\mathbf{l}_p,来自于特征 Embedding 之间的两两交互。根据交互方式的不同,PNN 的二次信号分为两种主要的变体:

IPNN (Inner Product-based Neural Network): 这种变体使用特征 Embedding 之间的内积来计算二次信号。一个直接的计算方式是:

lpn=i=1Nj=1N(Wpn)i,jfi,fj\mathbf{l}_p^n = \sum_{i=1}^N \sum_{j=1}^N (\textbf{W}_p^n)_{i,j} \langle \mathbf{f}_i, \mathbf{f}_j \rangle

Wpn\textbf{W}_p^n 是第 nn 个神经元对应的权重矩阵。这种计算方式的复杂度是 O(N2)O(N^2)NN 为特征字段数量,开销巨大。为了优化,PNN 引入了矩阵分解技巧,将权重矩阵 Wpn\textbf{W}_p^n 分解为 θnθnT\theta_n \theta_n^T,即 (Wpn)i,j=θi,nθj,n(\textbf{W}_p^n)_{i,j} = \theta_{i,n} \theta_{j,n}。于是,计算过程可以被重写和简化:

lpn=i=1Nj=1Nθinθjnfi,fj=i=1Nj=1Nθinfi,θjnfj=i=1Nθinfi,j=1Nθjnfj=i=1Nθinfi2\mathbf{l}_p^n = \sum_{i=1}^N \sum_{j=1}^N \theta_i^n \theta_j^n \langle \mathbf{f}_i, \mathbf{f}_j \rangle = \sum_{i=1}^N \sum_{j=1}^N \langle \theta_i^n \mathbf{f}_i, \theta_j^n \mathbf{f}_j \rangle = \langle \sum_{i=1}^N \theta_i^n \mathbf{f}_i, \sum_{j=1}^N \theta_j^n \mathbf{f}_j \rangle = \left\|\sum_{i=1}^N \theta_i^n \mathbf{f}_i\right\|^2

通过这个变换,计算所有内积对的加权和,转变成了先对 Embedding 进行加权求和,然后计算一次向量的 L2 范数平方,复杂度成功地从 O(N2M)O(N^2M) 降低到了 O(NM)O(NM)

优化后的完整计算公式为:

lp=(i=1Nθi1fi2,i=1Nθi2fi2,,i=1Nθinfi2)\mathbf{l}_p = \left(\left\|\sum_{i=1}^N \theta_i^1 \mathbf{f}_i\right\|^2, \left\|\sum_{i=1}^N \theta_i^2 \mathbf{f}_i\right\|^2, \ldots, \left\|\sum_{i=1}^N \theta_i^n \mathbf{f}_i\right\|^2\right)

OPNN (Outer Product-based Neural Network): 这种变体使用特征 Embedding 之间的外积 fifjT\mathbf{f}_i\mathbf{f}_j^T 来捕捉更丰富的交互信息。外积会产生一个矩阵,如果对所有外积对进行加权求和 i=1Nj=1NfifjT\sum_{i=1}^N \sum_{j=1}^N \mathbf{f}_i \mathbf{f}_j^T,计算复杂度会达到 O(N2M2)O(N^2M^2)MM 为 Embedding 维数),这在实践中是不可行的。OPNN 采用了一种称为“叠加”(superposition)的近似方法来大幅降低复杂度。它不再计算所有成对的外积,而是先将所有特征的 Embedding 向量相加,然后再计算一次外积

i=1Nj=1NfifjT=(i=1Nfi)(j=1Nfj)T\sum_{i=1}^N \sum_{j=1}^N \mathbf{f}_i \mathbf{f}_j^T = (\sum_{i=1}^N \mathbf{f}_i)(\sum_{j=1}^N \mathbf{f}_j)^T

这样,计算量得到了节省 O(M(M+N))O(M(M+N))。优化后的完整计算公式为:

lp=(Wp1,(i=1Nfi)(j=1Nfj)T,Wp2,(i=1Nfi)(j=1Nfj)T,,Wpn,(i=1Nfi)(j=1Nfj)T)\mathbf{l}_p = \left(\langle\mathbf{W}_p^1, (\sum_{i=1}^N \mathbf{f}_i)(\sum_{j=1}^N \mathbf{f}_j)^T\rangle, \langle\mathbf{W}_p^2, (\sum_{i=1}^N \mathbf{f}_i)(\sum_{j=1}^N \mathbf{f}_j)^T\rangle, \ldots, \langle\mathbf{W}_p^n, (\sum_{i=1}^N \mathbf{f}_i)(\sum_{j=1}^N \mathbf{f}_j)^T\rangle\right)

其中 对称矩阵WpnRM×M\mathbf{W}_p^n \in \mathbb{R}^{M \times M} 是第 nn 个神经元对应的权重矩阵,矩阵内积A,B=i=1Mj=1MAi,jBi,j\langle \mathbf{A}, \mathbf{B} \rangle = \sum_{i=1}^M \sum_{j=1}^M \mathbf{A}_{i,j} \mathbf{B}_{i,j}

在得到线性信号 lzl_z 和经过优化的二次信号 lpl_p 后,PNN 将它们合并,并送入后续的全连接层进行高阶非线性变换:

l1=ReLU(lz+lp+b1)l2=ReLU(W2l1+b2)y^=σ(W3l2+b3)\begin{aligned} \mathbf{l}_1 &= \text{ReLU}(\mathbf{l}_z + \mathbf{l}_p + \mathbf{b}_1) \\ \mathbf{l}_2 &= \text{ReLU}(\mathbf{W}_2 \mathbf{l}_1 + \mathbf{b}_2) \\ \hat{y} &= \sigma(\textbf{W}_3 \mathbf{l}_2 + b_3) \end{aligned}

PNN 的独特之处在于,它将“乘积”操作(无论是内积还是外积)作为了网络中的一个核心计算单元,认为这种操作比传统 DNN 中简单的“加法”操作更能有效地捕捉类别型特征之间的交互关系。

代码

  • PNN通过内积和外积两种方式计算特征交互。
  • 通过矩阵分解技巧,PNN将内积计算从 O(N2M)O(N^2M) 优化到 O(NM)O(NM),使得模型能够高效处理大规模特征交互。
    pnn.py 文件:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
import tensorflow as tf

from .utils import (
build_input_layer,
build_group_feature_embedding_table_dict,
concat_group_embedding,
add_tensor_func,
get_linear_logits,
)
from .layers import DNNs, PNN


def build_pnn_model(feature_columns, model_config):
"""
构建基于乘积的神经网络 (PNN) 排序模型。

Args:
feature_columns: FeatureColumn 列表
model_config: 包含参数的字典:
- dnn_units: 列表,DNN 隐藏层单元数 (默认 [64, 32])
- product_layer_units: 整数,乘积层输出单元数 (默认 8)
- use_inner: 布尔值,是否使用内积 (默认 True)
- use_outer: 布尔值,是否使用外积 (默认 True)
- use_bn: 布尔值,是否使用批量归一化 (默认 False)
- dropout_rate: 浮点数,dropout 率 (默认 0.0)
- linear_logits: 布尔值,是否添加线性项 (默认 True)

Returns:
(model, None, None): 排序模型元组
"""
dnn_units = model_config.get("dnn_units", [64, 32])
product_layer_units = model_config.get("product_layer_units", 8)
use_inner = model_config.get("use_inner", True)
use_outer = model_config.get("use_outer", True)
use_bn = model_config.get("use_bn", False)
dropout_rate = model_config.get("dropout_rate", 0.0)
linear_logits = model_config.get("linear_logits", True)

# 输入层
input_layer_dict = build_input_layer(feature_columns)

# 分组嵌入 B x N x D
group_embedding_feature_dict = build_group_feature_embedding_table_dict(
feature_columns, input_layer_dict, prefix="embedding/"
)

interaction_outputs = []
for (
group_feature_name,
group_feature_embedding,
) in group_embedding_feature_dict.items():
if group_feature_name.startswith("pnn"):
# PNN 期望嵌入张量列表
pnn_out = PNN(
units=product_layer_units, use_inner=use_inner, use_outer=use_outer
)(group_feature_embedding)
interaction_outputs.append(pnn_out)

if len(interaction_outputs) > 1:
interaction_outputs = tf.concat(interaction_outputs, axis=-1)
else:
interaction_outputs = interaction_outputs[0]

# 深度神经网络
dnn_out = DNNs(
units=dnn_units, activation="relu", use_bn=use_bn, dropout_rate=dropout_rate
)(interaction_outputs)

# PNN logits
pnn_logits = tf.keras.layers.Dense(1, activation=None)(dnn_out) # B x 1

if linear_logits:
linear_logit = get_linear_logits(input_layer_dict, feature_columns)
pnn_logits = add_tensor_func(
[pnn_logits, linear_logit], name="pnn_linear_logits"
)

# 遵循排序输出约定:展平并应用 sigmoid
pnn_logits = tf.keras.layers.Flatten()(pnn_logits)
output = tf.keras.layers.Dense(1, activation="sigmoid", name="pnn_output")(
pnn_logits
)
output = tf.keras.layers.Flatten()(output)

model = tf.keras.models.Model(
inputs=list(input_layer_dict.values()), outputs=output
)
return model, None, None

1.5 FiBiNET: 特征重要性与双线性交互

虽然 PNN 通过内积和外积丰富了特征交互的表达方式,但它仍然将所有特征视为同等重要。然而,在实际的推荐场景中,不同特征对于预测结果的贡献度显然是不同的。FiBiNET (Feature Importance and Bilinear feature Interaction Network) 模型认识到了这个问题,它在进行二阶特征交叉之前,先动态地学习每个特征的重要性权重,然后再通过双线性交互来捕捉更精细的特征关系。这种设计使得模型能够有选择性地进行特征交互,从而提升二阶特征交叉的质量。

FiBiNET架构图

FiBiNET 的创新主要体现在两个核心模块上:SENET 特征重要性学习机制双线性交互层

SENET 特征重要性学习

FiBiNET 引入了来自计算机视觉领域的 SENET (Squeeze-and-Excitation Network) 机制,用于动态学习每个特征的重要性权重。与传统方法对所有特征一视同仁不同,SENET 能够自适应地为不同特征分配不同的权重,让模型更加关注那些对预测任务更重要的特征。

SENET层结构详解

SENET 的工作流程包含三个关键步骤:

  1. Squeeze (挤压): 通过全局平均池化将每个特征的 kk 维嵌入向量 ei\mathbf{e}_i 压缩成一个标量统计量:

zi=Fsq(ei)=1kt=1kei(t)\mathbf{z}_i = F_{\text{sq}}(\mathbf{e}_i) = \frac{1}{k} \sum_{t=1}^k \mathbf{e}_i(t)

  1. Excitation (激励): 使用两个全连接层构成的瓶颈结构来学习特征间的相关性,并生成每个特征的重要性权重:

A=Fex(Z)=σ2(W2σ1(W1Z))\mathbf{A} = F_{\text{ex}}(\mathbf{Z}) = \sigma_2(\mathbf{W}_2 \sigma_1(\mathbf{W}_1 \mathbf{Z}))

其中 W1Rf×fr\mathbf{W}_1 \in \mathbb{R}^{f \times \frac{f}{r}}W2Rfr×f\mathbf{W}_2 \in \mathbb{R}^{\frac{f}{r} \times f} 是可学习的权重矩阵,rr 是缩减率超参数。

  1. Re-weight (重新加权): 将学习到的权重应用于原始嵌入向量:

V=FReWeight(A,E)=[a1e1,a2e2,,afef]\mathbf{V} = F_{\text{ReWeight}}(\mathbf{A}, \mathbf{E}) = [\mathbf{a}_1 \cdot \mathbf{e}_1, \mathbf{a}_2 \cdot \mathbf{e}_2, \ldots, \mathbf{a}_f \cdot \mathbf{e}_f]

双线性交互层

在获得原始嵌入 E\mathbf{E} 和经过 SENET 加权的嵌入 V\mathbf{V} 后,FiBiNET 设计了双线性交互层来更精细地建模特征间的二阶交互关系。与 FM 中简单的内积操作或 PNN 中的元素积操作相比,双线性交互引入了一个可学习的变换矩阵 WRk×k\mathbf{W} \in \mathbb{R}^{k \times k},使得模型能够学习更复杂的特征交互模式:

pij=viWvj\mathbf{p}_{ij} = \mathbf{v}_i \cdot \mathbf{W} \circ \mathbf{v}_j

其中 \circ 表示哈达玛积。这种双线性变换相比于简单的内积或元素积,能够捕捉到更加丰富和细致的特征交互信息。

FiBiNET 会同时对原始嵌入 E\mathbf{E} 和加权嵌入 V\mathbf{V} 进行双线性交互,然后将这两组交互结果、原始特征以及一个深度神经网络的输出结合起来,共同做出最终的预测。通过这种方式,FiBiNET 不仅解决了"哪些特征更重要"的问题,还通过双线性交互提升了二阶特征交叉的表达能力

代码

  • FiBiNET的实现包含两个关键部分:SENET特征重要性学习和双线性交互。
  • FiBiNET通过SENET动态调整特征重要性,通过双线性变换增强特征交互的表达能力,相比传统方法更加灵活和高效。
    fibinet.py 文件:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
import tensorflow as tf

from .utils import (
build_input_layer,
build_group_feature_embedding_table_dict,
concat_group_embedding,
add_tensor_func,
get_linear_logits,
)
from .layers import DNNs, SENetLayer, BilinearInteractionLayer


def build_fibinet_model(feature_columns, model_config):
"""
构建 FiBiNET(特征重要性和双线性特征交互网络)排序模型。

Args:
feature_columns: FeatureColumn 列表
model_config: 包含参数的字典:
- dnn_units: list,DNN 隐藏层单元数(默认 [64, 32])
- senet_reduction_ratio: int,SENet 压缩比例(默认 3)
- bilinear_type: str,双线性交互类型(默认 "interaction")
- use_bn: bool,是否使用批归一化(默认 False)
- dropout_rate: float,dropout 比例(默认 0.0)
- linear_logits: bool,是否添加线性项(默认 True)

Returns:
(model, None, None): 排序模型元组
"""
dnn_units = model_config.get("dnn_units", [64, 32])
senet_reduction_ratio = model_config.get("senet_reduction_ratio", 3)
bilinear_type = model_config.get("bilinear_type", "interaction")
use_bn = model_config.get("use_bn", False)
dropout_rate = model_config.get("dropout_rate", 0.0)
linear_logits = model_config.get("linear_logits", True)

# 输入层
input_layer_dict = build_input_layer(feature_columns)

# 分组嵌入 B x N x D
group_embedding_feature_dict = build_group_feature_embedding_table_dict(
feature_columns, input_layer_dict, prefix="embedding/"
)

interaction_outputs = []
for (
group_feature_name,
group_feature_embedding,
) in group_embedding_feature_dict.items():
if group_feature_name.startswith("fibinet"):
# 获取特征嵌入 B x N x D
group_feature = concat_group_embedding(
group_embedding_feature_dict, group_feature_name, axis=1, flatten=False
)

# SENet 特征增强
senet_enhanced_features = SENetLayer(reduction_ratio=senet_reduction_ratio)(
group_feature
)

# 原始特征的双线性交互
bilinear_interaction = BilinearInteractionLayer(
bilinear_type=bilinear_type
)(group_feature)

# SENet 增强特征的双线性交互
bilinear_senet_interaction = BilinearInteractionLayer(
bilinear_type=bilinear_type
)(senet_enhanced_features)

# 展平交互输出
bilinear_flat = tf.keras.layers.Flatten()(bilinear_interaction)
bilinear_senet_flat = tf.keras.layers.Flatten()(bilinear_senet_interaction)

# 连接所有展平的特征
interaction_outputs.extend([bilinear_flat, bilinear_senet_flat])

if len(interaction_outputs) > 1:
interaction_outputs = tf.concat(interaction_outputs, axis=-1)
else:
interaction_outputs = interaction_outputs[0]

# 深度神经网络
dnn_out = DNNs(
units=dnn_units, activation="relu", use_bn=use_bn, dropout_rate=dropout_rate
)(interaction_outputs)

# FiBiNET logits
fibinet_logits = tf.keras.layers.Dense(1, activation=None)(dnn_out) # B x 1

if linear_logits:
linear_logit = get_linear_logits(input_layer_dict, feature_columns)
fibinet_logits = add_tensor_func(
[fibinet_logits, linear_logit], name="fibinet_linear_logits"
)

# 遵循排序输出约定:展平并应用 sigmoid
fibinet_logits = tf.keras.layers.Flatten()(fibinet_logits)
output = tf.keras.layers.Dense(1, activation="sigmoid", name="fibinet_output")(
fibinet_logits
)
output = tf.keras.layers.Flatten()(output)

model = tf.keras.models.Model(
inputs=list(input_layer_dict.values()), outputs=output
)
return model, None, None

1.6 DeepFM: 低阶高阶的统一建模

原理

DeepFM 是对 Wide & Deep 架构的直接改进和优化。它将 Wide & Deep 中需要大量人工特征工程的 Wide 部分,直接替换为了一个无需任何人工干预的 FM 模型,从而实现了真正的端到端训练。更关键的是,DeepFM 中的 FM 组件和 Deep 组件共享同一份特征嵌入(Embedding),这带来了两大好处:首先,模型可以同时从原始特征中学习低阶和高阶的特征交互;其次,共享 Embedding 的方式使得模型训练更加高效。

DeepFM模型结构

DeepFM 的结构非常清晰,它由 FM 和 DNN 两个并行的组件构成,两者共享输入。

  • FM 组件: 负责学习一阶特征和二阶特征交叉。其输出 yFM 的计算方式与标准 FM 完全相同:

yFM=w,x+i=1dj=i+1dVi,Vjxixjy_{FM} = \langle w, x \rangle + \sum_{i=1}^d \sum_{j=i+1}^d \langle V_{i}, V_{j} \rangle x_{i}x_{j}

这里的 ViV_{i} 就是特征 ii 的 Embedding 向量。

  • Deep 组件: 负责学习高阶的非线性特征交叉。它的输入正是 FM 组件中所使用的那一套 Embedding 向量。具体来说,所有输入特征首先被映射到它们的低维 Embedding 向量上,然后这些 Embedding 向量被拼接(concatenate)在一起,形成一个长的向量,作为 DNN 的输入。

a(0)=[e1,e2,...,em]a^{(0)} = [e_1, e_2, ..., e_m]

其中 eie_i 是第 ii 个特征字段的 Embedding 向量。这个拼接后的向量随后被送入一个标准的前馈神经网络,前向传播公式为:

a(l+1)=σ(W(l)a(l)+b(l))a^{(l+1)} = \sigma(\textbf{W}^{(l)} a^{(l)} + \textbf{b}^{(l)})

其中 ll 是层深度,σ\sigma 是激活函数,W(l)\textbf{W}^{(l)}b(l)\textbf{b}^{(l)}分别是第 ll 层的权重和偏置。最后输出为:

yDeep=WH+1aH+bH+1y_{Deep} = \textbf{W}^{|H|+1} \cdot a^{|H|} + \textbf{b}^{|H|+1}

其中 HH 是隐藏层数量.

最终,DeepFM 的总输出是 FM 部分和 Deep 部分输出的简单相加,再通过一个 Sigmoid 函数得到最终的点击率预测值:

y^=σ(yFM+yDeep)\hat{y} = \sigma(y_{FM} + y_{Deep})

DeepFM模型成功地结合了FM的低阶特征学习能力和深度神经网络的高阶特征学习能力。通过FM组件和深度组件共享相同的特征嵌入,模型可以同时从原始特征中学习低阶和高阶特征交互,无需像Wide & Deep那样依赖专家的特征工程。这种设计使得DeepFM成为一个端到端的自动特征学习模型,在效果和效率上都表现出色。

代码

  • DeepFM的关键在于FM和DNN两个组件共享同一套Embedding,各自负责不同层次的特征交互。
  • DeepFM通过共享Embedding实现了端到端训练,FM组件捕捉低阶交叉,DNN组件学习高阶模式,两者互补形成高效的特征学习能力。
    deepfm.py 文件:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
import tensorflow as tf

from .utils import (
build_input_layer,
build_group_feature_embedding_table_dict,
concat_group_embedding,
add_tensor_func,
get_linear_logits,
)
from .layers import FM, DNNs


def build_deepfm_model(feature_columns, model_config):
"""
构建 DeepFM (深度分解机) 排序模型。

参数:
feature_columns: FeatureColumn 列表
model_config: 包含以下参数的字典:
- dnn_units: list, DNN 隐藏层单元数 (默认 [64, 32])
- dropout_rate: float, dropout 率 (默认 0.1)
- linear_logits: bool, 是否添加线性项 (默认 True)

返回:
(model, None, None): 排序模型元组
"""
dnn_units = model_config.get("dnn_units", [64, 32])
dropout_rate = model_config.get("dropout_rate", 0.1)
linear_logits = model_config.get("linear_logits", True)

# 输入
input_layer_dict = build_input_layer(feature_columns)

# 分组嵌入
group_embedding_feature_dict = build_group_feature_embedding_table_dict(
feature_columns, input_layer_dict, prefix="embedding/"
)

# 为每个组构建 FM 和 DNN 组件
fm_outputs = []
dnn_outputs = []

for (
group_feature_name,
group_feature_embedding,
) in group_embedding_feature_dict.items():
if group_feature_name.startswith("deepfm"):
# FM 组件: 期望 B x N x D 张量
concat_feature = concat_group_embedding(
group_embedding_feature_dict, group_feature_name, axis=1, flatten=False
) # B x N x D
fm_out = FM(name=f"fm_{group_feature_name}")(concat_feature)
fm_outputs.append(fm_out)

# DNN 组件: 展平嵌入作为 DNN 输入
flatten_feature = tf.keras.layers.Flatten()(concat_feature)
dnn_out = DNNs(
name=f"dnn_{group_feature_name}",
units=dnn_units + [1],
dropout_rate=dropout_rate,
)(flatten_feature)
dnn_outputs.append(dnn_out)

# 合并 FM 输出
if len(fm_outputs) > 1:
fm_logit = add_tensor_func(fm_outputs, name="fm_logits")
else:
fm_logit = fm_outputs[0]

# 合并 DNN 输出
if len(dnn_outputs) > 1:
dnn_logit = add_tensor_func(dnn_outputs, name="dnn_logits")
else:
dnn_logit = dnn_outputs[0]

# 如果需要,添加线性项
if linear_logits:
linear_logit = get_linear_logits(input_layer_dict, feature_columns)
fm_logit = add_tensor_func([fm_logit, linear_logit], name="fm_linear_logits")

# 合并 FM 和 DNN 输出
deepfm_logits = add_tensor_func([fm_logit, dnn_logit], name="deepfm_logits")

# 遵循排序输出约定: 展平并 sigmoid
deepfm_logits = tf.keras.layers.Flatten()(deepfm_logits)
output = tf.keras.layers.Dense(1, activation="sigmoid", name="deepfm_output")(
deepfm_logits
)
output = tf.keras.layers.Flatten()(output)

model = tf.keras.models.Model(
inputs=list(input_layer_dict.values()), outputs=output
)
return model, None, None

2、高阶特征交叉

  • 前面我们学了各种二阶特征交叉技术,这些模型能够明确地处理二阶交互,但对于更高阶的特征组合,它们主要靠深度神经网络来学习。深度网络虽然能学到高阶交互,但我们不知道它具体学到了什么,也不清楚这些交互是怎么影响预测的。所以研究者们想:能不能像 FM 处理二阶交叉那样,设计出能够明确捕捉高阶交叉的网络结构?

2.1 DCN: 残差连接的高阶交叉

原理

为了解决上述问题,Deep & Cross Network (DCN) 通过一个创新的Cross Network来替代Wide & Deep模型中的Wide部分。该网络的核心思想是在每一层都与原始的输入特征进行交叉,从而以一种显式且可控的方式,自动构建更高阶的特征交互,而无需繁琐的人工特征工程。

DCN模型结构

DCN的整体结构由并行的Cross Network和Deep Network两部分组成,它们共享相同的Embedding层输入。首先,模型将稀疏的类别特征转换为低维稠密的Embedding向量,并与数值型特征拼接在一起,形成统一的输入向量 x0\mathbf{x}_0

x0=[xembed,1T,,xembed,kT,xdenseT]\mathbf{x}_0 = [\mathbf{x}_{\text{embed}, 1}^T, \ldots, \mathbf{x}_{\text{embed}, k}^T, \mathbf{x}_{\text{dense}}^T]

这个初始向量 x0\mathbf{x}_0 会被同时送入Cross Network和Deep Network。

Cross Network是DCN的核心创新。它由多个交叉层堆叠而成,其精妙之处在于每一层的计算都保留了与原始输入 x0\mathbf{x}_0 的直接交互。第 l+1l+1 层的计算公式如下:

xl+1=x0xlTwl+bl+xl\mathbf{x}_{l+1} = \mathbf{x}_0 \mathbf{x}_l^T \mathbf{w}_l + \mathbf{b}_l + \mathbf{x}_l

其中xl,xl+1Rd\mathbf{x}_l, \mathbf{x}_{l+1} \in \mathbb{R}^d 分别是第 ll 层和第 l+1l+1 层的输出列向量,x0Rd\mathbf{x}_0 \in \mathbb{R}^d 是Cross Network的初始输入向量,wl,blRd\mathbf{w}_l, \mathbf{b}_l \in \mathbb{R}^d 分别是第 ll 层的权重和偏置列向量。

Cross Network

我们可以观察到,这个结构本质上是一个残差网络。每一层都在上一层输出 xl\mathbf{x}_l 的基础上,增加了一个交叉项 x0xlTwl\mathbf{x}_0 \mathbf{x}_l^T \mathbf{w}_l 和一个偏置项 bl\mathbf{b}_l。这个交叉项非常关键,它让原始输入 x0\mathbf{x}_0 与当前层的输入 xl\mathbf{x}_l 进行了显式的特征交叉。随着层数的加深,特征交叉的阶数也随之增加。例如,在第一层(l=0l=0),x1\mathbf{x}_1 包含了与 x0\mathbf{x}_0 相关的二阶交叉项;在第二层(l=1l=1),由于 x1\mathbf{x}_1 已经包含了二阶信息,它与 x0\mathbf{x}_0 的再次交叉就会产生三阶的交叉项。因此,Cross Network的深度决定了它能显式捕获的最高特征交叉阶数。这种设计使得参数量只随着输入维度呈线性增长,非常高效。

与Cross Network并行的Deep Network部分是一个标准的全连接神经网络,用于隐式地学习高阶非线性关系,其结构与我们熟悉的DeepFM中的DNN部分类似。最后,模型将Cross Network的输出 xL1\mathbf{x}_{L_1} 和Deep Network的输出 hL2\mathbf{h}_{L_2} 拼接起来,通过一个逻辑回归层得到最终的预测概率。

p=σ([xL1T,hL2T]wlogits)\mathbf{p} = \sigma([\mathbf{x}_{L_1}^T, \mathbf{h}_{L_2}^T] \mathbf{w}_{\text{logits}})

DCN通过Cross Network提供了一种有效且高效的显式高阶特征交叉方案,并结合DNN的隐式交叉能力,为推荐模型的设计提供了新的思路。

代码

  • DCN的核心在于Cross Network的交叉层计算。每一层都保持与原始输入 x0x_0 的交叉。
  • 这个设计的巧妙之处在于:通过残差连接保留了原始信息,通过与 x0x_0 的持续交叉实现了高阶特征组合,且参数量仅与输入维度线性相关。
    dcn.py 文件:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
import tensorflow as tf

from .utils import (
build_input_layer,
build_group_feature_embedding_table_dict,
concat_group_embedding,
add_tensor_func,
get_linear_logits,
)
from .layers import DNNs, DCN


def build_dcn_model(feature_columns, model_config):
"""
构建 DCN (深度交叉网络) 排序模型。

参数:
feature_columns: FeatureColumn 列表
model_config: 包含以下参数的字典:
- num_cross_layers: int, 交叉层数量 (默认 3)
- dnn_units: list, DNN 隐藏单元 (默认 [64, 32])
- dropout_rate: float, dropout 率 (默认 0.1)
- l2_reg: float, L2 正则化 (默认 1e-5)
- linear_logits: bool, 是否添加线性项 (默认 True)

返回:
(model, None, None): 排序模型元组
"""
num_cross_layers = model_config.get("num_cross_layers", 3)
dnn_units = model_config.get("dnn_units", [64, 32])
dropout_rate = model_config.get("dropout_rate", 0.1)
l2_reg = model_config.get("l2_reg", 1e-5)
linear_logits = model_config.get("linear_logits", True)

# 输入
input_layer_dict = build_input_layer(feature_columns)

# 分组嵌入
group_embedding_feature_dict = build_group_feature_embedding_table_dict(
feature_columns, input_layer_dict, prefix="embedding/"
)

# 为每个组构建交叉和深度组件
cross_outputs = []
deep_outputs = []

for (
group_feature_name,
group_feature_embedding,
) in group_embedding_feature_dict.items():
if group_feature_name.startswith("dcn"):
# 交叉组件: 连接嵌入作为 DCN 输入
concat_feature = concat_group_embedding(
group_embedding_feature_dict, group_feature_name, axis=-1, flatten=True
) # B x (N*D)
cross_out = DCN(num_cross_layers=num_cross_layers, l2_reg=l2_reg)(
concat_feature
)
cross_outputs.append(cross_out)

elif group_feature_name.startswith("dnn"):
# DNN 组件: 展平嵌入作为 DNN 输入
concat_feature = concat_group_embedding(
group_embedding_feature_dict, group_feature_name, axis=-1, flatten=True
) # B x (N*D)
dnn_out = DNNs(
units=dnn_units,
dropout_rate=dropout_rate,
activation="relu",
use_bn=False,
)(concat_feature)
deep_outputs.append(dnn_out)

# 合并交叉输出
if len(cross_outputs) > 1:
cross_logit = add_tensor_func(cross_outputs, name="cross_logits")
else:
cross_logit = cross_outputs[0] if cross_outputs else None

# 合并 DNN 输出
if len(deep_outputs) > 1:
deep_logit = add_tensor_func(deep_outputs, name="dnn_logits")
else:
deep_logit = deep_outputs[0] if deep_outputs else None

# 合并所有输出
dcn_outputs = []
if cross_logit is not None:
dcn_outputs.append(cross_logit)
if deep_logit is not None:
dcn_outputs.append(deep_logit)

if len(dcn_outputs) > 1:
dcn_logits = tf.keras.layers.Concatenate(name="dcn_concat")(dcn_outputs)
else:
dcn_logits = dcn_outputs[0]

# 如果需要,添加线性项
if linear_logits:
linear_logit = get_linear_logits(input_layer_dict, feature_columns)
dcn_logits = tf.keras.layers.Dense(1, name="dcn_dense")(dcn_logits)
dcn_logits = add_tensor_func(
[dcn_logits, linear_logit], name="dcn_linear_logits"
)
else:
dcn_logits = tf.keras.layers.Dense(1, name="dcn_dense")(dcn_logits)

# 遵循排序输出约定: 展平并 sigmoid
dcn_logits = tf.keras.layers.Flatten()(dcn_logits)
output = tf.keras.layers.Dense(1, activation="sigmoid", name="dcn_output")(
dcn_logits
)
output = tf.keras.layers.Flatten()(output)

model = tf.keras.models.Model(
inputs=list(input_layer_dict.values()), outputs=output
)
return model, None, None

2.2 xDeepFM: 向量级别的特征交互

原理

尽管DCN能够显式地构建高阶特征,但它的交叉方式是在 元素级别(bit-wise) 上进行的。这意味着Embedding向量中的每一个元素都会独立地与其他特征的Embedding元素进行交互,这在一定程度上忽略了Embedding向量作为一个整体所代表的特征场的概念。为了解决这个问题,xDeepFM模型被提了出来,其核心是设计了一个全新的压缩交互网络(Compressed Interaction Network, CIN) ,以 向量级别(vector-wise) 的方式进行特征交互,这更符合我们进行特征工程时的直觉。

xDeepFM的整体架构同样由三部分组成:一个传统的线性部分、一个用于隐式高阶交叉的DNN,以及创新的CIN网络用于显式高阶交叉。这三部分的输出最终被结合起来进行预测。

xdDeepFM模型架构

CIN的设计目标是实现向量级别的显式高阶交互,同时控制网络复杂度。它的输入是一个m×Dm \times D的矩阵 X0\mathbf{X}_0,其中 mm 是特征域(Field)的数量,DD 是Embedding的维度,矩阵的第 ii 行就是第 ii 个特征域的Embedding向量 ei\mathbf{e}_i

CIN的计算过程在每一层都分为两步。在计算第 kk 层的输出 Xk\mathbf{X}_k 时,它依赖于上一层的输出 Xk1\mathbf{X}_{k-1} 和最原始的输入 X0\mathbf{X}_0

第一步,模型计算出上一层输出的 Hk1H_{k-1} 个向量与原始输入层的 mm 个向量之间的所有成对交互,生成一个中间结果。具体来说,是通过哈达玛积(Hadamard product)\circ 来实现的。这个操作会产生 Hk1×mH_{k-1} \times m 个交互向量,每个向量的维度仍然是 DD

第二步,为了生成第 kk 层的第 hh 个新特征向量 Xh,k\mathbf{X}_{h,*}^k,模型对上一步产生的所有交互向量进行加权求和。这个过程可以看作是对所有潜在的交叉特征进行一次“压缩”或“提炼”。

综合起来,其核心计算公式如下:

Xh,k=i=1Hk1j=1mWi,jk,h(Xi,k1Xj,0)\mathbf{X}_{h,*}^k = \sum_{i=1}^{H_{k-1}} \sum_{j=1}^{m} \mathbf{W}_{i,j}^{k,h} (\mathbf{X}_{i,*}^{k-1} \circ \mathbf{X}_{j,*}^0)

其中:

  • XkRHk×D\mathbf{X}_k \in \mathbb{R}^{H_k \times D} 是CIN第 kk 层的输出,可以看作是一个包含了 HkH_k 个特征向量的集合,称为“特征图”。HkH_k 是第 kk 层特征图的数量。

  • Xi,k1\mathbf{X}_{i,*}^{k-1} 是第 k1k-1 层输出的第 iiDD 维向量。

  • Xj,0\mathbf{X}_{j,*}^0 是原始输入矩阵的第 jjDD 维向量(即第 jj 个特征域的Embedding)。

  • \circ 是哈达玛积,它实现了向量级别的交互,保留了 DD 维的向量结构。

  • Wk,hRHk1×m\mathbf{W}_{k,h} \in \mathbb{R}^{H_{k-1} \times m} 是一个参数矩阵。它为每一个由 (Xi,k1,Xj,0)(\mathbf{X}_{i,*}^{k-1}, \mathbf{X}_{j,*}^0) 产生的交互向量都提供了一个权重,通过加权求和的方式,将 Hk1×mH_{k-1} \times m 个交互向量的信息“压缩”成一个全新的 DD 维向量 Xh,k\mathbf{X}_{h,*}^k

这个过程清晰地展示了特征交互是如何在向量级别上逐层发生的。第 kk 层的输出 Xk\mathbf{X}_k 包含了所有 k+1k+1 阶的特征交互信息。

在计算出每一层(从第11层到第TT层)的特征图 Xk\mathbf{X}_k 后,CIN会对每个特征图 Xk\mathbf{X}_k 的所有向量(HkH_k个)在维度 DD 上进行求和池化(Sum Pooling),得到一个池化后的向量 pkRHk\mathbf{p}_k \in \mathbb{R}^{H_k}。最后,将所有层的池化向量拼接起来,形成CIN部分的最终输出。

p+=[p1,p2,,pT]\mathbf{p}^+ = [\mathbf{p}_1, \mathbf{p}_2, \ldots, \mathbf{p}_T]

这个输出 p+\mathbf{p}^+ 捕获了从二阶到 T+1T+1 阶的所有显式、向量级别的交叉特征信息。最终,xDeepFM将线性部分、DNN部分和CIN部分的输出结合起来,通过一个Sigmoid函数得到最终的预测结果。

y^=σ(wlinearTa+wdnnTxdnnk+wcinTp++b)\hat{y} = \sigma(\mathbf{w}_{\text{linear}}^T \mathbf{a} + \mathbf{w}_{\text{dnn}}^T \mathbf{x}_{\text{dnn}}^k + \mathbf{w}_{\text{cin}}^T \mathbf{p}^+ + \mathbf{b})

其中a\mathbf{a} 表示原始特征,xdnnk\mathbf{x}_{\text{dnn}}^k 表示DNN的输出,b\mathbf{b} 是可学习参数。

通过引入CIN,xDeepFM成功地将显性的、向量级别的特征交互与隐性的、元素级别的特征交互结合在同一个模型中,为自动学习高阶特征交互提供了又一个强大且更具解释性的解决方案。

代码

  • CIN的核心在于向量级别的特征交互计算。每一层都通过哈达玛积实现上一层输出与原始输入的交叉。
  • CIN通过保持向量结构的交互方式,既实现了显式的高阶特征组合,又避免了参数量的过快增长。
    xdeepfm.py 文件:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
import tensorflow as tf

from .utils import (
build_input_layer,
build_group_feature_embedding_table_dict,
concat_group_embedding,
add_tensor_func,
get_linear_logits,
)
from .layers import DNNs, CINs


def build_xdeepfm_model(feature_columns, model_config):
"""
构建 xDeepFM (极端深度因子分解机) 排序模型。

Args:
feature_columns: FeatureColumn 列表
model_config: 包含参数的字典:
- dnn_units: 列表,DNN 隐藏层单元数 (默认 [64, 32])
- dnn_dropout_rate: 浮点数,DNN 的 dropout 率 (默认 0.1)
- cin_layer_sizes: 列表,CIN 层大小 (默认 [32, 16])
- l2_reg: 浮点数,L2 正则化 (默认 1e-5)
- linear_logits: 布尔值,是否添加线性项 (默认 True)

Returns:
(model, None, None): 排序模型元组
"""
dnn_units = model_config.get("dnn_units", [64, 32])
dnn_dropout_rate = model_config.get("dnn_dropout_rate", 0.1)
cin_layer_sizes = model_config.get("cin_layer_sizes", [32, 16])
l2_reg = model_config.get("l2_reg", 1e-5)
linear_logits = model_config.get("linear_logits", True)
# 输入层
input_layer_dict = build_input_layer(feature_columns)

# 分组嵌入
group_embedding_feature_dict = build_group_feature_embedding_table_dict(
feature_columns, input_layer_dict, prefix="embedding/"
)

# 为每个组构建 DNN 和 CIN 组件
dnn_logits = []
cin_logits = []

for (
group_feature_name,
group_feature_embedding,
) in group_embedding_feature_dict.items():
if group_feature_name.startswith("xdeepfm"):
# 为 xDeepFM 输入拼接嵌入: B x N x D
concat_feature = concat_group_embedding(
group_embedding_feature_dict, group_feature_name, axis=1, flatten=False
) # B x N x D

# DNN 组件: 为 DNN 输入展平嵌入
flatten_feature = tf.keras.layers.Flatten()(concat_feature) # B x (N*D)
dnn_out = DNNs(
units=dnn_units,
dropout_rate=dnn_dropout_rate,
activation="relu",
use_bn=False,
)(flatten_feature)
dnn_logit = tf.keras.layers.Dense(
1, activation=None, name=f"dnn_{group_feature_name}"
)(dnn_out)
dnn_logits.append(dnn_logit)

# CIN 组件: 使用 B x N x D 格式
cin_out = CINs(cin_layer_sizes, l2_reg=l2_reg)(concat_feature)
cin_logit = tf.keras.layers.Dense(
1, activation=None, name=f"cin_{group_feature_name}"
)(cin_out)
cin_logits.append(cin_logit)

# 合并 DNN 输出
if len(dnn_logits) > 1:
dnn_combined = add_tensor_func(dnn_logits, name="dnn_logits")
else:
dnn_combined = dnn_logits[0] if dnn_logits else None

# 合并 CIN 输出
if len(cin_logits) > 1:
cin_combined = add_tensor_func(cin_logits, name="cin_logits")
else:
cin_combined = cin_logits[0] if cin_logits else None

# 合并所有输出
xdeepfm_outputs = []
if dnn_combined is not None:
xdeepfm_outputs.append(dnn_combined)
if cin_combined is not None:
xdeepfm_outputs.append(cin_combined)

# 如果需要,添加线性项
if linear_logits:
linear_logit = get_linear_logits(input_layer_dict, feature_columns)
xdeepfm_outputs.append(linear_logit)

if len(xdeepfm_outputs) > 1:
xdeepfm_logits = add_tensor_func(xdeepfm_outputs, name="xdeepfm_logits")
else:
xdeepfm_logits = xdeepfm_outputs[0]

# 遵循排序输出约定:展平并应用 sigmoid
xdeepfm_logits = tf.keras.layers.Flatten()(xdeepfm_logits)
output = tf.keras.layers.Dense(1, activation="sigmoid", name="xdeepfm_output")(
xdeepfm_logits
)
output = tf.keras.layers.Flatten()(output)

model = tf.keras.models.Model(
inputs=list(input_layer_dict.values()), outputs=output
)
return model, None, None

2.3 AutoInt: 自注意力的自适应交互

DCN通过残差连接实现了元素级别的高阶交互,xDeepFM通过CIN网络实现了向量级别的高阶交互,但这两种方法都有一个共同的局限性:它们对高阶特征交互的构建方式是相对固定的。DCN的每一层都必须与原始输入进行交叉,而xDeepFM的CIN网络则按照预定义的方式进行向量交互。那么,能否设计一种更加灵活、智能的高阶特征交互机制,让模型自主地决定哪些特征应该参与交互,以及交互的强度如何?

AutoInt (Automatic Feature Interaction) 模型回答了这个问题。它借鉴了自然语言处理领域中 Transformer 架构的核心思想,通过多头自注意力机制来自动、自适应地学习任意阶数的特征交互。与前面介绍的方法不同,AutoInt 不依赖于固定的交互模式,而是让模型在训练过程中学习出最有效的特征交互组合。

AutoInt模型原理示意图

AutoInt 的整体架构相对简洁,它将所有输入特征(无论是类别型还是数值型)都转换为相同维度的嵌入向量 emRd\mathbf{e}_m \in \mathbb{R}^d,其中 mm 代表第 mm 个特征域。这些嵌入向量构成了自注意力网络的输入,类似于 Transformer 中的 token embeddings。

多头自注意力机制

AutoInt 的核心是其交互层,该层由多头自注意力机制构成。对于任意两个特征的嵌入向量 em\mathbf{e}_mek\mathbf{e}_k,自注意力机制会计算它们之间的相关性得分。这个过程在每个"注意力头" (head) hh 中独立进行。具体来说,对于特征 mm 和特征 kk,它们在第 hh 个注意力头中的相关性得分 αm,k(h)\alpha_{m,k}^{(h)} 计算如下:

αm,k(h)=exp(ψ(h)(em,ek))l=1Mexp(ψ(h)(em,el))\alpha_{m,k}^{(h)} = \frac{\exp(\psi^{(h)}(\mathbf{e}_m, \mathbf{e}_k))}{\sum_{l=1}^{M}\exp(\psi^{(h)}(\mathbf{e}_m, \mathbf{e}_l))}

这里的 MM 是特征域的总数,而 ψ(h)(em,ek)\psi^{(h)}(\mathbf{e}_m, \mathbf{e}_k) 是一个用于衡量两个嵌入向量相似度的函数,通常是缩放点积注意力:

ψ(h)(em,ek)=WQuery (h)em,WKey (h)ek\psi^{(h)}\left(\mathbf{e}_{\mathbf{m}}, \mathbf{e}_{\mathbf{k}}\right)=\left\langle\mathbf{W}_{\text {Query }}^{(h)} \mathbf{e}_{\mathbf{m}}, \mathbf{W}_{\text {Key }}^{(h)} \mathbf{e}_{\mathbf{k}}\right\rangle

其中 WQuery(h)Rd×d\mathbf{W}_{\text{Query}}^{(h)} \in \mathbb{R}^{d' \times d}WKey(h)Rd×d\mathbf{W}_{\text{Key}}^{(h)} \in \mathbb{R}^{d' \times d} 是可学习的投影矩阵,它们分别将原始嵌入向量映射到"查询"(Query)和"键"(Key)空间。dd' 是投影后的维度。

在计算出所有特征对之间的相关性得分后,模型会利用这些得分来对所有特征的"值"(Value)向量进行加权求和,从而为特征 em\mathbf{e}_m 生成一个新的、融合了其他特征信息的表示 e~m(h)\mathbf{\tilde{e}}_m^{(h)}

e~m(h)=k=1Mαm,k(h)(WValue(h)ek)\mathbf{\tilde{e}}_m^{(h)} = \sum_{k=1}^{M} \alpha_{m,k}^{(h)} (\mathbf{W}_{\text{Value}}^{(h)} \mathbf{e}_k)

其中 WValue(h)Rd×d\mathbf{W}_{\text{Value}}^{(h)} \in \mathbb{R}^{d' \times d} 同样是一个可学习的投影矩阵。这个新的表示 e~m(h)\mathbf{\tilde{e}}_m^{(h)} 本质上就是一个通过自适应学习得到的新组合特征。

自注意力机制示意图

多层交互与高阶特征学习

"多头"机制允许模型在不同的子空间中并行地学习不同方面的特征交互。模型将所有 HH 个头的输出拼接起来,形成一个更丰富的特征表示:

e~m=e~m(1)e~m(2)e~m(H)\mathbf{\tilde{e}}_m = \mathbf{\tilde{e}}_m^{(1)} \oplus \mathbf{\tilde{e}}_m^{(2)} \oplus \cdots \oplus \mathbf{\tilde{e}}_m^{(H)}

其中 \oplus 表示拼接操作。为了保留原始信息并稳定训练过程,AutoInt 还引入了残差连接(Residual Connection),将新生成的交互特征与原始特征相结合:

emRes=ReLU(em+WRese~m)\mathbf{e}_m^{\text{Res}}= \text{ReLU}(\mathbf{e}_m + \mathbf{W}_{\text{Res}} \mathbf{\tilde{e}}_m)

其中 WRes\mathbf{W}_{\text{Res}} 是一个用于匹配维度的投影矩阵。

AutoInt 的关键创新在于其高阶特征交互的构建方式。通过堆叠多个这样的交互层,AutoInt 能够显式地构建任意高阶的特征交互。第一层的输出包含了二阶交互信息,第二层的输出则包含了三阶交互信息,以此类推。每一层的输出都代表了更高一阶的、自适应学习到的特征组合。与 DCN 和 xDeepFM 不同,AutoInt 中的高阶交互不是通过固定的数学公式构建的,而是通过注意力权重动态决定的,这使得模型能够学习到更加灵活和有效的特征交互模式。

最终,所有层输出的特征表示被拼接在一起,送入一个简单的逻辑回归层进行最终的点击率预测:

y^=σ(wT(e1Rese2ReseMRes)+b)\hat{y}=\sigma\left(\mathbf{w}^{\mathrm{T}}\left(\mathbf{e}_{1}^{\mathbf{Res}} \oplus \mathbf{e}_{2}^{\mathbf{Res}} \oplus \cdots \oplus \mathbf{e}_{\mathbf{M}}^{\text {Res}}\right)+b\right)

AutoInt 的一个巨大优势是其可解释性,通过可视化注意力权重矩阵 α(h)\alpha^{(h)},我们可以直观地看到模型认为哪些特征组合是最重要的。这种基于自注意力机制的高阶特征交互不仅提升了模型的表达能力,还为高阶特征交互的学习提供了一个全新的、更加灵活的范式。

代码

  • AutoInt的核心在于多头自注意力机制,它能够自适应地学习特征之间的交互关系。
  • 通过堆叠多层这样的自注意力层,AutoInt能够显式地构建任意高阶的特征交互,且交互模式完全由数据驱动学习得到。
    autoint.py 文件:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
import tensorflow as tf

from .utils import (
build_input_layer,
build_group_feature_embedding_table_dict,
concat_group_embedding,
add_tensor_func,
get_linear_logits,
)
from .layers import MultiHeadAttentionLayer


def build_autoint_model(feature_columns, model_config):
"""
构建 AutoInt (自动特征交互学习) 排序模型。

参数:
feature_columns: FeatureColumn 列表
model_config: 包含以下参数的字典:
- num_interaction_layers: int, 注意力层数量 (默认 2)
- attention_factor: int, 注意力维度 (默认 8)
- num_heads: int, 注意力头数量 (默认 2)
- use_residual: bool, 是否使用残差连接 (默认 True)
- linear_logits: bool, 是否添加线性项 (默认 True)

返回:
(model, None, None): 排序模型元组
"""
num_interaction_layers = model_config.get("num_interaction_layers", 2)
attention_factor = model_config.get("attention_factor", 8)
num_heads = model_config.get("num_heads", 2)
use_residual = model_config.get("use_residual", True)
linear_logits = model_config.get("linear_logits", True)

# 输入
input_layer_dict = build_input_layer(feature_columns)

# 分组嵌入
group_embedding_feature_dict = build_group_feature_embedding_table_dict(
feature_columns, input_layer_dict, prefix="embedding/"
)

# 为每个组构建 AutoInt 组件
autoint_outputs = []

for (
group_feature_name,
group_feature_embedding,
) in group_embedding_feature_dict.items():
if group_feature_name.startswith("autoint"):
# 获取 B x N x D 格式的组特征
group_feature = concat_group_embedding(
group_embedding_feature_dict, group_feature_name, axis=1, flatten=False
) # B x N x D

# 应用多个自注意力层
attention_output = group_feature
for _ in range(num_interaction_layers):
attention_layer = MultiHeadAttentionLayer(
attention_dim=attention_factor,
num_heads=num_heads,
use_residual=use_residual,
)
attention_output = attention_layer(attention_output)

# 展平注意力输出: B x N x (D * H) -> B x (N * D * H)
flattened_attention = tf.keras.layers.Flatten()(attention_output)

# 该组的全连接层
group_output = tf.keras.layers.Dense(
1, name=f"autoint_dense_{group_feature_name}"
)(flattened_attention)
autoint_outputs.append(group_output)

# 合并 AutoInt 输出
if len(autoint_outputs) > 1:
autoint_logits = add_tensor_func(autoint_outputs, name="autoint_logits")
elif len(autoint_outputs) == 1:
autoint_logits = autoint_outputs[0]
else:
# 如果没有 AutoInt 组,创建零张量
batch_size = tf.shape(list(input_layer_dict.values())[0])[0]
autoint_logits = tf.zeros([batch_size, 1])

# 如果需要,添加线性项
if linear_logits:
linear_logit = get_linear_logits(input_layer_dict, feature_columns)
final_logits = add_tensor_func(
[autoint_logits, linear_logit], name="autoint_linear_logits"
)
else:
final_logits = autoint_logits

# 遵循排序输出约定: 展平并 sigmoid
final_logits = tf.keras.layers.Flatten()(final_logits)
output = tf.keras.layers.Dense(1, activation="sigmoid", name="autoint_output")(
final_logits
)
output = tf.keras.layers.Flatten()(output)

model = tf.keras.models.Model(
inputs=list(input_layer_dict.values()), outputs=output
)
return model, None, None

性能对比

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
二阶特征交叉
+---------+--------+--------+------------+
| 模型 | auc | gauc | val_user |
+=========+========+========+============+
| fm | 0.5955 | 0.57 | 928 |
+---------+--------+--------+------------+
| afm | 0.5839 | 0.5668 | 928 |
+---------+--------+--------+------------+
| nfm | 0.5801 | 0.559 | 928 |
+---------+--------+--------+------------+
| pnn | 0.5884 | 0.5735 | 928 |
+---------+--------+--------+------------+
| fibinet | 0.5937 | 0.5725 | 928 |
+---------+--------+--------+------------+
| deepfm | 0.6062 | 0.5747 | 928 |
+---------+--------+--------+------------+

高阶特征交叉
+---------+--------+--------+------------+
| 模型 | auc | gauc | val_user |
+=========+========+========+============+
| dcn | 0.605 | 0.5757 | 928 |
+---------+--------+--------+------------+
| xdeepfm | 0.6001 | 0.572 | 928 |
+---------+--------+--------+------------+
| autoint | 0.6028 | 0.5728 | 928 |
+---------+--------+--------+------------+