电影特征提取网络
电影特征网络主要包括:
- 将电影ID数据映射为向量表示,通过全连接层得到ID特征。
- 将电影类别数据映射为向量表示,对电影类别的向量求和得到类别特征。
- 将电影名称数据映射为向量表示,通过卷积层计算得到名称特征。
与计算用户ID特征的方式类似,我们通过如下方式实现电影ID特性提取。根据上一节信息得知电影ID的最大值是3952。
- 输入的电影ID是: [1 2]
- 计算的电影ID的特征是 [[0.00380746 0. 0.00747952 0. 0.01460832 0.
- 0. 0.02644686 0.00881469 0.02714742 0. 0.
- 0. 0.00490084 0. 0.011464 0. 0.02438358
- 0. 0.05181156 0.00271468 0.02482769 0.00856254 0.
- 0. 0. 0. 0.00127167 0. 0.
- 0.01114944 0.00792265]
- [0.02830652 0. 0. 0.00845328 0.01861141 0.
- 0.05202583 0. 0.00567936 0.00591309 0.01148433 0.
- 0. 0.01830137 0.02531591 0.00357616 0. 0.
- 0.02856203 0. 0.01485681 0. 0.03657161 0.00311763
- 0.02794975 0.01535434 0. 0.01469669 0. 0.01319524
- 0.00011042 0. ]]
- 其形状是: [2, 32]
- 电影ID为 1 计算得到的特征是:[0.00380746 0. 0.00747952 0. 0.01460832 0.
- 0. 0.02644686 0.00881469 0.02714742 0. 0.
- 0. 0.00490084 0. 0.011464 0. 0.02438358
- 0. 0.05181156 0.00271468 0.02482769 0.00856254 0.
- 0. 0. 0. 0.00127167 0. 0.
- 0.01114944 0.00792265]
- 电影ID为 2 计算得到的特征是:[0.02830652 0. 0. 0.00845328 0.01861141 0.
- 0.05202583 0. 0.00567936 0.00591309 0.01148433 0.
- 0. 0.01830137 0.02531591 0.00357616 0. 0.
- 0.02856203 0. 0.01485681 0. 0.03657161 0.00311763
- 0.02794975 0.01535434 0. 0.01469669 0. 0.01319524
- 0.00011042 0. ]
与电影ID数据不同的是,每个电影有多个类别,提取类别特征时,如果对每个类别数据都使用一个全连接层,电影最多的类别数是6,会导致类别特征提取网络参数过多而不利于学习。我们对于电影类别特征提取的处理方式是:
- 通过Embedding网络层将电影类别数字映射为特征向量;
- 对Embedding后的向量沿着类别数量维度进行求和,得到一个类别映射向量;
- 通过一个全连接层计算类别特征向量。
数据处理章节已经介绍到,每个电影的类别数量是不固定的,且一个电影最大的类别数量是6,类别数量不足6的通过补0到6维。因此,每个类别的数据维度是6,每个电影类别有6个Embedding向量。我们希望用一个向量就可以表示电影类别,可以对电影类别数量维度降维, 这里对6个Embedding向量通过求和的方式降维,得到电影类别的向量表示。
mov_cat_data = np.array(((1, 2, 3, 0, 0, 0), (2, 3, 4, 0, 0, 0))).reshape(2, -1).astype('int64')
with dygraph.guard():
# 对电影ID信息做映射,并紧接着一个Linear层
MOV_DICT_SIZE = 6 + 1
mov_emb = Embedding([MOV_DICT_SIZE, 32])
mov_fc = Linear(32, 32)
print("输入的电影类别是:", mov_cat_data[:, :])
mov_cat_data = dygraph.to_variable(mov_cat_data)
# 1. 通过Embedding映射电影类别数据;
mov_cat_feat = mov_emb(mov_cat_data)
# 2. 对Embedding后的向量沿着类别数量维度进行求和,得到一个类别映射向量;
mov_cat_feat = fluid.layers.reduce_sum(mov_cat_feat, dim=1, keep_dim=False)
# 3. 通过一个全连接层计算类别特征向量。
mov_cat_feat = mov_fc(mov_cat_feat)
mov_cat_feat = fluid.layers.relu(mov_cat_feat)
print("计算的电影类别的特征是", mov_cat_feat.numpy(), "\n其形状是:", mov_cat_feat.shape)
print("\n电影类别为 {} 计算得到的特征是:{}".format(mov_cat_data.numpy()[0, :], mov_cat_feat.numpy()[0]))
print("\n电影类别为 {} 计算得到的特征是:{}".format(mov_cat_data.numpy()[1, :], mov_cat_feat.numpy()[1]))
因为待合并的6个向量具有相同的维度,所以直接按位相加即可得到综合的向量表示。当然,我们也可以采用向量级联的方式,将6个32维的向量级联成192维的向量,再通过全连接层压缩成32维度,代码实现上要臃肿一些。
与电影类别数据一样,每个电影名称具有多个单词。 我们对于电影名称特征提取的处理方式是:
- 通过Embedding映射电影名称数据,得到对应的特征向量;
- 对Embedding后的向量使用卷积层+全连接层进一步提取特征;
- 对特征进行降采样,降低数据维度;
提取电影名称特征时,使用了卷积层加全连接层的方式提取特征。这是因为电影名称单词较多,电影名称的最大单词数量是15,如果采用和电影类别同样的处理方式,即沿着数量维度求和,显然会损失很多信息,考虑到15这个维度较高,可以使用卷积层进一步提取特征,同时通过控制卷积层的步长,降低电影名称特征的维度。
只是简单的经过一两层卷积全连接层后,特征的维度依然很大,为了得到更低维度的特征向量,有两种方式,一种是利用求和降采样的方式,另一种是继续使用神经网络层进行特征提取并逐渐降低特征维度。这里,我们采用“简单求和”的降采样方式,来降低电影名称特征的维度,通过飞桨的 API实现。
下面是提取电影名称特征的代码实现:
# 自定义两个电影名称数据
mov_title_data = np.array(((1, 2, 3, 4, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0),
(2, 3, 4, 5, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0))).reshape(2, 1, 15).astype('int64')
with dygraph.guard():
# 对电影名称做映射,紧接着FC和pool层
MOV_TITLE_DICT_SIZE = 1000 + 1
mov_title_emb = Embedding([MOV_TITLE_DICT_SIZE, 32], is_sparse=False)
mov_title_conv = Conv2D(1, 1, filter_size=(3, 1), stride=(2, 1), padding=0, act='relu')
# 使用 3 * 3卷积层代替全连接层
mov_title_conv2 = Conv2D(1, 1, filter_size=(3, 1), stride=1, padding=0, act='relu')
print("电影名称数据的输入形状: ", mov_title_data.shape)
# 1. 通过Embedding映射电影名称数据;
mov_title_feat = mov_title_emb(mov_title_data)
print("输入通过Embedding层的输出形状: ", mov_title_feat.shape)
# 2. 对Embedding后的向量使用卷积层进一步提取特征;
mov_title_feat = mov_title_conv(mov_title_feat)
print("第一次卷积之后的特征输出形状: ", mov_title_feat.shape)
mov_title_feat = mov_title_conv2(mov_title_feat)
print("第二次卷积之后的特征输出形状: ", mov_title_feat.shape)
batch_size = mov_title_data.shape[0]
mov_title_feat = fluid.layers.reduce_sum(mov_title_feat, dim=2, keep_dim=False)
print("reduce_sum降采样后的特征输出形状: ", mov_title_feat.shape)
mov_title_feat = fluid.layers.relu(mov_title_feat)
mov_title_feat = fluid.layers.reshape(mov_title_feat, [batch_size, -1])
print("电影名称特征的最终特征输出形状:", mov_title_feat.shape)
print("\n计算的电影名称的特征是", mov_title_feat.numpy(), "\n其形状是:", mov_title_feat.shape)
print("\n电影名称为 {} 计算得到的特征是:{}".format(mov_title_data.numpy()[0,:, 0], mov_title_feat.numpy()[0]))
print("\n电影名称为 {} 计算得到的特征是:{}".format(mov_title_data.numpy()[1,:, 0], mov_title_feat.numpy()[1]))
- 电影名称数据的输入形状: [2, 1, 15]
- 输入通过Embedding层的输出形状: [2, 1, 15, 32]
- 第一次卷积之后的特征输出形状: [2, 1, 7, 32]
- 第二次卷积之后的特征输出形状: [2, 1, 5, 32]
- reduce_sum降采样后的特征输出形状: [2, 1, 32]
- 电影名称特征的最终特征输出形状: [2, 32]
- 计算的电影名称的特征是 [[0.0320248 0.03832126 0. 0. 0. 0.
- 0. 0.01488265 0. 0. 0. 0.
- 0. 0.03727353 0.02013248 0. 0. 0.01441978
- 0.00365456 0. 0.00116357 0.00783006 0. 0.
- 0. 0. 0. 0. 0. 0.0047379
- 0.02190487 0. ]
- [0.02940748 0.03069749 0. 0. 0. 0.
- 0. 0.01248995 0. 0.0015157 0. 0.
- 0. 0.05366978 0. 0. 0. 0.0243385
- 0. 0. 0.00031154 0.00477934 0. 0.
- 0. 0. 0. 0. 0. 0.
- 0.00916854 0. ]]
- 其形状是: [2, 32]
- 电影名称为 [1] 计算得到的特征是:[0.0320248 0.03832126 0. 0. 0. 0.
- 0. 0.01488265 0. 0. 0. 0.
- 0. 0.03727353 0.02013248 0. 0. 0.01441978
- 0.00365456 0. 0.00116357 0.00783006 0. 0.
- 0. 0. 0. 0. 0. 0.0047379
- 0.02190487 0. ]
- 电影名称为 [2] 计算得到的特征是:[0.02940748 0.03069749 0. 0. 0. 0.
- 0. 0.01248995 0. 0.0015157 0. 0.
- 0. 0.05366978 0. 0. 0. 0.0243385
- 0. 0. 0.00031154 0.00477934 0. 0.
- 0. 0. 0. 0. 0. 0.
- 0.00916854 0. ]
上述代码中,通过Embedding层已经获得了维度是[batch, 1, 15, 32]电影名称特征向量,因此,该特征可以视为是通道数量为1的特征图,很适合使用卷积层进一步提取特征。这里我们使用两个3 x 1大小的卷积核的卷积层提取特征,输出通道保持不变,仍然是1。特征维度中15是电影名称数量的维度,使用3 x 1的卷积核,由于卷积感受野的原因,进行卷积时会综合多个名称的特征,同时设置卷积的步长参数stride为(2, 1),即可对名称数量维度降维,且保持每个名称的向量长度不变,防止过度压缩每个名称特征的信息。
需要注意的是,降采样后的数据尺寸依然比下一层要求的输入向量多出一维 [2, 1, 32],所以最终输出前需调整下形状。
与用户特征融合方式相同,电影特征融合采用特征级联加全连接层的方式,将电影特征用一个200维的向量表示。
- 用户融合后特征的维度是: [2, 200]
至此已经完成了电影特征提取的网络设计,包括电影ID特征提取、电影类别特征提取、电影名称特征提取。
下面将这些模块整合到一个Python类中,完整代码如下:
class MovModel(dygraph.layers.Layer):
def __init__(self, use_poster, use_mov_title, use_mov_cat, use_age_job):
super(MovModel, self).__init__()
# 将传入的name信息和bool型参数添加到模型类中
self.use_mov_poster = use_poster
self.use_mov_title = use_mov_title
self.use_usr_age_job = use_age_job
self.use_mov_cat = use_mov_cat
# 获取数据集的信息,并构建训练和验证集的数据迭代器
Dataset = MovieLen(self.use_mov_poster)
self.Dataset = Dataset
self.valset = self.Dataset.valid_dataset
self.train_loader = self.Dataset.load_data(dataset=self.trainset, mode='train')
self.valid_loader = self.Dataset.load_data(dataset=self.valset, mode='valid')
""" define network layer for embedding usr info """
# 对电影ID信息做映射,并紧接着一个Linear层
MOV_DICT_SIZE = Dataset.max_mov_id + 1
self.mov_emb = Embedding([MOV_DICT_SIZE, 32])
self.mov_fc = Linear(32, 32)
# 对电影类别做映射
CATEGORY_DICT_SIZE = len(Dataset.movie_cat) + 1
self.mov_cat_emb = Embedding([CATEGORY_DICT_SIZE, 32], is_sparse=False)
self.mov_cat_fc = Linear(32, 32)
# 对电影名称做映射
MOV_TITLE_DICT_SIZE = len(Dataset.movie_title) + 1
self.mov_title_conv = Conv2D(1, 1, filter_size=(3, 1), stride=(2,1), padding=0, act='relu')
self.mov_title_conv2 = Conv2D(1, 1, filter_size=(3, 1), stride=1, padding=0, act='relu')
# 新建一个Linear层,用于整合电影特征
self.mov_concat_embed = Linear(96, 200, act='tanh')
# 定义电影特征的前向计算过程
def get_mov_feat(self, mov_var):
""" get movie features"""
# 获得电影数据
mov_id, mov_cat, mov_title, mov_poster = mov_var
feats_collect = []
# 获得batchsize的大小
batch_size = mov_id.shape[0]
# 计算电影ID的特征,并存在feats_collect中
mov_id = self.mov_emb(mov_id)
mov_id = self.mov_fc(mov_id)
mov_id = fluid.layers.relu(mov_id)
feats_collect.append(mov_id)
# 如果使用电影的种类数据,计算电影种类特征的映射
if self.use_mov_cat:
# 计算电影种类的特征映射,对多个种类的特征求和得到最终特征
mov_cat = self.mov_cat_emb(mov_cat)
print(mov_title.shape)
mov_cat = fluid.layers.reduce_sum(mov_cat, dim=1, keep_dim=False)
mov_cat = self.mov_cat_fc(mov_cat)
feats_collect.append(mov_cat)
if self.use_mov_title:
# 计算电影名字的特征映射,对特征映射使用卷积计算最终的特征
mov_title = self.mov_title_emb(mov_title)
mov_title = self.mov_title_conv2(self.mov_title_conv(mov_title))
mov_title = fluid.layers.reduce_sum(mov_title, dim=2, keep_dim=False)
mov_title = fluid.layers.relu(mov_title)
mov_title = fluid.layers.reshape(mov_title, [batch_size, -1])
feats_collect.append(mov_title)
# 使用一个全连接层,整合所有电影特征,映射为一个200维的特征向量
mov_feat = fluid.layers.concat(feats_collect, axis=1)
mov_feat = self.mov_concat_embed(mov_feat)
return mov_feat
由上述电影特征处理的代码可以观察到:
- 电影ID特征的计算方式和用户ID的计算方式相同。
- 对于包含多个元素的电影类别数据,采用将所有元素的映射向量求和的结果作为最终的电影类别特征表示。考虑到电影类别的数量有限,这里采用简单的求和特征融合方式。
- 对于电影的名称数据,其包含的元素数量多于电影种类元素数量,则采用卷积计算的方式,之后再将计算的特征沿着数据维度进行求和。读者也可自行设计这部分特征计算网络,并观察最终训练结果。
下面使用定义好的数据读取器,实现从电影数据中得到电影特征的计算流程:
- ##Total dataset instances: 1000209
- ##MovieLens dataset information:
- usr num: 6040
- movies num: 3883
- 输入的电影ID数据:2716
- 类别数据:[ 3 11 0 0 0 0]
- 名称数据:[3838 0 0 0 0 0 0 0 0 0 0 0 0 0
- 0]
- 计算得到的电影特征维度是: [1, 200]