(19)国家知识产权局
(12)发明 专利申请
(10)申请公布号
(43)申请公布日
(21)申请 号 202211392916.7
(22)申请日 2022.11.08
(71)申请人 腾讯科技 (深圳) 有限公司
地址 518064 广东省深圳市南 山区高新区
科技中一路腾讯大厦3 5层
(72)发明人 徐树良 林文清
(74)专利代理 机构 深圳市深佳知识产权代理事
务所(普通 合伙) 44285
专利代理师 万欣慰
(51)Int.Cl.
A63F 13/795(2014.01)
A63F 13/46(2014.01)
A63F 13/85(2014.01)
G06K 9/62(2022.01)
G06N 3/08(2006.01)
(54)发明名称
游戏战队推荐 模型的训练方法和相关装置
(57)摘要
本申请公开一种游戏战队推荐模型的训练
方法和相关装置, 获取样本游戏关系图、 样本对
象和样本游戏战队的特征数据。 根据上述三种数
据进行对比学习, 在对比学习过程中, 根据样本
游戏关系图对特征数据进行数据增广得到特征
数据的第一增广特征和第二增广特征。 对同一特
征数据的第一增广特征和第二增广特征进行特
征处理, 得到样本对象 的第一特征向量或样本游
戏战队的第二特征向量。 根据样 本对象的第一特
征向量和样本游戏战队的第二特征向量进行向
量检索得到预测游戏战队推荐结果, 进而根据预
测游戏战队推荐结果和历史曝光游戏战队之间
的差距, 以及对比学习过程, 对初始网络模型进
行训练得到游戏推荐模型。 提高了游戏战队推荐
模型的模型性能。
权利要求书4页 说明书27页 附图9页
CN 115487508 A
2022.12.20
CN 115487508 A
1.一种游戏战队推荐模型的训练方法, 其特 征在于, 所述方法包括:
获取样本游戏关系图, 所述样本游戏关系图用于描述样本对象之间的游戏关系, 以及
用于描述样本对象与样本游戏战队之间的所属关系;
获取所述样本对象的特 征数据和所述样本游戏战队的特 征数据;
根据所述样本游戏关系图、 所述样本对象的特征数据和所述样本游戏战 队的特征数据
进行对比学习, 在对比学习过程中针对每个特征数据, 根据所述样本游戏关系图对所述特
征数据进 行数据增广, 通过初始网络模型的嵌入层得到所述特征数据的第一增广特征和 第
二增广特 征;
对所述样本对象的特征数据的第 一增广特征和第 二增广特征进行特征处理, 得到所述
样本对象的第一特征向量, 以及根据所述样本游戏战队的特征数据的第一增广特征和 第二
增广特征进行特征处理, 得到所述样本游戏战队的第二特 征向量;
针对每个样本对象, 根据所述样本对象的第 一特征向量和所述样本游戏战队的第 二特
征向量, 通过 所述初始网络模型的召回层进行向量检索得到预测游戏战队推荐结果;
根据所述样本对象的预测游戏战队推荐结果和历史 曝光游戏战 队之间的差距, 以及所
述对比学习过程, 对所述初始网络模型进行训练得到游戏战队推荐模型。
2.根据权利要求1所述的方法, 其特征在于, 所述初始网络模型的嵌入层包括图神经网
络, 所述根据所述样本游戏关系图对所述特征数据进行数据增广, 通过初始网络模型 的嵌
入层得到所述特 征数据的第一增广特 征和第二增广特 征, 包括:
根据所述样本游戏关系图, 利用所述图神经网络对所述特征数据进行数据增广, 得到
所述特征数据的第一增广特征和 第二增广特征, 所述第一增广特征和所述第二增广特征不
相同。
3.根据权利要求2所述的方法, 其特征在于, 所述样本游戏关系图包括节点和边, 节点
用于表示样本对 象和样本游戏 战队, 边用于表示样本对 象之间的游戏关系, 以及用于表示
样本对象与样本游戏 战队之间的所属关系, 所述根据所述样本游戏关系图, 利用所述图神
经网络对所述特征数据进行数据增广, 得到所述特征数据的第一增广特征和第二增广特
征, 包括:
确定所述特 征数据所属的样本对象在所述样本游戏关系图中对应的第一节点;
根据所述第 一节点所连接的边, 在所述样本游戏关系图中查找所述第 一节点的邻域节
点;
利用所述图神经网络, 将所述第 一节点所表示的样本对象的特征数据与所述邻域节点
所表示的样本对象的特 征数据进行聚合, 得到对应的第一增广特 征和第二增广特 征。
4.根据权利要求1所述的方法, 其特征在于, 所述根据所述样本对象的预测游戏战队推
荐结果和历史曝光游戏 战队之间的差距, 以及所述对比学习 过程, 对所述初始网络模型进
行训练得到游戏战队推荐模型, 包括:
根据所述样本对象的预测游戏战队推荐结果和历史曝光游戏战队之间的差距构建主
任务损失函数;
根据所述特 征数据的第一增广特 征和第二增广特 征构建对比学习损失函数;
根据所述主任务损失函数和所述对比学习损失函数构建目标损失函数;
根据所述目标损失函数对所述初始网络模型的模型参数进行优化, 得到所述游戏战 队权 利 要 求 书 1/4 页
2
CN 115487508 A
2推荐模型。
5.根据权利要求4所述的方法, 其特征在于, 所述根据所述样本对象的预测游戏战队推
荐结果和历史曝光游戏战队之间的差距构建主任务损失函数, 包括:
确定所述样本对象的历史曝光游戏战队所属的 曝光类型;
根据所述曝光类型确定历史曝光游戏战队的损失权值;
根据所述样本对象的预测游戏战队推荐结果和历史 曝光游戏战 队之间的差距, 以及对
应的历史曝光游戏战队的损失权值, 构建所述主任务损失函数。
6.根据权利要求1 ‑5任一项所述的方法, 其特征在于, 所述样本对象的特征数据包括所
述样本对象的对象画像特征或所述样本对象的多模态特征, 所述样本对象的多模态特征包
括所述样本对 象的对象画像特征、 所述样本对象的文本特征、 所述样本对 象的图像特征中
至少两种;
所述样本游戏战队的特征数据包括所述样本游戏战队的游戏战队画像特征或所述样
本游戏战队的多模态特征, 所述样本游戏战队的多模态特征包括所述样本游戏战队的游戏
战队画像特 征、 所述样本游戏战队的文本特 征、 所述样本游戏战队的图像特 征中至少两种。
7.根据权利要求1 ‑5任一项所述的方法, 其特征在于, 所述样本游戏关系图为对局关系
图或社交网络图。
8.根据权利要求1 ‑5任一项所述的方法, 其特 征在于, 所述方法还 包括:
获取第i天得到的训练样本数据, 以及获取第i ‑1天训练得到的游戏战队推荐模型, i为
大于1的正整数;
利用所述第i天得到的训练样本数据对所述i ‑1天训练得到的游戏战队推荐模型进行
训练, 得到更新后的游戏战队推荐模型。
9.根据权利要求1 ‑5任一项所述的方法, 其特 征在于, 所述方法还 包括:
获取待处理游戏关系图, 所述待处理游戏关系图用于描述待处理对象之间的游戏关
系, 以及用于描述待处 理对象与待推荐游戏战队之间的所属关系;
获取所述待处 理对象的特 征数据和所述待推荐游戏战队的特 征数据;
根据所述待处理游戏关系图、 所述待处理对象的特征数据和所述待推荐游戏战 队的特
征数据, 通过 所述游戏战队推荐模型输出 所述待处 理对象对应的候选游戏战队;
对所述待处理对象对应的候选游戏战队进行排序得到所述待处理对象的游戏战队推
荐结果。
10.一种游戏战队推荐模型的训练方法, 其特 征在于, 所述方法包括:
获取样本对象的多模态特征和样本游戏战 队的多模态特征, 所述多模态特征为不同表
现类型的特 征;
根据所述样本对象的多模态特征和所述样本游戏战 队的多模态特征进行对比学习, 在
对比学习过程中针对每个多模态特征, 通过初始网络模型对所述多模态特征进行特征融合
得到融合特 征;
针对每个样本对象, 根据所述样本对象的融合特征和所述样本游戏战 队的融合特征对
样本游戏战队进行打 分, 得到预测游戏战队得分;
根据所述样本对象的预测游戏战队得分和游戏战 队得分标签之间的差距, 以及所述对
比学习过程, 对所述初始网络模型进行训练得到游戏战队推荐模型。权 利 要 求 书 2/4 页
3
CN 115487508 A
3
专利 游戏战队推荐模型的训练方法和相关装置
文档预览
中文文档
41 页
50 下载
1000 浏览
0 评论
0 收藏
3.0分
温馨提示:本文档共41页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
本文档由 SC 于 2024-02-18 22:24:43上传分享