in ML概念

Kullback-Leibler Divergence,即K-L散度,是一种 量化两种概率分布P和Q之间差异 的方式,又叫相对熵。

in 论文

背景Paper: NeurIPS 2019 Code: https://github.com/facebookresearch/vilbert-multi-task

in 论文

背景论文来自于百度在2020年AAAI上提出的知识增强视觉-语言预训练模型 《ERNIE-ViL: Knowledge Enhanced Vision-Language Representations Through Scene Graph》,在多个比赛上获得了 SOTA 的结果。

in 论文

背景论文来自 opai 2021 年提出的一个成果,相关可参考信息: github 、 paper 。 之前其实并不太了解多模态预训练领域的成果,最近看到了这篇质量很高的成果。

in 算法学习

NDCG,Normalized Discounted cumulative gain 直接翻译为归一化折损累计增益,这个指标通常是用来衡量和评价搜索结果算法。

in Linux

ddl 新增列