K-L 散度

Kullback-Leibler Divergence,即 K-L 散度,是一种量化两种概率分布 P 和 Q 之间差异的方式,又叫相对熵

阅读更多

推荐指标-NDCG

NDCG,Normalized Discounted Cumulative Gain,直接翻译为归一化折损累计增益,这个指标通常用来衡量和评价搜索结果算法。

阅读更多

Logistic 回归

最近看到了 Logistic regression,LR 模型主要用于分类模型(不是回归),细心的人不难发现 LR 模型在线性回归模型上加了一个 sigmoid 转换。

阅读更多