提出了新的推荐算法公平性度量指标,并阐明了对其进行优化以解决各类不公平性问题。推荐系统基于用户的历史行为而产生支持决策的结果推荐,其在电影、商品、求职和课程推荐中都被广泛采用。但推荐系统是基于可观测的数据进行预测,因而来自数据样本的偏差必然也会导致推荐结果的误差。因而作者先对推荐算法中的不公平性问题公理化,并提出了5个可供优化的公平性目标,每个目标都可通过惩罚因子对其进行正则化。实验证明该方法能够更好地评估不公平性,并且不降低预测模型准确性,而只是需要权衡不同的公平性。
该文章主要关注与广泛用于推荐系统中的协同过滤算法,该算法通过对系统中的其他用户对对象的评分及行为从而作出推荐。换句话说,系统过滤通过聚合用户的喜好和选择,以此作为参考依据,向当前用户推荐具有类似喜好用户的产品。协同过滤算法通过使用人与物的共现统计特征作出预测,即UI(User-Item)矩阵。大部分协同过滤算法都假设未评分的用户随机的,但相反有研究表明,抽样的结果与用户的真实偏好有明显差异。因此采样受到社会偏见影响,导致采样并不随机。正如此,研究如何减小这类不公平性问题是未来的一大研究方向。
基于矩阵分解的协同过滤方法:
新不公平性度量指标:
value unfairness:
实验结果:
作者在模拟数据及真实数据上对上述指标进行了验证,其结果如下图:
实验结果表明,每种数据缺陷都将导致推荐结果的不公平,并且由于用户的不平衡即观测结果的差异都将导致该不公平性。
该文章讨论了推荐系统中存在的各类不公平现象,以及其可能出现的原因,并利用实验证明了两方面原因的正确性:用户不平衡和观测值误差。并且作者发现,即便对于准确的观测数据,仍可能出现推荐不公平现象,其还受用户偏好的影响。基于此,作者提出了4大不公平性指标:value unfairness、absolute unfairness、underestimation unfairness和overestimation unfairness,并尝试在目标函数中加入公平性因子,用以惩罚高估和低估的场景。
curton 2019-11-17 15:17