公平性与可解释性在图神经网络中的研究
公平性
- 背景:图神经网络(GNN)在处理社会网络等数据时存在较高风险的歧视问题。例如,在人脸识别中,较深肤色的女性识别效果较差;在工资预测中,历史数据导致男性薪资普遍高于女性。
- 定义:
- 统计平等:预测结果应与敏感属性无关,即 ( P(y|s=0) = P(y|s=1) )。
- 机会平等:正类别的实例被分配到积极结果的概率在不同子群体之间相等。
- 链路预测中的双边公平性:要求链接预测器在目标节点的敏感属性未知的情况下给出独立的预测。
- 方法:
- 对抗去偏:通过训练一个对抗模型来预测敏感属性,使得分类器生成的表示能够绕过这个预测。当对抗损失达到全局最小值时,可以实现统计平等。
- 公平约束:通过最小化估计的敏感属性与预测结果之间的绝对协方差,进一步确保公平性并稳定对抗去偏训练。
可解释性
- 介绍:图神经网络的可解释性对于信用评估、欺诈检测和药物生成等领域至关重要。
- 后验解释:
- GNN解释器:通过优化目标函数找到贡献于预测的重要子图。
- 自解释性GNN:
- 可解释性相似性建模:通过显式建模节点相似性和局部结构相似性来提供解释,包括目标节点的最近标记节点。
- 预测与最近标记节点:通过加权平均最近标记节点的标签来进行预测。
- 自我监督:通过自我监督任务提高相似性建模的效果,从而增强解释。
- 未来方向:
- 类级解释。
- 解释基准数据集。
- 将解释应用于公平性和鲁棒性。
数据集
- 研究使用的数据集包括合成数据集 Syn-Cora,用于生成 K-最近标记节点解释和边缘匹配解释的真实基准。
总结
该研究主要探讨了图神经网络在公平性和可解释性方面的挑战及解决方案,提出了对抗去偏和自解释性GNN等方法,并通过实验验证了其有效性。