机器学习公平性研究
势群体造成更加不利的影响,至关重要。 那么如何评估一个机器学习系统的公平性程度呢?目前普遍的方法就是,拿着待评估的系统在一些静态(特别强调)的数据集上跑,然后看误差指标。事实上,现在有许多测试机器学习公平性的工具包,例如AIF360、Fairlearn、Fairness-Indicators、Fairness-Comparison等。 虽然这些工具包在一些任务中能够起到一定的指导作用,但缺点也很明显:它们所针对的都是静态的、没有反馈、短期影响的场景。这一点从评估方法中能够体现出来,因为数据集是静态的。 然而现实生活中大多数却是动态的、有反馈的场景,机器学习算法运行的背景往往对算法的决策具有长期的关键性影响。 因此针对机器学习算法公平性的研究,从静态公平到动态公平,从单线公平到有反馈的公平,从短期公平到长期公平,是重要且必要的一步。
近日,来自谷歌的数位研究人员针对这一问题,在近期于西班牙举办的ACM FAT 2020会议(关于计算机技术公平性的国际会议)上发表了一篇论文,并基于这篇论文的研究开发了一组模拟组件ML-fairness-gym,可以辅助探索机器学习系统决策对社会潜在的动态长 (编辑:衡水站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |