构建更适合所有人的AI

由Isabel Kloumann,研究科学经理和Jonathan Tannen,研究工程经理

人工智能在我们的应用中扮演着重要的角色——从增强现实效果到提供帮助留下我们的平台上的不良内容通过我们的COVID-19社区帮助中心。随着人工智能服务越来越多地出现在日常生活中,了解人工智能系统可能如何影响世界各地的人们,以及我们如何努力确保每个人都能得到最好的结果,变得越来越重要。

几年前,我们创建了一个跨学科负责任人工智能(RAI)团队,以帮助推进负责任人工智能这一新兴领域,并将其影响传播到整个Facebook。公平团队是RAI的一部分,与整个公司的产品团队一起培养知情,具体的上下文决策关于如何测量和定义AI动力产品的公平性。

设计AI系统是公平和包容性的不是单尺寸适合所有任务。该过程涉及努力工作,试图了解产品或系统对所有人表现良好的意义,同时仔细平衡利益相关者利益之间可能存在的任何紧张局势。解决产品和服务公平问题的过程中的一个重要步骤是早期和系统地进行潜在统计偏见的测量。为了帮助这样做,Facebook AI开发了一个名为公平流程的工具。

使用公平流程,我们的团队可以分析一些常见类型的AI模型和标签在不同组之间的表现。区分不同群体的公平性很重要,因为AI系统可能在某些群体中表现不佳,即使它在一般情况下对所有人都表现良好。

公平流程专门通过帮助机器学习工程师检测某些类型的AI模型和标签中某些形式的潜在统计偏差。它衡量模型或人为标签的培训数据对不同的人群表现更好或更糟。这是机器学习工程师可以看出他们是否必须采取措施来提高其模型的比较表现。他们可以考虑的一些更改包括在其培训或测试数据集中扩大或改进表示,检查某些功能是否重要,或者探索更复杂或更不复杂的模型。

在Facebook上的产品团队中可获得公平性流动,即使它们部署到生产后,也可以应用于模型。但是,公平流程无法分析所有类型的模型。它也是一个诊断工具,因此它无法自行解决公平问题 - 这将需要从伦理学家和其他利益相关者的投入和特定于背景的研究。由于公平,根据定义是上下文,因此不能以与所有产品或AI模型相同的方式应用单个度量标准。

长期以来,我们一直致力于利用人工智能造福社会,改善技术,造福所有人。在构建的门户智能相机例如,我们努力确保它对各种人口表现良好。我们还用来了为盲人或视觉受损的人建立改进的照片描述。尽管取得了这些成就,但我们知道,作为一个行业和研究团体,我们仍处于理解正确、全面的过程和剧本的早期阶段,这些过程和剧本可以用来实现大规模的公平。

我们使用的人工智能系统对数据隐私和安全、道德、虚假信息的传播、社会问题等等都有潜在的影响。在Facebook,我们将继续努力改进这些系统,以负责任的态度帮助构建技术。

公平流量只是一种工具,许多工具是我们部署,以帮助确保为我们的产品和服务提供支持的AI,适用于每个人,并公平地对待个人和社区。

阅读完整的故事:ai.facebook.com/blog/how-were-using-fairness-flow-to-help-build-ai-that-works-better-for-every.



为了帮助个性化内容,量身定制和测量广告,并提供更安全的体验,我们使用cookie。通过单击或导航网站,您同意通过Cookie允许您和关闭Facebook的信息集合。了解更多信息,包括可用控件:饼干政策