橡胶成分检测:特雷弗项目如何利用人工智能帮助LGBTQ+青少年和培训其辅导员( 二 )



道德AI

鉴于Trevor Project的弱势客户群 , 对于组织确保AI的公平性至关重要 。“在许多情况下 , 这包括减少系统的种族和性别偏见 , 并且对于像Trevor Project这样的组织 , 这还意味着挽救了比我们想象的更多的生命 , ” Kendra Gaunt , 在Trevor Project的头衔是数据和AI产品负责人在发给VentureBeat的材料中说 。Gaunt加入了Trevor项目 , 与Google研究员和该团队的AI和工程团队一起工作 。

Callery说:“对于某些使用AI的组织来说 , 公平是在避免不良结果的情况下出现的 。”“而且我认为 , 仅仅因为我们正在做的工作 , 以及(因为)我们首先使用技术的原因以及我们要努力实现的使命 , 人工智能是一件积极的事情以及公平-我们必须以建设性的方式 , 积极的方式来考虑它 。确保我们正在建立的服务确实能为所有人口统计背景和所有相交背景的年轻人提供服务是一个问题 。”

Gaunt表示 , Trevor项目花费了数月的时间来开发指导原则和AI模型 , 以避免加剧基于种族或交叉性等因素影响人们的偏差 。她将这些步骤分为五个不同的部分:减轻数据偏差 , 保护隐私 , 考虑最终用户的多样性 , 依靠领域专业知识以及评估公平性 。

她为那些希望减少数据偏差的人提供了务实的建议 。“预先定义问题和目标 。提前这样做将为模型的训练公式提供依据 , 并可以帮助您的系统尽可能保持客观性 。”她说 。“没有预先确定的问题和目标 , 您的培训公式可能会被无意地优化以产生不相关的结果 。”

尊重隐私涉及明显的措施 , 例如遵守您使用的任何数据集的条款和条件以及隐私政策 。但是Gaunt表示 , 牢记项目目标也很重要 , 这样您才能与可接受的数据使用保持一致 , 并且她主张使用差异隐私技术来删除个人身份信息(PII) 。她补充说:“团队还可以排练隐私攻击并执行自动系统测试 , 以防止不良行为并进一步保护私人信息 。”

特雷弗项目(Trevor Project)的独特之处在于其最终用户是一群非常特定的人 , 但是这一狭窄的群体却千差万别 , 其中包括无数的经历 , 背景和相交身份 。为了最好地了解如何为该小组提供服务 , 该组织依赖领域专家-也就是说 , 他们最了解给定的地区或人口 , 甚至(或特别是)不是技术人员的人 。

“与领域专家进行磋商并与时俱进 , 了解模型所处的社区 , 并计划人类可能如何响应与模型的交互 , 这一点很重要 。” Gaunt说 。“依靠组成直接反馈社区的个人 , 也支持建立包容性模型 。”她说 , Trevor Project的技术团队与危机服务团队密切合作 , 以确保他们遵守“有关危机干预和自杀预防的临床最佳实践” 。

“没有这些必要的专业知识 , 我们实施AI可能会适得其反 , 并给我们服务的LGBTQ青少年造成意外伤害 , ” Gaunt说 。

关键的最后一步是评估AI模型输出的公平性 , 以减轻对它打算帮助的人的潜在负面影响 。“除了定义从统计角度和用户体验来衡量系统性能的成功指标之外 , 还必须在整个开发过程中 , 上线及以后的过程中 , 对公平性进行衡量 。” Gaunt说 。

她说 , 每个组织都需要找到最佳方法(有很多可用方法)来衡量其特定用例和人口统计的公平性 。她说:“在特雷弗项目中 , 这些措施包括但不限于:性取向 , 性别认同 , 种族和种族 , 以及这些认同的交集 。”


以上关于本文的内容,仅作参考!温馨提示:如遇健康、疾病相关的问题,请您及时就医或请专业人士给予相关指导!

「四川龙网」www.sichuanlong.com小编还为您精选了以下内容,希望对您有所帮助: