艾巴生活网

您现在的位置是:主页>生活 >内容

生活

GW将共同领导一个耗资2000万美元的新NSFAI研究所

2023-05-17 08:41:59生活传统的飞鸟
乔治华盛顿大学正在共同领导一项由国家科学基金会 (NSF) 支持的多机构合作,该项目将开发新的人工智能 (AI) 技术,旨在促进信任和降低

乔治华盛顿大学正在共同领导一项由国家科学基金会 (NSF) 支持的多机构合作,该项目将开发新的人工智能 (AI) 技术,旨在促进信任和降低风险,同时增强和教育公众。

GW将共同领导一个耗资2000万美元的新NSFAI研究所

国家科学基金会法律与社会可信人工智能研究所 (TRAILS) 于 2023 年 5 月 4 日宣布,将人工智能和机器学习专家与系统工程师、社会科学家、法律学者、教育工作者和公共政策专家联合起来。多学科团队将与受影响的社区、私营企业和联邦政府合作,以确定如何评估对人工智能的信任,如何为可信任的人工智能开发技术解决方案和流程,以及哪些政策模型最能创造和维持信任。

“TRAILS 研究所是 GW 教师在技术与社会科学交叉领域所做的世界级工作的典范,它反映了该大学对促进知识、推动经济、提高公平和质量的创新的承诺。我们全球社区所有成员的生活,”GW 总裁 Mark Wrighton 说。

GW 的教务长兼学术事务执行副总裁克里斯托弗·布雷西 (Christopher Bracey) 表达了总统对这项新合作的兴奋之情。“随着工程师和计算机科学家与世界政策之都的法律学者和社会科学家并肩工作,TRAILS 准备增加机会并解决人工智能及其在我们社会中的使用方式的风险。 “

由 NSF 提供的 2000 万美元资助,新研究所有望通过鼓励新的创新来改变 AI 的实践,这些创新突出了道德、人权以及声音先前被边缘化的社区的意见和反馈。

GW 工程与应用科学学院院长 John Lach 说:“TRAILS 体现了 GW Engineering 的'工程和......'精神 - 跨学科工作并与社区互动,以利用工程和计算的力量造福社会。”

除 GW 外,TRAILS 还将包括来自马里兰大学的教职员工,包括 TRAILS 的首席研究员 Hal Daumé III、摩根州立大学和康奈尔大学,以及来自国家标准与技术研究院 (NIST) 的更多支持),以及 Arthur AI、Checkstep、FinRegLab 和 Techstars 等私营部门组织。

新研究所认识到人工智能目前正处于十字路口。注入 AI 的系统具有增强人类能力、提高生产力、促进创新和缓解复杂问题的巨大潜力,但今天的系统是在一个对公众不透明的过程中开发和部署的。因此,那些受该技术影响最大的人对其开发方式几乎没有发言权。

“我认为重要的是要了解人工智能可以成为社会重大利益和创新的源泉,但也可能造成很多伤害,”GW 工程管理和系统工程副教授兼首席校长 David Broniatowski 说。 GW 的 TRAILS 调查员。“许多人感受到了这些伤害,这些人在历史上代表性不足,因为他们的担忧没有反映在设计过程中。”

例如,人工智能系统可能会在反映系统设计者或数据标签者的价值观和偏见的数据集上接受训练。使用该系统的人可能没有意识到这些偏见,而是相信系统的输出是“客观的”。Broniatowski 说,如果系统输出不容易解释,那么编码到系统中的优先级可能反映出与正在使用这些系统或受这些系统影响的人不一致的价值观。

鉴于这些情况——以及人工智能越来越多地部署在对社会至关重要的系统中,例如调解在线通信、确定医疗保健选择以及在刑事司法系统中提供指导——确保人们的信任变得紧迫在 AI 系统中,匹配这些相同系统的可信度级别。

TRAILS 确定了四个关键研究重点,以促进人工智能系统的发展,这些系统可以通过更广泛地参与人工智能生态系统来赢得公众的信任。

第一种称为参与式人工智能,提倡让人类利益相关者参与这些系统的开发、部署和使用。它旨在以符合不同人群的价值观和利益的方式创造技术,而不是被少数专家控制或完全受利润驱动。

第二个研究重点将侧重于开发反映相关利益相关者的价值观和利益的先进机器学习算法。

Broniatowski 将领导该研究所的第三个研究重点,即评估人们如何理解所开发的人工智能系统,以及他们的可靠性、公平性、透明度和问责制水平将在多大程度上导致适当的信任水平。

GW 国际事务研究教授苏珊·阿里尔·阿伦森 (Susan Ariel Aaronson) 将利用她在数据驱动变革和国际数据治理方面的专业知识,领导该研究所参与式治理和信任的第四个重点。

“没有参与就没有信任,没有参与就没有问责制——因此我们相信从设计到部署的各个层面都应该采用参与式方法来处理人工智能,”Aaronson 说。

马里兰州卓越的公立城市研究大学摩根州立大学将领导与人工智能和教育之间的相互作用相关的社区驱动项目,而康奈尔大学将推进专注于人们如何解释他们对人工智能的使用的努力。

NIST 的联邦官员将与 TRAILS 合作开发有意义的措施、基准、测试平台和认证方法——特别是当它们适用于对信任和可信度至关重要的重要主题时,例如安全、公平、隐私、透明度、可解释性、问责制、准确性和可靠性。

“衡量人工智能系统可信度及其对个人、社区和社会的影响的能力是有限的。TRAILS 可以帮助提高我们对可信赖人工智能的基础、人工智能的伦理和社会考虑以及如何构建受其使用和影响的人信任的系统的理解,”负责标准和技术的商务部副部长说。 NIST 主任 Laurie E. Locascio。

今天的公告是建立一系列国家人工智能研究所的一系列联邦拨款中的最新消息。在前两轮奖励之后,最近对 7 个新人工智能研究所的投资总额为 1.4 亿美元。

NSF 与政府机构和私营部门领导合作,现已向 AI 研究所生态系统投资近 50 亿美元——这项投资将协作 AI 研究网络扩展到几乎每个州。

“这些研究所正在推动突破性发现,以实现我们国家走在全球人工智能革命前沿的雄心。如果没有我们与学术合作伙伴、政府机构、行业领导者和整个 AI 社区的长期联盟,这项工作是不可能的,”NSF 主任 Sethuraman Panchanathan 说。