PNAS:人类在训练人工智能的时候会改变自己的行为

【字体: 时间:2024年08月09日 来源:AAAS

编辑推荐:

  圣路易斯华盛顿大学的研究人员发现,当人们被告知他们在训练人工智能时,他们会调整自己的行为,让自己看起来更公平

  

华盛顿大学研究人员进行的一项新的跨学科研究发现,在人类行为和人工智能的交叉点上,出现了一种意想不到的心理现象:当被告知他们正在训练人工智能玩讨价还价游戏时,参与者会积极调整自己的行为,让自己看起来更公平和公正,这种冲动对现实世界的人工智能开发者可能具有重要意义。

该研究的主要作者、计算与数据科学系的博士生劳伦·特雷曼(Lauren Treiman)说:“参与者似乎有动机训练人工智能实现公平,这令人鼓舞,但其他人可能有不同的目的。”“开发人员应该知道,当人们知道自己的行为将被用来训练人工智能时,他们会故意改变自己的行为。”

这项发表在《美国国家科学院院刊》上的研究得到了应用数据科学跨学科研究所(TRIADS)的种子基金的支持,该研究所是艺术与科学战略计划的一个标志性倡议。合著者是艺术与科学学院心理与脑科学助理教授Wouter Kool,以及麦凯维工程学院计算机科学与工程助理教授Chien-Ju Ho。库尔和何是雷曼的研究生导师。

这项研究包括五个实验,每个实验大约有200-300名参与者。受试者被要求玩“最后通牒游戏”,这是一项挑战,要求他们与其他人类玩家或电脑协商小额现金支付(仅1美元至6美元)。在某些情况下,他们被告知他们的决定将被用来教AI机器人如何玩游戏。

那些认为自己在训练AI的玩家更有可能寻求公平的奖励份额,即使这种公平会让他们付出一些代价。有趣的是,即使在他们被告知他们的决定不再被用来训练人工智能之后,这种行为变化仍然存在,这表明塑造技术的经验对决策产生了持久的影响。“作为认知科学家,我们对习惯的形成很感兴趣,”库尔说。“这是一个很酷的例子,因为即使不再要求这种行为,这种行为也会继续。”

不过,这种行为背后的冲动并不完全清楚。研究人员没有询问具体的动机和策略,库尔解释说,参与者可能没有强烈的义务让人工智能更合乎道德。他说,有可能这个实验只是激发了他们拒绝看似不公平的提议的自然倾向。“他们可能并没有真正考虑到未来的后果,”他说。“他们可能只是想走捷径。”

“这项研究强调了人工智能训练中人类因素的重要性,”研究人类行为与机器学习算法之间关系的计算机科学家何说。“很多人工智能训练都是基于人类的决策,”他说。“如果在人工智能训练过程中不考虑人类的偏见,那么最终的人工智能也会有偏见。在过去的几年里,我们看到人工智能培训和部署之间的这种不匹配产生了很多问题。”

例如,一些面部识别软件在识别有色人种方面就不太准确,Ho说。“这在一定程度上是因为用于训练人工智能的数据是有偏见的,不具有代表性,”他说。

Treiman现在正在进行后续实验,以更好地了解人们训练人工智能的动机和策略。“考虑计算机科学的心理学方面是非常重要的,”她说。

相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号