您的位置:首页 > 品牌资讯 >

新模型感知人类对智能机器的信任

时间:2020-04-04 09:42:36 来源:互联网

新的“分类模型”感觉到人类如何信任他们协作的智能机器,这是提高互动和团队合作质量的一步。

整个研究领域的长期目标是设计能够改变其行为的智能机器,以增强人类对它们的信任.. 这些新模型是在普渡大学机械工程学院由Neera Jain助理教授和Tahira Reid副教授领导的研究中开发的。

贾恩说:“智能机器,更广泛地说,智能系统在人类日常生活中越来越普遍。” 随着人类越来越需要与智能系统交互,信任成为协同交互的重要因素。

例如,飞行员和工业工人经常与自动化系统交互。 人类有时会不必要地凌驾于这些智能机器之上,如果他们认为系统正在摇摇欲坠。

里德说:“众所周知,人类的信任是人类和机器之间成功互动的核心。

研究人员开发了两种类型的“基于分类器的经验信任传感器模型”,这是提高人类和智能机器之间信任的一步。

这项工作与普渡大学的巨人飞跃庆祝活动相一致,感谢该大学在人工智能、算法和自动化方面取得的全球进步,这是普渡大学150周年纪念的一部分。 这是为期一年的庆祝思想节的四个主题之一,旨在展示普渡作为解决现实世界问题的智力中心。

该模型使用两种技术提供数据来衡量信任:脑电图和电偶皮肤反应。 第一个记录脑电波模式,第二个监测皮肤电特性的变化,提供与信任相关的心理生理“特征集”。

45名人体受试者戴着无线脑电图耳机,一只手戴着一个装置来测量电偶皮肤反应。

其中一种新的模型,“一般信任传感器模型”,对所有45名参与者使用相同的心理生理特征集。 另一个模型是为每个人类主题定制的,从而提高了平均精度,但牺牲了训练时间的增加。 两种模型的平均准确率分别为71.22%和78.55%。

这是首次使用脑电测量来实时或无延迟地测量信任。

贾恩说:“我们正在以一种非常新的方式使用这些数据。 “我们把它看作是一个连续的流,而不是在特定的触发或事件之后观察脑电波。”

研究结果在一篇发表在计算机机械交互式智能系统交易协会特刊上的研究论文中详细介绍。 该杂志的特刊题为“智能人机交互中的信任与影响”。 该论文由机械工程硕士研究生KumarAkash撰写;原研究生胡万林,现为斯坦福大学博士后研究助理;Jain和Reid。

贾恩说:“我们有兴趣使用反馈控制原理来设计能够实时响应人类信任水平变化的机器,以建立和管理对人机关系的信任。” 为了做到这一点,我们需要一个传感器来实时估计人类的信任水平。 本文的研究结果表明,心理生理测量可以用来实现这一目标。

人对机器的信任问题对于“人-代理集体”的有效运行具有重要意义。

贾恩说:“未来将围绕人类和机器之间需要高效和成功的协调与协作的人类智能体集体来构建。” “据说,在一场自然灾害中,有一群机器人在协助救援队。 在我们的工作中,我们只处理一个人和一台机器,但最终我们希望扩大到人类和机器的团队。”

已经引入算法来自动化各种过程。

贾恩说:“但是我们还有人在那里监视着发生的事情。” “通常有一个覆盖功能,如果他们认为某件事不对,他们可以收回控制。”

有时这种行为是不合理的。

里德说:“你的处境可能是人类不了解正在发生的事情,所以他们不相信系统会做正确的事情。” “所以即使他们真的不应该,他们也会收回控制权。”

在某些情况下,例如在飞行员凌驾于自动驾驶仪之上的情况下,收回控制实际上可能会阻碍飞机的安全运行,造成事故。

贾恩说:“设计能够与人类建立和保持信任的智能机器的第一步是设计一种传感器,使机器能够实时估计人类的信任水平。”

为了验证他们的方法,581名在线参与者被要求操作驾驶模拟,其中计算机识别道路障碍。 在某些场景中,计算机100%正确地识别障碍,而在其他场景中,计算机50%的时间错误地识别障碍。

“所以,在某些情况下,它会告诉你有一个障碍,所以你踩刹车,避免事故,但在另一些情况下,它会不正确地告诉你一个障碍存在时,没有任何理由,所以你击中休息,”里德说。

测试使研究人员能够识别与人类对智能系统的信任相关的心理生理特征,并相应地建立信任传感器模型。 她说:“我们假设,在可靠的试验中,信任水平会很高,而在错误的试验中,信任水平会很低,我们利用从581名在线参与者收集的反应来验证这一假设。”

结果表明,该方法有效地诱导了智能机器中的信任和不信任。

贾恩说:“为了实时估计信任,我们需要有能力不断提取和评估关键的心理生理测量。” 这项工作是第一次使用实时心理生理测量来开发人类信任传感器。

脑电图耳机记录信号超过九个通道,每个通道拾取大脑的不同部分。

“每个人的脑电波都是不同的,所以你需要确保你正在构建一个适用于所有人类的分类器。”

对于自主系统,人的信任可以分为三类:配置、情境和学习。

处置信任是指信任的组成部分,它依赖于人口统计,如性别和文化,这可能带有偏见。

里德说:“我们知道,可能存在一些细微差别,应该加以考虑。 例如,妇女的信任不同于男子,信任也可能受到年龄和国籍差异的影响。

情境信任可能会受到任务的风险或困难程度的影响,而学习是基于人类过去在自主系统中的经验。

他们开发的模型被称为分类算法。

她说:“我们的想法是,当一个人可能感到信任,而不是可能感到不信任时,可以使用这些模型进行分类。”

贾恩和里德还调查了处置信任,以解释性别和文化差异,以及能够根据数据预测未来信任将如何变化的动态模型。

免责声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,并不代表本站赞同其观点和对其真实性负责。如有侵权行为,请第一时间联系我们修改或删除,多谢。
精选展示

Copyright © 2021 山西商业网 All Rights Reserved