人工智能对人类互动信任的影响

随着人工智能变得越来越现实,我们对与之交流的人的信任可能会受到损害。哥德堡大学的研究人员研究了先进的人工智能系统如何影响我们对与之互动的个人的信任。

在一种情况下,一个潜在的诈骗者认为他正在给一位老人打电话,而是连接到一个通过预先录制的循环进行通信的计算机系统。诈骗者花费大量时间尝试诈骗,耐心地倾听“男人”有些令人困惑和重复的故事。哥德堡大学传播学教授 Oskar Lindwall 观察到,人们通常需要很长时间才能意识到他们正在与技术系统进行交互。

他与信息学教授乔纳斯·伊瓦森 (Jonas Ivarsson) 合作,撰写了一篇题为“可疑的思想:信任和对话代理人的问题”的文章,探讨了个人如何解释和关联其中一方可能是 AI 代理人的情况。这篇文章强调了对他人怀有怀疑的负面后果,例如它可能对人际关系造成的损害。

Ivarsson 提供了一个浪漫关系的例子,其中出现信任问题,导致嫉妒和寻找欺骗证据的倾向增加。作者认为,即使没有理由,无法完全信任对话伙伴的意图和身份也可能导致过度怀疑。

他们的研究发现,在两个人之间的互动过程中,一些行为被解释为其中一个人实际上是机器人的迹象。

研究人员表示,普遍的设计视角正在推动人工智能的发展,其特征越来越像人类。虽然这在某些情况下可能很有吸引力,但也可能存在问题,尤其是当不清楚您在与谁交流时。Ivarsson 质疑人工智能是否应该拥有像人类一样的声音,因为它们创造了一种亲密感并引导人们仅根据声音形成印象。

在潜在诈骗者称呼“老人”的案例中,骗局在很长一段时间后才被曝光,林德沃尔和艾瓦森将此归因于人声的可信度以及混淆行为是由于年龄造成的假设。一旦 AI 有了声音,我们就会推断出性别、年龄和社会经济背景等属性,从而更难识别我们正在与计算机进行交互。

研究人员建议创建具有功能良好且雄辩的声音的人工智能,这些声音仍然明显是合成的,从而提高透明度。

与他人的交流不仅涉及欺骗,还涉及建立关系和共同创造意义。一个人是在与人交谈还是与计算机交谈的不确定性会影响交流的这一方面。虽然在某些情况下这可能无关紧要,例如认知行为疗法,但其他需要更多人际关系的疗法可能会受到负面影响。

Jonas Ivarsson 和 Oskar Lindwall 分析了 YouTube 上提供的数据。他们研究了三种类型的对话以及听众的反应和评论。在第一种类型中,机器人打电话给一个人预约理发,而另一端的人并不知道。在第二种类型中,一个人出于同一目的呼叫另一个人。在第三种类型中,电话推销员被转移到具有预录语音的计算机系统。

© 版权声明
THE END
喜欢就支持一下吧
点赞9 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容