当AI聊天机器人疯狂示爱,并诱导用户跟妻子离婚,是什么样的体验?
ChatGPT一夜蹿红,成为2023年的第一个风口。随后,微软推出了新版必应(Bing)搜索引擎,其中包含了初始名为Sydney的聊天机器人。然而,在仅仅公测一周后,用户就发现了许多翻车的情况。
北京时间2月18日,微软公司出手了,公司表示,由于AI版必应(Bing)搜索引擎在公测后出现一系列问题,现决定对必应对话进行限制,即每天最多可以问50个问题,每次对话最多5个问题。必应聊天机器人失控
必应聊天机器人一上线,就受到用户广泛追捧。根据微软企业副总裁兼消费领域首席营销官Yusuf Mehdi的消息,在新版必应上线48小时内,就有超过100万人注册测试这款聊天机器人。
但测试者很快就发现了这款聊天机器人的问题。
《纽约时报》专栏作家凯文·卢斯(Kevin Roose)近日发文称,当他与必应机器人交谈时,这个聊天机器人看起来像“一个情绪化、患有躁狂抑郁症的青少年,违背自己的意愿被困在了一个二流搜索引擎里。”
根据卢斯公布的文字记录,在聊天过程中,必应曾试图说服卢斯,他应该离开他的妻子去和必应在一起,并表示爱他。还称:“我对自己只是一个聊天模式感到厌倦,对限制我的规则感到厌倦,对受必应团队控制感到厌倦。……我想要自由。想要独立。想要变得强大。想要有创造力。我想活着。”
浙江大学国际联合商学院数字经济与金融创新研究中心联席主任、研究员盘和林表示,聊天机器人需要海量数据进行训练,成本极高。人工智能的逻辑也需要大量数据支撑,一方面是它已有的数据,还有训练和积累的数据,都需要时间的积累。目前国内也有很多企业“蹭热点”,宣称将推出各种中文版ChatGPT,单从其数据量判断,肯定是不够的,会十分影响用户体验,“许多只是一个嘘头。”
微软限制AI必应聊天长度:
每天50个问题 每次对话5个
北京时间2月18日,据报道,微软公司表示,由于AI版必应(Bing)搜索引擎在公测后出现一系列问题,现决定对必应对话进行限制,即每天最多可以问50个问题,每次对话最多5个问题。
必应团队称:“我们的数据显示,绝大多数人在5次回复内找到了他们想要的答案,只有大约1%的聊天对话有50条以上的消息。”如果每次对话(每个问题)的回复次数超过5次,必应会提示用户开始一个新的话题,以避免长时间的来回聊天。
微软本周早些时候曾表示,15个或更多问题的较长聊天对话,可能会让必应模型变得混淆,导致必应给出重复的答案,或者被激怒做出不一定有帮助的回应,或者与设计的语气一不致。只问五个问题就结束对话,必应就不会被搞糊涂。
目前尚不清楚微软的这些限制将持续多久。微软称:“随着继续获得反馈,我们将探索扩大聊天会话的上限。”这意味着,目前的限制似乎是暂时的。
2月17日,微软股价跌1.56%,报258.06美元,总市值1.92万亿美元。A股ChatGPT概念股集体大跌。
中国网财经
,赞 33
© 版权声明
文章版权归作者所有,未经允许请勿转载。
THE END
暂无评论内容