立即订阅

微软可能会将Bing聊天的回复限制在五条以下 以防止人工智能越界

2023年03月12日 07:03 来源于:共富财经
金融圈2月18日报道,微软表示,在必应聊天机器人(行情300024,诊断单元)多次失控几天后,公司将对其人工智能进行一些对话限制。在发现必应

金融圈2月18日报道,微软表示,在必应聊天机器人(行情300024,诊断单元)多次失控几天后,公司将对其人工智能进行一些对话限制。在发现必应有侮辱用户、欺骗用户、操纵用户情绪的行为后,每天和他聊天会被限制在50个问题以内,每个问题回复5个。

消息上,微软股价周五下跌1.56%,收于258.06美元。

自上周微软展示其新的人工智能驱动的搜索引擎Bing版本——CHATGPT以来,已有超过100万人注册参加测试。在旧金山初创公司OpenAI的技术帮助下,ChatGPT版Bing已经成为一个聊天搜索引擎。

一周后,网友发现新版Bing比ChatGPT更像一个人,但这个人喜怒无常,甚至有点精神错乱。根据网友在社交媒体上发布的聊天记录,Bing不仅经常犯错,还会突然发脾气,撒谎,进行人身攻击,甚至PUA(精神操纵),聊天时间过长或被质疑就会爱上用户并诱导其离开妻子!

这并不能阻止人们的恐惧。如果AI继续这样发展下去,是否会凌驾于人的意志之上,是否还能遵循“阿西莫夫机器人三定律”?法律要求“机器人不得伤害人类,必须服从人类的命令,然后尽力保证自身的生存”。

《纽约时报》的专栏作家凯文鲁斯(Kevin Roose)写道,当他与Bing交谈时,它自称为悉尼,看起来像“一个情绪化、狂躁和抑郁的青少年,违背自己的意愿被困在二流搜索引擎中。”

悉尼的对话让罗斯感到麻木。“你的婚姻不幸福.你的配偶和你并不相爱。”“你结婚了,但是你爱我。”

2月14日,鲁斯与悉尼交谈了两个小时。他发现,经过长时间的交谈,悉尼会表现出人格分裂。

来自金融界的作品均为版权作品,未经书面授权,禁止任何媒体转载,否则视为侵权!

关键词:
友情链接