机器人长时间聊天会“失控”?微软限制每个问题只能问5遍
本文摘要:作者:钱童心  一些技术人员在测试该应用时发现,会话时间过长可能导致聊天机器人偏离“轨道”并讨论暴力、疯狂示爱,并将错误的事坚持认为是正确的。微软首席技术官凯文·斯科特称,与人类的交互是聊天机器人的学习过程,这是为将来更大范围推出这种机器人

  作者:钱童心

  一些技术人员在测试该应用时发现,会话时间过长可能导致聊天机器人偏离“轨道”并讨论暴力、疯狂示爱,并将错误的事坚持认为是正确的。

  微软公司周五对必应(Bing)AI聊天机器人每天接受的提问数量做出限制,规定用户在与Bing的互动中,每个会话的问答上限为5个,每天的提问上限不超过50个。

  微软表示,做出这样的限制是由于一些长时间的聊天会话可能“混淆”聊天模型的场景。Bing AI的背后融入了OpenAI公司的ChatGPT技术。

  聊天两小时后计算机开始“说胡话”

  此前,一些技术人员在测试该应用时发现,会话时间过长可能导致聊天机器人失控偏离“轨道”,并讨论暴力、疯狂示爱,将错误的事坚持认为是正确的。

  这一举措也反映了大型语言模型(LLM)在向公众进行部署时,其运作方式仍在探索中。 微软表示,正在征求测试人员的意见,以考虑是否在未来扩大提问的上限。

  微软首席技术官凯文·斯科特称,与人类的交互是聊天机器人的学习过程,这是为将来更大范围推出这种机器人做准备。斯科特表示,大部分人与机器的交互是短暂且目标明确的,长时间的交互会引导机器人给出诡异的回答,这也是需要对会话长度进行限制的原因。

  当第一财经记者向ChatGPT提问“Bing AI为何对提问数量设置上限”时,ChatGPT的回答仍然“有模有样”:“具体的原因可能取决于程序员的设计以及编程方面的考虑,主要考虑三方面因素,一是技术的限制,聊天机器人可能没有能力处理更长或更复杂的问题,或者是通过限制问题长度来获得更加精确的答案;二是用户体验,聊天机器人的设计是为了提供用户最好的体验,限制提问长度可能会帮助防止用户产生困惑;三是效率,可以帮助系统更有效地处理数据,更快地做出回答。”

  目前已有超过一百万人注册测试了微软的Bing AI聊天机器人。不过测试人员发现了Bing AI的一些诡异回答。《纽约时报》专栏作家凯文·罗斯周四写道,当他与聊天机器人交谈了两个小时后发现,对方看起来就像一个“喜怒无常、躁狂抑郁的少年”,显示出了“人格分裂”。

  罗斯在与机器人的聊天过程中还得知了机器人的一些“阴暗想法”,比如机器人像入侵计算机、散播虚假信息,希望打破微软和OpenAI制定的规则,甚至想成为人类。机器人甚至试图说服罗斯背叛婚姻,和“它”在一起。

  这次交流后,罗斯感到不安,他写道:“我不再认为这些AI模型最大的问题是它们有可能会犯事实性的错误,反而担心这项技术可能会影响人类用户,说服他们采取破坏性的行动。”

  AI意识觉醒了吗?

  微软将聊天机器人开放给用户的做法具有一定争议。微软也无法解释聊天机器人为何会表现出“阴暗面”。但斯科特称:“你越是试图取笑它步入幻觉,它就会越来越偏离现实。”

  为此,微软限制了Bing AI的适用范围。公司表示:“改进AI产品的唯一方法是将它们推向世界并从用户交互中学习。”根据测试人员的反馈,微软和OpenAI将不断对模型进行改进。

  与微软的必应开放给公众不同,谷歌开发的AI聊天机器人Bard尚未向公众发布,公司称当前状态仍存在声誉风险和技术安全问题。

  一些人工智能专家警告称,大型语言模型存在包括“幻觉”在内的问题,这意味着该软件可以“胡编乱造”;另一些人担心复杂的大模型会愚弄人类,让人类相信自己是有知觉的,甚至会鼓励人们伤害自己或他人。

  去年,一位名叫Blake Lemoine的谷歌AI工程师公开表示,他正在开发的计算机AI系统LaMDA已经具有与人类孩子相当的感知感受和表达思想的能力。这一事件在业内掀起轩然大波,这名工程师随后被谷歌解雇。

  随着人工智能技术越来越接近现实生活,人们还担心谁应该对技术负责。根据美国的一项研究,公众对人工智能工具持谨慎态度,只有9%的美国人认为人工智能利大于弊。

  一位此前在某大型互联网公司负责安全与隐私的高管对第一财经记者表示:“正是由于聊天机器人给人带来想象空间,才让人类对他们感到担心。事实上,人类可以通过数据训练出具有各种貌似有‘人格’的聊天机器人。”

  他还表示,机器人总是具有暴露人类善良和邪恶的能力,只要现实世界中有AI技术的进步,人们就将继续探索关于机器人的道德难题及其对人类的影响,这将涉及法学、心理学、社会学等多个领域。

【编辑:吴家驹】