(资料图片)

斯坦福大学的一项新研究发现,热门生成式人工智能(AI)聊天机器人ChatGPT的能力在几个月内有所波动。研究人员评估了ChatGPT在几个月内如何处理不同的任务,发现ChatGPT的能力随时间推移而出现不一致。目前,ChatGPT有两个版本,免费的GPT-3.5模型和更智能、更快速的付费GPT-4版本。研究人员发现,GPT-4在3月份能够有效地解决数学问题,识别质数的准确率为97.6%。但三个月后,其准确率下降到了2.4%。而另一方面,GPT-3.5却变得更好,从7.4%的准确率提高到了86.8%。研究人员还注意到,在编写代码和视觉推理方面也有类似的波动。斯坦福大学计算机科学教授James Zou表示:“当我们调整一个大型语言模型来提高它在某些任务上的表现时,那可能会有很多意想不到的后果,可能会损害这个模型在其他任务上的表现……这个模型回答问题的方式有各种各样的相互依赖性,这可能导致我们观察到的一些恶化行为。”研究人员认为,结果并不能真正反映ChatGPT性能的准确性状态,而是显示了微调模型带来的意外后果。本质上,当修改模型的一部分来改善一个任务时,其他任务可能会受到影响。为什么会这样很难确定,因为没有人知道ChatGPT是如何运作的,而且它的代码也不是开源的。随着时间的推移,研究人员注意到,ChatGPT的回答不仅变得不太准确,而且还停止了解释其推理过程。由于ChatGPT的运作方式,要研究和衡量其表现可能很困难。这项研究强调了观察和评估驱动ChatGPT等工具的大型语言模型(LLM)性能变化的必要性。该研究已经在arXiv上发布,并正在等待同行评审。

推荐内容

热点新闻