MIT与IBM共研大模型错误校准方法 提升大模型答案准确性增强用户信任

资讯 » 新科技 2024-07-31

随着人工智能技术的发展,大型语言模型被广泛应用于翻译、文章总结、金融诈骗识别等多种任务。但这些模型在提供高效服务的同时,也存在着对错误答案过于自信的问题,这引发了人们对模型可靠性的担忧。为了解决这一问题,麻省理工学院(MIT)与MIT-IBM Watson AI Lab的研究人员提出了一种新型的校准方法,他们称为“温度计”,这种方法通过构建一个较小的辅助模型,对大型语言模型进行校准,以提高其准确性和可信度。

这一方法采用了“温度缩放”这一经典校准技术。在这个框架中,“温度”作为一个缩放参数,用于调整模型的“信心”,使其与预测准确性相匹配。研究人员训练的辅助模型能够在大型语言模型之上运行,自动预测校准新任务所需的“温度”。

“温度计”只需访问大型语言模型内部的一小部分,就能为特定任务数据点预测出正确的“温度”,以实现更精准的校准。这种方法不仅减少了计算资源的需求,而且能够在面对新任务时,提供更准确的校准响应。

研究团队对其应用场景充满期待,他们希望“温度计”能够支持更复杂的文本生成任务,并在更大的语言模型中得到应用,从而推动人工智能技术向更可靠、更高效的方向发展。



免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。由用户投稿,经过编辑审核收录,不代表头部财经观点和立场。
证券投资市场有风险,投资需谨慎!请勿添加文章的手机号码、公众号等信息,谨防上当受骗!如若本网有任何内容侵犯您的权益,请及时联系我们。