误解三:「#ChatGPT 解决不了来源准确性和新闻即时性的问题,这是#大语言模型 的硬伤。」
大语言模型本身如何保证「正确」是一个复杂的问题。但在普通人的应用角度,这件事可以非常轻易地从工程上绕过去。今天 Bing 的试用已经逐步铺开了(见附图),附图里是关于2023年的时事的提问(而众所周知 ChatGPT 的训练语料完全来自2021年之前),你会看到它的回答非常准确,而且每句话都附上了#来源链接。这是因为 ChatGPT 或类似的大语言模型并不应该被理解为一个从零开始的静态知识库,而是一个可以动态附着在其他信息源上的 layer(「作为一种服务的自然语言界面」)。因此,哪怕用最笨的方式,搜索引擎至少可以当场把传统的搜索结果喂给它,它再以一种对话的方式把它呈现出来,而这就间接解决了准确性和即时性的问题(至少不差于传统#搜索引擎)。
https://weibo.com/1644684112/Msk5YyYbb