聊天机器人胡说八道牛津研究人员利用语义熵来识破-ai幻觉
"幻觉"现象的发生往往源于训练数据的失准、模型的泛化性能不强以及数据收集阶段的潜在问题。然而,牛津大学的研究团队提出了一个创新的视角,他们在近期的《自然》期刊上详尽阐述了一种新颖的策略,旨在检测大型语言模型(LLMs)所产生的“虚构”信息,即那些无根据的错误内容。
LLM依靠识别训练数据中的特定模式来形成回应,但这种策略并不总是准确无误。这就像人们有时能在云朵的形态中幻觉出动物形象,AI系统也可能误判,捕捉到实际上并不存在的规律。然而,人类理解云朵仅是视觉效果,天空中并无实际的大象在飞翔。相反,LLM可能会将这些错觉视为现实,因此可能“创造”出不存在的新技术或错误信息。
牛津大学的学者们借助语义熵这一理论,通过概率分析来评估LLM是否可能出现“认知偏差”。语义熵是指一个词汇可能蕴含的多重意义,比如“desert”即可指代荒漠,也可表示离弃的行为。当LLM在使用这类多义词时,其传达的意图可能产生混淆。研究人员通过测量语义熵,旨在识别LLM的输出是否存在“误导性”或“误解”的潜在风险。
利用语义熵的方法独特之处在于它能够无须额外的监督或强化学习机制,迅速识别出LLM(大型语言模型)的“幻想”错误。由于这种方法不局限于特定任务的数据,因此当LLM面对全新的任务挑战时,依然可以有效地运用。这极大地增强了用户对LLM的信任度,即使在AI首次遭遇未知问题或指令的情况下,也能保持信心。
据研究团队所述,他们的方法能够使用户洞察到何时应当谨慎对待 LLM 的结果,并且为那些以往因可靠性问题而受限的 LLM 应用场景开拓了新的可能性。
假如语义熵确实被证实为一种有效的鉴别“虚幻”反应的方法,那么我们可以借助这样的工具对AI生成的内容进行双重验证,以期使人工智能成为更为值得信赖的合作伙伴。但要谨记,正如人类并非完美无缺,即使装备了最尖端的错误识别技术,LLM 也仍有犯错的可能性。所以,持续谨慎地审查ChatGPT等聊天机器人的回复,依然是一个理性的选择。
大家都在看
Python小白教程:点击学习
数据分析练习题:点击学习
AI资料下载:点击下载