跳转至

🔥AI副业赚钱星球

点击下面图片查看

郭震AI

英国格拉斯哥大学哲学研究人员谈ai-幻觉用胡说八道来形容更准确

6月8日,以当地时间为基准,《伦理与信息技术》期刊发布了一篇来自三位研究者的论文。该论文中,研究人员提出,对于聊天机器人那种随意编造答案的现象,不应该被定义为“幻觉”,而应更恰当地用“胡说八道”这个词来界定。

研究者们指出,对于熟悉心理学或者有过迷幻药物体验的人来说,“幻觉”往往意味着察觉到并不存在的事物。然而,在人工智能领域,尤其是大型语言模型中,“幻觉”这一概念是比喻性的。这些模型实际上无法看见或感知任何事物,它们只是复制了训练数据中的人类语言模式,对事实的真实性并无关注,只是按部就班地给出反馈。

据研究人员的见解,人工智能模型缺乏信念、目标或理解能力,其出错并非源于错误的理解或幻想。它们旨在生成看似合理、听似准确的文本,但缺乏一种内在的“保障机制”来验证信息的真实性。

image

我们曾反复探讨过“人工智能幻觉”这一主题,如近期发生的“谷歌搜索建议用户在比萨中添加胶水”的事件,以及马斯克的Grok项目“错误地认为”自身隶属于OpenAI的情况等。

去年,《剑桥词典》宣布将“hallucinate”选为2023年的年度词汇,这个词原本描述的是人们在不健康状态或药物影响下感知到并不存在的事物,如看见、听见、感觉到或闻到虚假的东西。随着人工智能技术的发展,“hallucinate”一词也引申出了新的含义,指AI生成了错误的信息或误导性的内容。

大家都在看

Python小白教程:点击学习

数据分析练习题:点击学习

AI资料下载:点击下载

大家在看

京ICP备20031037号-1 | AI之家 | AI资讯 | Python200 | 数据分析