跳转至

🔥AI副业赚钱星球

点击下面图片查看

郭震AI

微软副总裁 Vik Singh 表示,人工智能聊天机器人应该“学会寻求帮助”,而不是“创造幻觉”。

编辑日期:2024年09月02日

自去年以来,微软、谷歌及其竞争对手一直在快速推出诸如ChatGPT和Gemini等生成式AI应用,这些应用能够按需生成各种内容,并给用户一种“无所不知”的感觉。尽管在生成式AI的开发上取得了进展,但它们仍会出现“幻觉”或编造答案的情况。

微软副总裁-vik-singh-表示人工

Vik Singh 坚持认为,“真正聪明的人”正在努力寻找方法,使聊天机器人在不知道正确答案时能够“承认并寻求帮助”。

与此同时,云端软件巨头Salesforce的首席执行官Marc Benioff在上周也表示,他发现许多客户对微软Copilot的表现存在误导性,并对此越来越感到沮丧。

近年来,人工智能迅速发展,聊天机器人等应用日益普及,人们可以通过简单的指令从这些聊天机器人(如ChatGPT)获取信息。然而,这些聊天机器人仍存在“幻觉”问题,即提供错误甚至危险的信息。造成“幻觉”的原因之一包括训练数据不准确、泛化能力不足以及数据采集过程中的偏差。

大家在看

京ICP备20031037号-1 | AI之家 | AI资讯 | Python200 | 数据分析