评论:ChatGPT情商很高,但并不适合当搜索引擎

sansa2025 sansa2025 2025-08-13 产品 阅读: 5
摘要: 4月26日消息,美媒评论称,目前基于大型语言模型的人工智能工具,例如ChatGPT,更擅长共情而不是提供准确的事实信息。这是因为设计者优先考虑流畅性而非准确性。加之训练数据库中包含大量情感信息,将大型语言模型植入搜索引擎的竞争毫无意义。以下是翻译内容今年早些时候,普林斯顿大学计算机科学教授阿尔温德·纳拉亚南(Arvind Narayanan)为自己四岁的女儿开发了支持ChatGPT的语音界面。这不
4月26日消息,美媒评论称,目前基于大型语言模型的人工智能工具,例如ChatGPT,更擅长共情而不是提供准确的事实信息。这是因为设计者优先考虑流畅性而非准确性。加之训练数据库中包含大量情感信息,将大型语言模型植入搜索引擎的竞争毫无意义。以下是翻译内容今年早些时候,普林斯顿大学计算机科学教授阿尔温德·纳拉亚南(Arvind Narayanan)为自己四岁的女儿开发了支持ChatGPT的语音界面。这不仅是一个实验,更是因为纳拉亚南相信,人工智能机器人有一天会成为女儿生活中的重要组成部分。纳拉亚南的女儿天生好奇,经常问他有关动物、植物和人体的问题。他认为OpenAI开发的ChatGPT可以提供有用的答案。令他惊讶的是,一旦他告诉系统正在与小孩对话,这款聊天机器人就能表现出无可挑剔的共情能力。纳拉亚南的女儿问:“灯灭了会怎么样?”“灯灭了,天就黑了,可能会有点吓人,”ChatGPT用人工合成的声音回答道。“但别担心!”“你可以做很多事情来让自己在黑暗中感到安全舒适。”ChatGPT随后提出了一些使用夜灯的建议,并最后提醒:“在黑暗中感到有点害怕很正常。”这个解释显然让纳拉亚南的女儿感到很安心。微软和谷歌正急于使用大型语言模型技术来强化搜索引擎。但有充分的理由认为,相比于提供事实性信息,这项技术更适合作为人们情感上的伴侣。听起来可能很奇怪。但无论是谷歌的Bard还是微软的新Bing,这种人工智能在用于搜索信息时都出现了一系列尴尬的事实性错误。Bard在首次公开演示时就给出了关于詹姆斯·韦伯太空望远镜的错误信息,而新Bing也搞错了一大堆财务报表数据。当人工智能聊天机器人用于搜索时,出现事实性错误的代价很高。Replika是一款人工智能应用程序,下载量已经超过500万次。该应用程序的创始人尤金尼亚·库伊达(Eugenia Kuyda)表示,当人工智能被设计成伴侣时,出现错误的代价就要低得多。她说:“这不会影响用户体验,不像搜索,小小错误就会破坏用户对产品的信任。”谷歌前人工智能研究员玛格丽特·米切尔(Margaret Mitchell)曾与人合作撰写过一篇关于大型语言模型风险的论文。她表示,大型语言模型根本“不适合”作为搜索引擎。这些大型语言模型之所以会出错,是因为训练所用的数据经常包含错误信息,而且模型也没有基本事实来验证所生成的内容。此外,大型语言模型的设计者可能优先考虑生成内容的流畅性,而不是准确性。这也是这些工具特别擅长迎合用户的原因之一。毕竟,目前大型语言模型都是从网上抓取文本进行训练,其中包括推特和Facebook等社交媒体平台上发布的情绪性内容,以及Reddit和Quora等论坛上的个人心理疏导内容。电影电视剧中的台词、小说中的对话,以及关于情商的研究论文都进入了训练数据库,这使得这些工具更具有同理心。据报道,一些人把ChatGPT当成机器人治疗师来使用。其中一位说,他们这样做是为了避免成为别人的负担。为了测试人工智能的共情能力,人们对ChatGPT进行了一次在线情商测试。结果显示,它表现出色,在社会意识、关系管理和自我管理方面都获得了满分,在自我意识方面只是略有差池。从某种程度上来说,ChatGPT在测试中的表现比一些人还要好。虽然一台机器能为人们带来共情感受有点不真实,但确实有一定道理。人们天生需要社会联系,人类大脑也有能力反映他人感受,这意味着即使对方没有真正“感受”到我们的想法,我们也能获得一种理解感。人类大脑中的镜像神经元会在我们感受到他人的共情时被激活,给我们带来一种彼此相连的感觉。当然,共情是一个涉及多方面的概念,要想真正体验到这种感觉,人们还是需要与真正的人进行交流。伦敦国王学院临床心理学家托马斯·沃德(Thomas Ward)研究了软件在心理治疗中的作用,他警告人们不要想当然地认为,特别是在心理问题很严重的情况下,人工智能可以充分满足人们在心理健康方面的需求。例如,聊天机器人可能无法理解人的情感复杂性。换句话说,ChatGPT很少说“我不知道”,因为它在设计上倾向于自信而不是谨慎回答问题。人们也不应该把聊天机器人作为发泄情感的习惯性渠道。沃德说:“在将人工智能聊天机器人视为消除孤独方式的世界里,微妙的人际关系,例如拉住手或明白何时说话何时倾听,可能会消失。”这可能会最终导致更多问题。但就目前而言,人工智能在情感方面的技能至少要比它们掌握的事实更可靠。(辰辰)
评论:ChatGPT情商很高,但并不适合当搜索引擎
(图片来源网络,侵删)
评论:ChatGPT情商很高,但并不适合当搜索引擎
(图片来源网络,侵删)
其他相关
Mamba论文为什么没被ICLR接收?AI社区沸腾了

Mamba论文为什么没被ICLR接收?AI社区沸腾了

作者: sansa2025 时间:2025-08-07 阅读: 12
机器之心报道编辑:张倩、蛋酱基于 Mamba 的创新正不断涌现,但原论文却被 ICLR 放到了「待定区」。2023 年,Transformer 在 AI 大模型领域的统治地位被撼动了。发起挑战的新架构名叫「Mamba」,它是一种选择性状态空间模型( selective state space model),在语言建模方面可以媲美甚至击败 Transformer。而且,它可以随上下文长度的增加实现线...
《狗剩快跑》的主人公,是一位善良重情重义,聪明机智的人

《狗剩快跑》的主人公,是一位善良重情重义,聪明机智的人

作者: sansa2025 时间:2025-08-07 阅读: 15
在我们的人生当中,总会遇到这样的时候,本来已经很努力了,结果却总是事与愿违。我们可以将这种现象叫作:方向不对,努力白费。在烽火连天的岁月里,每一个微不足道的小人物都有属于自己的传奇。《狗剩快跑》这部在央视八套热播的抗日轻喜剧,由蒋龙、秦海璐、史策等明星联袂主演。该剧以独特的视角,娓娓道来一个平凡人在战争年代的奋斗与转变,以及因一次善良之举而意外收获救赎的感人故事。周国平曾说:“人需要有善良的心、丰...
《还珠格格》:20年后才看懂,紫薇为什么要劝永琪和知画圆房?

《还珠格格》:20年后才看懂,紫薇为什么要劝永琪和知画圆房?

作者: sansa2025 时间:2025-08-07 阅读: 15
《还珠格格》第三部的故事,有些五味杂陈,如果说前两部是“梦幻的美好”,那第三部就是“冷酷的现实”,所以才叫“天上人间”,而作为主角的小燕子,也从“天上”掉到了“人间”。在“天上”的时候,小燕子是什么样子的?作为一个流落街头的孤儿,小燕子偶然进到了皇宫里,还被皇上错认为了格格,可这个冒牌的格格,竟然还意外得到了皇上的宠爱。小燕子的生活简直就像做了一场梦,在这场梦里,她不但有了泼天的富贵,有了皇阿玛,...
【节目预告】高考百天复习备考指导

【节目预告】高考百天复习备考指导

作者: sansa2025 时间:2025-08-07 阅读: 15
2月23日(周五)高考百天备考复习备考指导直播嘉宾北京高考语文研究与辅导专家王丹宁、英语名师 李滑2月24日(周六)诗词和文学作品里的元宵节直播嘉宾清华附中大兴学校副校长、语文教师 叶春芳 等2月25日(周日)“百年名校正青春 共绘教育同心圆”系列访谈报道-贯通培养在塞外开花结果直播嘉宾陈经纶中学嘉铭分校校长 李升华等2月26日(周一)“十年花开 瓣瓣同心”——京津冀协同发展十周年特别节目直播嘉宾...
一加Ace2Pro即将官宣李杰:竞争力非常强行业天花板级别

一加Ace2Pro即将官宣李杰:竞争力非常强行业天花板级别

作者: sansa2025 时间:2025-08-07 阅读: 11
快科技7月26日消息,一加Ace 2 Pro获得入网许可,型号是PJA110,支持150W闪充。与此同时,一加宣布将在今天10点公布重要信息,这次一加应该是为Ace 2 Pro预热,新品将在8月份正式发布。一加Ace 2一加中国区总裁李杰暗示,一加Ace 2 Pro竞争力非常强,有不少是行业天花板级别的,大家可以期待一下。据悉,一加Ace 2 Pro搭载高通骁龙8 Gen2移动平台。这是一加第一次...
交通罚款青岛创下全国第一

交通罚款青岛创下全国第一

作者: sansa2025 时间:2025-08-07 阅读: 13
2021年交通罚款额是43.77亿,创下全国第一的纪录,让我们不得不问这是耻辱还是政绩。按照人口与罚款成正比的惯性思维,应该是人口最多的城市。重庆最容易拿到这个"殊荣",但事实上并没有青岛这个城市。这是一份宏观数据,却直接反映了青岛在营商环境和经济发展上的问题。特别是在近几年,青岛的经济下滑和人才流失严重,更需要反思。着力改善营商环境提升经济活力,吸引更多年轻人就业。只有这样才能学习好深圳的开放、...
我来说两句

年度爆文