Board logo

标题: AI有个最不智能地方是不会像人一样说不知道 [打印本页]

作者: 道克斯    时间: 2025-8-6 22:41     标题: AI有个最不智能地方是不会像人一样说不知道

posted by wap, platform: iOS
或者说不确定,不管真假对错都给你整几句,问它越小众冷门的问题越容易露怯

目前来讲,还无法完全替代搜索引擎
作者: Squallgjs    时间: 2025-8-6 22:46

涉及设备参数的问题特别喜欢瞎编,数据库里面没有也给你硬编一个出来,现在搜设备参数类的还是传统搜索引擎
作者: pocketmom    时间: 2025-8-7 08:05

posted by wap, platform: Android
自注意力机制是这样的。本身模型底层缺陷。好点的就是结合搜索引擎和rag。
作者: fash    时间: 2025-8-7 08:15

这不就是那个图灵测试悖论么……
作者: sunjianxi    时间: 2025-8-7 12:22

posted by wap, platform: Android
这个是ai的“幻觉”问题。恰恰是这种向量化和泛化的机制,才有了现在ai的底层逻辑。本质上,ai就是一个持续做梦的机器,梦到我们所认为的逻辑错误的情景也是它机制的一部分。其实,人这个模型又何尝不是活在一个相对逻辑完备的梦境中呢。幻觉恰恰是ai能成为ai的了不起的地方。
现在很多模型不断的采用各种策略降低幻觉发生频次和影响范围,你也可以用一些诸如“得出结论要反向核查,重点检查幻觉和逻辑错误,同时把关键结论的引用出处做信源检查并列出引用地址”这类的提示词,来部分解决这个问题。

本帖最后由 sunjianxi 于 2025-8-7 12:24 通过手机版编辑
作者: sunjianxi    时间: 2025-8-7 12:22

posted by wap, platform: Android
所以,总结下,我觉得ai给出的“幻觉“(错误答案),恰恰是它们最为智能的一种体现。
经常有人说“世界就是个草台班子”,其实我们的世界里本来就充斥着大量幻觉,这种混乱才是这个世界的本质吧

本帖最后由 sunjianxi 于 2025-8-7 12:24 通过手机版编辑
作者: klites    时间: 2025-8-7 12:25

因为transform模型的ai都是猜,它只是输出计算范围内概率最高的文字给你看
作者: somesun    时间: 2025-8-7 12:53

posted by wap, platform: Android
你提示它,不确定就说不知道就行了
作者: maybach    时间: 2025-8-7 15:40

posted by wap, platform: MAC OS X
可以通过提示词来进行优化, 本质上就是一个相似的推断, 让他提高问答质量和阈值就可以了。 一般做agent的会这样设定。
但是一般人都是通用性的问答, 也懒得去配置一大堆提示词来获得优秀的回答, 而是通过多轮上下文来理解。
作者: dragong    时间: 2025-8-7 16:55

怎么不会,连siri都会
作者: mting    时间: 2025-8-7 17:43

posted by wap, platform: iPhone
这个是个工程问题
生产环境常规的做法
回让它自检查一次
提问(人)-回答(ai)-检查问题加前面的答案 只回答对错(ai)
如果对就返回答案 如果错就返回不知道
代价就是token开销变大
作者: 道克斯    时间: 2025-8-7 19:49

posted by wap, platform: Chrome
我反省了一下,遇到ai回答有错误基本上都是和中国相关的问题,因为中文互联网信息太乱、错误的信息也很多,导致ai在搜索汇总的时候难免出错,因为ai是无法分辨互联网消息真假的,只能默认都是真的,而冷门的问题又很少有多重渠道信息用来对比辨别,这才导致“胡乱答”的结果
这个锅一半是ai的综合能力还有待提升,另一半是国人说话做事不严谨
作者: aso    时间: 2025-8-8 01:11

posted by wap, platform: iPhone
但ai会说“对不起我错了”。。。
这起码战胜了99%的中国人。。。
作者: urtoys    时间: 2025-8-8 08:37

引用:
原帖由 aso 于 2025-8-8 01:11 发表
posted by wap, platform: iPhone
但ai会说“对不起我错了”。。。
这起码战胜了99%的中国人。。。
战胜了100%的泥潭人。
作者: hisame    时间: 2025-8-8 10:07

posted by wap, platform: Android
chatgpt5新特征已经开始减少幻觉了
作者: hikari34    时间: 2025-8-8 21:45

提问的越精确,幻觉越少
AI对领域内专业人士的帮助远远超过对小白的帮助
作者: 雨中芭蕾    时间: 2025-8-13 11:15

你不觉得中年老男人也是如此么,懂不懂都要胡诌几句
作者: 天涯夹心人    时间: 2025-8-13 11:22

posted by wap, platform: Chrome
这一套配合泥锅老年人手机app绝了,搜一个问题,巴拉巴拉一段虚虚实实的,然后还和你说网上讲的。
作者: 道克斯    时间: 2025-8-13 11:35

posted by wap, platform: Chrome
gpt这次更新后在页面最下方有个提示
作者: sharonsl    时间: 2025-8-17 06:14

posted by wap, platform: VIVO
因为现在的AI还不知道自己不知道
作者: alfredxi    时间: 2025-8-17 12:48

posted by wap, platform: iPhone
引用:
原帖由 @道克斯  于 2025-8-13 11:35 发表
gpt这次更新后在页面最下方有个提示
这提示一直都有啊
作者: LTFYH    时间: 2025-8-18 06:47

posted by wap, platform: VIVO
这事的根源其实是ai本身的机制造成的,ai都是计算概率的,本身又是大语言模型,理论上来说语言文字之间的联系概率上来说不会为0
作者: 道克斯    时间: 2025-8-26 21:07

posted by wap, platform: Chrome
09年冠军是梅原大吾

还是像上面我分析的那样,是不是用中文提问ai就只搜索中文网页然后汇总,中文网页又有很多错误,所以答案就容易出错
这年头不会一门外语就没法做学问了吗
作者: SpikeoutFE    时间: 2025-8-26 21:22

引用:
原帖由 aso 于 2025-8-8 01:11 发表
posted by wap, platform: iPhone
但ai会说“对不起我错了”。。。
这起码战胜了99%的中国人。。。
说到点上了,不过很多时候AI更正后的答案仍然是胡说八道
作者: stsun7    时间: 2025-8-27 09:07

总是要慢慢发展的
作者: xiaogao    时间: 2025-8-27 10:24

引用:
原帖由 道克斯 于 2025-8-26 21:07 发表
posted by wap, platform: Chrome
09年冠军是梅原大吾

还是像上面我分析的那样,是不是用中文提问ai就只搜索中文网页然后汇总,中文网页又有很多错误,所以答案就容易出错
这年头不会一门外语就没法做学问了吗
我用gemini pro,中文和它说,它会搜英文
作者: 道克斯    时间: 2025-12-11 03:50

posted by wap, platform: iOS
牛逼,用简中提问就糊弄你
作者: 865261    时间: 2025-12-11 07:41

posted by wap, platform: iPhone
喷了,人才是不会说不知道……
你比如那谁
作者: skeles    时间: 2025-12-11 08:29

posted by wap, platform: iPhone
Ai幻觉的原因是Ai不是搜索引擎,Ai的逻辑就是基于文字间相互关系的复杂计算而且是黑箱运算,编写Ai的人都不知道Ai怎么算出来的,所以说Ai给出错误答案并不是像人类一样不懂装懂骗人,而是基于它的逻辑真的认为自己是懂的
作者: Alloyo    时间: 2025-12-14 12:11

posted by wap, platform: Chrome
用充满谎言谣言废话的互联网来训练,自然出来一个废话文学机
作者: manvvvv    时间: 2025-12-14 12:36

能不能不要胡扯去自己试试
作者: manvvvv    时间: 2025-12-14 12:40

引用:
原帖由 道克斯 于 2025-12-11 03:50 AM 发表
posted by wap, platform: iOS
牛逼,用简中提问就糊弄你
简中互联网就是各种信息污染+信息封锁,我用简中提问台积电美国工厂开始大规模生产了吗,然后得到的回答是没有233

[ 本帖最后由 manvvvv 于 2025-12-14 12:44 编辑 ]
作者: rhotov    时间: 2025-12-14 13:25

posted by 论坛助手, platform: iPhone
引用:
原帖由 xiaogao 于 2025-08-27 10:24 发表
我用gemini pro,中文和它说,它会搜英文
换个节点,台湾或者新加坡,就搜中文了
作者: 道克斯    时间: 2025-12-14 13:28

posted by wap, platform: Android
引用:
原帖由 @manvvvv  于 2025-12-14 12:40 发表
简中互联网就是各种信息污染+信息封锁,我用简中提问台积电美国工厂开始大规模生产了吗,然后得到的回答是没有233
所以26楼的说法不成立,至少现在不是了

用ai和搜索引擎一样,都是能用英文别用中文,除非对中文结果有特殊需求
作者: 道克斯    时间: 2025-12-14 13:39

posted by wap, platform: Android
引用:
原帖由 @rhotov  于 2025-12-14 13:25 发表
posted by 论坛助手, platform: iPhone

换个节点,台湾或者新加坡,就搜中文了
不知道日文环境如何
目前来看,中文用户很明显是被区别对待了
作者: sceic    时间: 2025-12-17 17:15

posted by wap, platform: Android
其实会的,只要你让它从可靠来源进行回答。




欢迎光临 TGFC Lifestyle (http://tgfcer.com/) Powered by Discuz! 6.0.0