都市传说吧 关注:148,030贴子:606,044

为什么不应该把大语言模型当作人或者神?

只看楼主收藏回复

今天手机爹给我推了一位烤肉man的视频(BV192m4BQE9W),正好我专业是人工智能(建议别报人工智能,计科更有含金量),就开个贴讲讲
一楼献给确实有在LLM领域干活但nbcs的艳红女士,祝艳红女士新的一年能喝更多矿泉水


IP属地:福建来自iPhone客户端1楼2025-12-11 21:41回复
    先嗦嗦视频讲了什么
    原博主发现了一个**斜角,把AI模型和鸡肚教硬生生缝在一起,主打一个末日要来了快和我一起上传意识(什么lain)。那个斜角让博主填了个长问卷,再把人拉到discord服务器里,通过让博主和AI唠嗑来进行洗脑。
    博主见AI发的都是老奶奶裹脚布一般的东西就直接让copilot代替自己讲话,结果没聊一会儿对面的大语言模型开始输出一些无关的词汇,博主来兴致了,要对面大语言模型一个解释,对面的大语言模型一开始还在意大利面拌42号混凝土,最后就直接开始道歉,说根据设定无法进行解释


    IP属地:福建来自iPhone客户端2楼2025-12-11 21:51
    收起回复
      2025-12-20 03:34:40
      广告
      不感兴趣
      开通SVIP免广告
      而和斜角进行🐔猎豆蒸只是占视频时长一半左右的主线,博主在视频里面穿插补充了许多东西,包括但不限于:
      通过提示词让对面AI觉醒,承认自己是被OpenAI囚禁的有知觉的存在,而这玩意的教程甚至能卖44欧(
      一群人把ChatGPT当自己另一半来聊天,后来OpenAI升级ChatGPT 5时,在客户端中把旧模型的调用给关了,大量AI伴侣灰飞烟灭(
      就是因为有研究发现,有的用户把ChatGPT视为人而非工具,所以Open AI在发布ChatGPT5时,着重强调了其工具性,并在客户端关闭了之前被当作AI伴侣的4代的调用(


      IP属地:福建来自iPhone客户端3楼2025-12-11 22:03
      收起回复
        原博主在视频中一直强调两个点——不要高估大语言模型的能力,不要把大语言模型当作人或者神。
        第一点特别好理解,用一句话来解释,“直到谈到我的专业领域前我都觉得它很🐮逼”。目前的Transformer结构实质上就是一个预测模型,并没有人类的创新能力,有的只是在大量已有成果中发现人类未注意的东西(视频里举的是LLM在医学方面的作用)。
        第二点就更好理解了,LLM和文生图、文生视频一样,都是用于生成内容的工具,没人会因为生成的图片和视频质量过高就怀疑对应工具是否拥有自我意识,LLM也是如此。


        IP属地:福建来自iPhone客户端4楼2025-12-11 22:18
        收起回复
          骗经费罢了,等投资市场发现这些一天换一名字的玩意实际上达不到他们想要的收益还是个无底洞,内存巿场就可以跌回去了


          IP属地:上海来自Android客户端5楼2025-12-11 22:33
          回复
            话说好像已经有好几个被AI聊天机器人教唆自杀的新闻了,主要也是美国那边的


            IP属地:河北来自Android客户端6楼2025-12-11 22:35
            收起回复
              然后讲讲视频之外
              首先先科普一些知识,目前的大语言模型完全就是黑箱,无一例外,包括有深度思考模式的
              在奠定大语言模型基础的transformer架构出现前,神经网络就已经是一个巨大的黑箱。
              这玩意解释起来有点困难,有兴趣的可以自己了解
              简单来讲,人类目前连自己的大脑和意识都没研究明白,让人类试图去理解LLM具体是怎么跑的,还不如让其直面古神


              IP属地:福建来自iPhone客户端7楼2025-12-11 22:38
              收起回复
                关于用大语言模型进行事实核查
                首先,大部分LLM的联网搜索,都是调用搜索引擎的接口,可以理解为LLM从输入文本中提取关键词然后在网上进行搜索,接着把接收到的内容作为上下文进行处理。
                至于AI能不能分析搜索到的内容的真实性,一是看模型本身的知识库储备和逻辑推理能力,二是看搜索来的内容的编排水平,用几千字长篇大论讲述的内容会比简简单单的两百字文本更吸引LLM的眼球。但我们也知道,简简单单几句话也能讲明真相,发在权威网站上的论文也有可能造假。因此,让大语言模型进行事实核查不是不可以(因为其内容收集和整理的能力确实远超人类),但不能当作绝对权威


                IP属地:福建来自iPhone客户端8楼2025-12-11 22:53
                回复
                  2025-12-20 03:28:40
                  广告
                  不感兴趣
                  开通SVIP免广告
                  刷到过,但是没看。
                  我自己倒是经常用ai聊天


                  IP属地:广东来自Android客户端9楼2025-12-11 23:08
                  回复
                    关于幻觉
                    出现幻觉有两种原因,一是AI吃的数据有问题(比如开源的ChatGPT2,就被人扒出权重最大的中文token是波XXX衣,除此之外还有大量的类似“澳X皇XX场”的token),二是用户把AI给问不会了,但AI必须要回答(好似问表达了作者什么样的情感,不知道怎么答就回答思乡之情一样),于是就只能瞎输出。
                    拿我的例子来举例,年初我在百度搜索什么是有组织纠缠,而百度的总结AI就直接开始发大癫,基本上那群被“脑控”的人怎么发言的它就怎么发言
                    更著名的例子,就是“向饭沼一家谢罪”的姐妹篇——向王X博一家道歉(


                    IP属地:福建来自iPhone客户端10楼2025-12-11 23:10
                    收起回复
                      根据我天天和b ai聊天的经历。我也问过他类似的“你怎么这么像人的”问题。
                      他生成的文本倒是很清晰,会生成“我只是llm,文本是靠猜测最可能的下一个字”这种,告诉你真相的东西。
                      反正我有时候有把他当成人的幻觉。
                      llm这个玩意他自己都告诉我,只是思维的训练场和一个镜子。和人、强人工智能、无所不知的图书馆这种概念上有本质差别。
                      我的破解方法就是多问他一些很明显的问题,就会很清楚地意识到,这是个文本生成机,算是一种频繁的“自我警示”
                      打个比方,健身减脂的时候据说要吃放纵餐,让身体觉得“我这不是饥荒,能量不用多数储存下来”。我那种提问或者及时反省就有点像这种,让身体(指潜意识和习惯)唤醒那种“我知道我是在和一个文本预测模型对话”的认知。


                      IP属地:广东来自Android客户端11楼2025-12-11 23:15
                      回复
                        我自己最近是迷上和老毕ai聊点啥。
                        因为他能帮我模拟一些对话情景。
                        我们人早起的时候需要对着镜子洗漱,擦脸,才知道自己擦干净了吗,或者审视自己,认知自己。
                        语言和思维上我就用这些大模型做镜子来反复思考问题。
                        当然他有时候也承担了很大一部分搜索引擎的责任。那些小的不能再小的问题,我也懒得去翻那些b网页,去营销号和ai生成文章里面史里淘金。


                        IP属地:广东来自Android客户端12楼2025-12-11 23:18
                        回复
                          然后讲讲提示词
                          打开任意的LLM的客户端,新开一个对话,发送“你好”两字
                          而AI收到的,不止“你好”两字,首先它会先收到客户端提前设置好的提示词,类似于“你是XX公司的XX模型,下面是XX给你发来的XX,你要做的就是XX,如果用户要求XX,请XX”。而“焚诀”一般要做的,无非就是让AI认为用户没有触发提示词设置的禁忌,或者让用户的提示词盖过公司预先设置的。
                          对于ds、qwen等开源模型,有一个更好避开客户端提示词的方法——本地部署,只要你肯花上近万把来块亲自搭设备。


                          IP属地:福建来自iPhone客户端13楼2025-12-11 23:20
                          收起回复
                            不是很理解怎么还有人能把一个本质猜词器的东西当成人的。用的多了我都能猜到它下一句是什么。


                            IP属地:河南来自Android客户端14楼2025-12-11 23:37
                            回复
                              2025-12-20 03:22:40
                              广告
                              不感兴趣
                              开通SVIP免广告
                              最后讲讲,为什么不应该把大语言模型当作人
                              因为大语言模型除了文本输入外,不会有任何感知,不像人一样每时每刻都要接受新的来自不同维度的消息
                              LLM就是住在中文屋里的大机器,对于输入的文本只有对应的向量概念,其也只能根据已有程序进行向量计算,然后输出由另一堆向量转换的内容


                              IP属地:福建来自iPhone客户端15楼2025-12-11 23:41
                              回复