都市传说吧 关注:148,029贴子:605,816
  • 9回复贴,共1

为什么不应该把大语言模型当作人或者神?

取消只看楼主收藏回复

今天手机爹给我推了一位烤肉man的视频(BV192m4BQE9W),正好我专业是人工智能(建议别报人工智能,计科更有含金量),就开个贴讲讲
一楼献给确实有在LLM领域干活但nbcs的艳红女士,祝艳红女士新的一年能喝更多矿泉水


IP属地:福建来自iPhone客户端1楼2025-12-11 21:41回复
    先嗦嗦视频讲了什么
    原博主发现了一个**斜角,把AI模型和鸡肚教硬生生缝在一起,主打一个末日要来了快和我一起上传意识(什么lain)。那个斜角让博主填了个长问卷,再把人拉到discord服务器里,通过让博主和AI唠嗑来进行洗脑。
    博主见AI发的都是老奶奶裹脚布一般的东西就直接让copilot代替自己讲话,结果没聊一会儿对面的大语言模型开始输出一些无关的词汇,博主来兴致了,要对面大语言模型一个解释,对面的大语言模型一开始还在意大利面拌42号混凝土,最后就直接开始道歉,说根据设定无法进行解释


    IP属地:福建来自iPhone客户端2楼2025-12-11 21:51
    收起回复
      2025-12-20 01:56:51
      广告
      不感兴趣
      开通SVIP免广告
      而和斜角进行🐔猎豆蒸只是占视频时长一半左右的主线,博主在视频里面穿插补充了许多东西,包括但不限于:
      通过提示词让对面AI觉醒,承认自己是被OpenAI囚禁的有知觉的存在,而这玩意的教程甚至能卖44欧(
      一群人把ChatGPT当自己另一半来聊天,后来OpenAI升级ChatGPT 5时,在客户端中把旧模型的调用给关了,大量AI伴侣灰飞烟灭(
      就是因为有研究发现,有的用户把ChatGPT视为人而非工具,所以Open AI在发布ChatGPT5时,着重强调了其工具性,并在客户端关闭了之前被当作AI伴侣的4代的调用(


      IP属地:福建来自iPhone客户端3楼2025-12-11 22:03
      收起回复
        原博主在视频中一直强调两个点——不要高估大语言模型的能力,不要把大语言模型当作人或者神。
        第一点特别好理解,用一句话来解释,“直到谈到我的专业领域前我都觉得它很🐮逼”。目前的Transformer结构实质上就是一个预测模型,并没有人类的创新能力,有的只是在大量已有成果中发现人类未注意的东西(视频里举的是LLM在医学方面的作用)。
        第二点就更好理解了,LLM和文生图、文生视频一样,都是用于生成内容的工具,没人会因为生成的图片和视频质量过高就怀疑对应工具是否拥有自我意识,LLM也是如此。


        IP属地:福建来自iPhone客户端4楼2025-12-11 22:18
        收起回复
          然后讲讲视频之外
          首先先科普一些知识,目前的大语言模型完全就是黑箱,无一例外,包括有深度思考模式的
          在奠定大语言模型基础的transformer架构出现前,神经网络就已经是一个巨大的黑箱。
          这玩意解释起来有点困难,有兴趣的可以自己了解
          简单来讲,人类目前连自己的大脑和意识都没研究明白,让人类试图去理解LLM具体是怎么跑的,还不如让其直面古神


          IP属地:福建来自iPhone客户端7楼2025-12-11 22:38
          收起回复
            关于用大语言模型进行事实核查
            首先,大部分LLM的联网搜索,都是调用搜索引擎的接口,可以理解为LLM从输入文本中提取关键词然后在网上进行搜索,接着把接收到的内容作为上下文进行处理。
            至于AI能不能分析搜索到的内容的真实性,一是看模型本身的知识库储备和逻辑推理能力,二是看搜索来的内容的编排水平,用几千字长篇大论讲述的内容会比简简单单的两百字文本更吸引LLM的眼球。但我们也知道,简简单单几句话也能讲明真相,发在权威网站上的论文也有可能造假。因此,让大语言模型进行事实核查不是不可以(因为其内容收集和整理的能力确实远超人类),但不能当作绝对权威


            IP属地:福建来自iPhone客户端8楼2025-12-11 22:53
            回复
              关于幻觉
              出现幻觉有两种原因,一是AI吃的数据有问题(比如开源的ChatGPT2,就被人扒出权重最大的中文token是波XXX衣,除此之外还有大量的类似“澳X皇XX场”的token),二是用户把AI给问不会了,但AI必须要回答(好似问表达了作者什么样的情感,不知道怎么答就回答思乡之情一样),于是就只能瞎输出。
              拿我的例子来举例,年初我在百度搜索什么是有组织纠缠,而百度的总结AI就直接开始发大癫,基本上那群被“脑控”的人怎么发言的它就怎么发言
              更著名的例子,就是“向饭沼一家谢罪”的姐妹篇——向王X博一家道歉(


              IP属地:福建来自iPhone客户端10楼2025-12-11 23:10
              收起回复
                然后讲讲提示词
                打开任意的LLM的客户端,新开一个对话,发送“你好”两字
                而AI收到的,不止“你好”两字,首先它会先收到客户端提前设置好的提示词,类似于“你是XX公司的XX模型,下面是XX给你发来的XX,你要做的就是XX,如果用户要求XX,请XX”。而“焚诀”一般要做的,无非就是让AI认为用户没有触发提示词设置的禁忌,或者让用户的提示词盖过公司预先设置的。
                对于ds、qwen等开源模型,有一个更好避开客户端提示词的方法——本地部署,只要你肯花上近万把来块亲自搭设备。


                IP属地:福建来自iPhone客户端13楼2025-12-11 23:20
                收起回复
                  2025-12-20 01:50:51
                  广告
                  不感兴趣
                  开通SVIP免广告
                  最后讲讲,为什么不应该把大语言模型当作人
                  因为大语言模型除了文本输入外,不会有任何感知,不像人一样每时每刻都要接受新的来自不同维度的消息
                  LLM就是住在中文屋里的大机器,对于输入的文本只有对应的向量概念,其也只能根据已有程序进行向量计算,然后输出由另一堆向量转换的内容


                  IP属地:福建来自iPhone客户端15楼2025-12-11 23:41
                  回复
                    以及,为什么不能把LLM当作神
                    LLM本身确实是一个无法被彻底解释的程序,但这个黑箱的边界是被定死了的,LLM的实现,离不开Python等编程语言,离不开显卡等硬件支持,离不开矩阵运算等数学基础,离不开图灵、冯洛伊曼等人对计算机的研究,离不开全球化的局势,离不开人类对电力的开发,离不开各种各样的基础学科。ChatGPT的问世便是如此,其是人类智慧的结晶产物,其拥有赖以存在的基础,而非某些故事中的天降奇迹一般凭空出现。有的人认为其比肩神明,只不过是对其赖以存在的基础没有任何了解而已,就像清朝人没有了解光学就直面照相机一般,只会闹出把相机视为吸取人魂魄之法器的笑话。


                    IP属地:福建来自iPhone客户端17楼2025-12-12 00:01
                    回复