deepseek吧 关注:139,178贴子:402,558

回复:高中同学在美国某家做视频 AI 的公司上班

只看楼主收藏回复

别人踩是因为自己是做视频ai的自豪感,你拿一个和你毛关系都没有的东西去回击是出于你隐隐的自卑感


IP属地:澳大利亚来自iPhone客户端16楼2026-02-13 07:48
收起回复
    额,不都是中国人做的吗


    IP属地:江苏来自Android客户端17楼2026-02-13 09:45
    回复
      2026-03-10 20:19:17
      广告
      不感兴趣
      开通SVIP免广告
      本来国内的文本模型就比不过图片模型,更比不过视频模型


      IP属地:辽宁来自Android客户端18楼2026-02-13 11:05
      回复
        我说一点好吧。
        /
        output成本,GPT5.2pro 168$,opus4.6不记得了,我印象里是25$。DeepSeek-Reasoner(v3.2think)只要几块钱。就凭这一点,我每天对着DeepSeek发火,睡一觉还是把代码交给DeepSeek,sonnet和opus作为一线模型反而给我打辅助。sonnet和opus主要用来调整需求、确认核心算法、生成代码骨架。
        /
        刚才说了我对各模型的用途,我再说说LLM。美国的LLM或者说AI是个什么模式?你要知道股权、股票都是能抵押的,而且美元需要有蓄水池,所以AI在美国的就是完全不缺钱,起码快钱是不缺的,账单爆了那是以后的事。同时美国还不缺算力卡。中国允许这么吹泡泡吗,真实产业有多少需求,你AI的钱就允许多大,中国的AI是不承担充当信用的功能。
        /
        然后就是LLM的工程特征,transformer是1D模型,直接把中文象形字的构词构字逻辑、视觉优势归0,反而是英文单词的“空格”和低重码成为优势,让中文样本的训练效果低于英文。这是国内LLM模型的第二重劣势。
        /
        那你说有没有针对中文进行优化的模型,其实在GPT3之前是一直有的,但是出来之后就被力大砖飞了,这几年的风头是堆模型的参数而不是基础架构,因为这是目前成本最低(最快最无脑)的“研发”模式。其实中文表意字的构型并没有被LLM完全丢失,每个字的2D结构通过长上下文共现,也会线性累计。也就是有“氵”的“江河湖海”会被标记为语义相近,但最后也没有转化为中文样本的训练优势。所以现在的情况是虽然没有争对中文做特殊优化,但中文样本训练LLM的效果几乎追平英文,并且对中文做优化是一件十分不确定的事,暂时没人会做一个新的发挥中文优势的模型来训练LLM。
        /
        从信息论的角度,中文在日常使用中对比英文所具备的巨大优势必然会在某一种模型中体现出来,但不是现在正火的LLM。
        /
        再谈到LLM的未来。我是如此评价的,LLM是“物理学家的司机”,懂得都知道我的意思是什么。LLM不具备一致且真实的逻辑,它不会成为“世界模型”或者说“具有价值观”的模型的范式,LLM只是一本半自动字典。


        IP属地:广东20楼2026-02-13 11:59
        回复
          sora2出来的时候你是不是也不能说话了?这东西本身就是迭代的,只不过今天你在前面明天我在前面罢了


          IP属地:上海来自Android客户端21楼2026-02-13 13:35
          收起回复
            这么说吧,国内大厂都订阅了三巨头的产品,多的还订阅了cursor和codex。有一个字节的模型工程师和我互怼的时候说seedance也用gpt和gemini用的飞起,大公司只会在乎好不好用,只有不干活的才会整天国产国产的。


            IP属地:宁夏来自iPhone客户端22楼2026-02-13 15:43
            收起回复
              不管是谁做的还是那个国家做的,AI只要不是在你手中就和你没关系。它会强你饭碗


              来自Android客户端23楼2026-02-13 18:06
              回复