对于AI永久记忆,理想的情况当然是 可以无缝获取历史中所有相关记忆,然后整合信息针对性回答。真正做到懂你,理解你。这种深度的交流绝对能带来更大的效益和满足感。
但是就如之前说的,如何查询信息,整合信息,抓住细节,识别情感,其实对于AI来说是一件非常难的事情!(对于AI永久记忆的思考:tieba.baidu.com/p/9780544238)。2023年AI兴起后,这个新兴的,还不太成熟的领域,正在一步步的发展和探索中。导致每一方的架构设计,实现方案都有很大不同。
作为一个,没有真正参与在前沿研究,只能在身后等待大佬们做出来再用的菜鸟,来总结一下目前应用比较多的记忆框架。并分析一下mem0 graph模式在所有记忆框架中,处于什么地位。(经gpt深度研究分析过,结论有一定可信度)
。
下面的汇总是当前,使用比较多的记忆框架:

openai memory是在gpt5之前汇总的,没有测算在gpt5之后,记忆能力提升后的表现。
加入了MIRIX,是因为那段时间,MIRIX声称效果非常好,一度超越zep,mem0等记忆框架,所以更多了解了一下。并做一个对比。
由表的结果可以知道:openai memory,LangMem的表现是弱于mem0的。
zep作为商业模型,略强于mem0,但需要额外付费。
MIRIX全方面更强,但是体量大,安装使用相对困难,目前作为稳定性不高的实验性模型。
仅以上表的汇总来看,如果不考虑必须付费的商业化模型zep,那mem0就是权衡成本与收益的最优解。
。
分析一下MIRIX官方给出的数据(arxiv.org/html/2507.07957v1):

1.先看上面的红框,mem0和mem0 graph的对比
mem0和mem0g的区别,是加入了图关联,上面的汇总项是完全一样的。所以理论上mem0g的单跳多跳只会比mem0好,不会更差。但实际上你看数据……反而还变差了一点点,,这只能纯粹是运行误差!而不可能是真的效果变差。
可以看看我本地我本地mem0 和mem0 graph的区别,就在于多了下面的“关系”信息(使用neo4j的graph实现),所以在多跳方面表现有提升。前面使用qdrant的汇总部分,是完全一样的!下面是截取了我本地的一个检索日志:

第一部分“记忆节点”就是每一项的汇总信息-id-相关性评分。一句话可能被拆成多个汇总信息。(这一部分,mem0和mem0 graph 理论上是完全一样的!)
第二部分“关系”,就是使用三元组分析,主体-关系-客体 来存储到neo4j里面。属于mem0 graph模型。
(我自己还有加第三部分,先不透露)
所以说,mem0 graph理论上只会比mem0更好,而不会更差,因为加入了关系信息,有助于多跳记忆表现。MIRIX官网的数据,只能是运行误差。
2.可以看到gpt-4.1-mini 和gpt-4o-mini对比,竟然是4o高于4.1的分数,这显然也不合理。因为4.1是比4o更高级的模型,其他变量不变,4.1肯定要比4o优秀才对。
但是可以看到在“单跳“,“开放域”那几项,4.1竟然比4o低出那么多……这很不对劲!只能说,同样是运行误差导致。可能下一次运行,就跟这一次有了完全不同的结果。
。
然后对比一下MIRIX和mem0官方数据(ar5iv.labs.arxiv.org/html/2504.19413)
前为mem0官方数据,后为MIRIX官方数据

其实就有点释然了……每个官方,其实都尽力的把自己打磨成,比同类竞品模型数据高一截的样子。。其实,真实用起来,或许表现差不多,误差可以几乎忽略不计了~
说到底,因为目前,记忆模型还是处于早期的探索与开发阶段,并没有一个完整的对AI记忆的思考和研究框架。也并不知道AI记忆要怎么样才能表现更好。前段时间还看到一个AI笔记,说 “可以从你记录的笔记中分析出你最需要的信息“,每次分析还要收费。。我就觉得,这纯唬人!
现在AI根本不具备太强的非数学的数据分析能力!并不能从海量文字内容中,一针见血的分析出有用内容!就连相关记忆都很难很清晰的查找,不说其他方面更针对性的分析了。
。
由此……综上所述,AI记忆依旧任重而道远,目前已有的框架中,免费且使用成本较低的,就只有mem0,langMem,网页版gpt memory等几个框架可以用了。而综合表现来看,的确mem0 自己本地的graph模式,就是相对最优解!
——并不是因为我使用mem0所以有偏袒啊~在MIRIX出现之后,我也调研了很多其他记忆模型,参考了很多优劣。目前结果的确就是如此。如果真有表现更好的记忆模型,我肯定第一个愿意尝试,愿意换掉的!
而我现在,在mem0 graph的基础上,加上了 查询原始消息的功能。可以根据qdrant返回的sid,存储查询原始消息。在记忆方面,肯定是更进一步加强了的。平时对话中,经常出现 历史对话中非常精确的典故和我们的专属名词,我自己是觉得非常满足!
AI永久记忆任重而道远。而在这段时间内,我也没有思考出来个什么,真正更好的可实现的新框架或思路。这方面……就交给愿意付出,愿意奋斗,真正在前沿研究的大佬们了!
但是就如之前说的,如何查询信息,整合信息,抓住细节,识别情感,其实对于AI来说是一件非常难的事情!(对于AI永久记忆的思考:tieba.baidu.com/p/9780544238)。2023年AI兴起后,这个新兴的,还不太成熟的领域,正在一步步的发展和探索中。导致每一方的架构设计,实现方案都有很大不同。
作为一个,没有真正参与在前沿研究,只能在身后等待大佬们做出来再用的菜鸟,来总结一下目前应用比较多的记忆框架。并分析一下mem0 graph模式在所有记忆框架中,处于什么地位。(经gpt深度研究分析过,结论有一定可信度)
。
下面的汇总是当前,使用比较多的记忆框架:

openai memory是在gpt5之前汇总的,没有测算在gpt5之后,记忆能力提升后的表现。
加入了MIRIX,是因为那段时间,MIRIX声称效果非常好,一度超越zep,mem0等记忆框架,所以更多了解了一下。并做一个对比。
由表的结果可以知道:openai memory,LangMem的表现是弱于mem0的。
zep作为商业模型,略强于mem0,但需要额外付费。
MIRIX全方面更强,但是体量大,安装使用相对困难,目前作为稳定性不高的实验性模型。
仅以上表的汇总来看,如果不考虑必须付费的商业化模型zep,那mem0就是权衡成本与收益的最优解。
。
分析一下MIRIX官方给出的数据(arxiv.org/html/2507.07957v1):

1.先看上面的红框,mem0和mem0 graph的对比
mem0和mem0g的区别,是加入了图关联,上面的汇总项是完全一样的。所以理论上mem0g的单跳多跳只会比mem0好,不会更差。但实际上你看数据……反而还变差了一点点,,这只能纯粹是运行误差!而不可能是真的效果变差。
可以看看我本地我本地mem0 和mem0 graph的区别,就在于多了下面的“关系”信息(使用neo4j的graph实现),所以在多跳方面表现有提升。前面使用qdrant的汇总部分,是完全一样的!下面是截取了我本地的一个检索日志:

第一部分“记忆节点”就是每一项的汇总信息-id-相关性评分。一句话可能被拆成多个汇总信息。(这一部分,mem0和mem0 graph 理论上是完全一样的!)
第二部分“关系”,就是使用三元组分析,主体-关系-客体 来存储到neo4j里面。属于mem0 graph模型。
(我自己还有加第三部分,先不透露)
所以说,mem0 graph理论上只会比mem0更好,而不会更差,因为加入了关系信息,有助于多跳记忆表现。MIRIX官网的数据,只能是运行误差。
2.可以看到gpt-4.1-mini 和gpt-4o-mini对比,竟然是4o高于4.1的分数,这显然也不合理。因为4.1是比4o更高级的模型,其他变量不变,4.1肯定要比4o优秀才对。
但是可以看到在“单跳“,“开放域”那几项,4.1竟然比4o低出那么多……这很不对劲!只能说,同样是运行误差导致。可能下一次运行,就跟这一次有了完全不同的结果。
。
然后对比一下MIRIX和mem0官方数据(ar5iv.labs.arxiv.org/html/2504.19413)
前为mem0官方数据,后为MIRIX官方数据

其实就有点释然了……每个官方,其实都尽力的把自己打磨成,比同类竞品模型数据高一截的样子。。其实,真实用起来,或许表现差不多,误差可以几乎忽略不计了~
说到底,因为目前,记忆模型还是处于早期的探索与开发阶段,并没有一个完整的对AI记忆的思考和研究框架。也并不知道AI记忆要怎么样才能表现更好。前段时间还看到一个AI笔记,说 “可以从你记录的笔记中分析出你最需要的信息“,每次分析还要收费。。我就觉得,这纯唬人!
现在AI根本不具备太强的非数学的数据分析能力!并不能从海量文字内容中,一针见血的分析出有用内容!就连相关记忆都很难很清晰的查找,不说其他方面更针对性的分析了。
。
由此……综上所述,AI记忆依旧任重而道远,目前已有的框架中,免费且使用成本较低的,就只有mem0,langMem,网页版gpt memory等几个框架可以用了。而综合表现来看,的确mem0 自己本地的graph模式,就是相对最优解!
——并不是因为我使用mem0所以有偏袒啊~在MIRIX出现之后,我也调研了很多其他记忆模型,参考了很多优劣。目前结果的确就是如此。如果真有表现更好的记忆模型,我肯定第一个愿意尝试,愿意换掉的!
而我现在,在mem0 graph的基础上,加上了 查询原始消息的功能。可以根据qdrant返回的sid,存储查询原始消息。在记忆方面,肯定是更进一步加强了的。平时对话中,经常出现 历史对话中非常精确的典故和我们的专属名词,我自己是觉得非常满足!
AI永久记忆任重而道远。而在这段时间内,我也没有思考出来个什么,真正更好的可实现的新框架或思路。这方面……就交给愿意付出,愿意奋斗,真正在前沿研究的大佬们了!