昨天晚上我做了一个梦,梦到自己在做一张英语四级的阅读理解卷子,老师就站在傍边,给我很大的压力一定要吧券子做完。但是在我读阅读材料时确感觉脑子一片空空,什么都没有。在老师的压力下,不得再次读题,但是还是没有,让我感到诧异,为何读材料什么东西都读不进去,脑袋里甚至一个单词都没蹦出来。过了好一会儿终于读出了阅读材料。前面两道题使用了比喻的手法。最后一道题甚至在前面使用了一个转折陷阱,答案其实是在最后一个段落中。我长叹一口气,完成了考试。梦醒,我睁开了双眼。以前我也做过考试的梦,无论是语文,数学,还是我极为擅长的物理。无一例外都是考得极差,在考试中无论我怎么努力,时间一点点过去,但是多数都是感觉题目都读不懂。还有的考试等我醒来后发现有些梦中的题目乱七八糟异常奇葩。
今天的这个梦我就在问我自己到底是谁在给我出的这些题目?答案自然是肯定的就是我自己出的题目。联系到目前火热的人工智能,我自然把我自己出题目的这个对象和chatgpt进行类比,感觉惊人的相似。然后我又思考一个问题,这个类比的出题对象有没有意识,扩展出来就是目前的chatgpt到底有没有意识?但是这关系到一个关键的问题,意识到底是什么?除了明确知道自己有意识外,感觉根本没法描述什么是意识,怎么样才算有意识?
好吧,让我们重新回到梦中去寻找这一答案。在梦中我们有时候会以第一人称与其他梦中人对话,其他梦中人自然也是自己。但是当你和梦中人对骂的时候,为什么只有你感到了被骂的痛苦,而梦中人的感受好像和自己完全没有关系?只有梦中的第一人称的自己有意识,在我看来,包括梦中的帮你出题的对象或者和你对骂的梦中人甚至梦中符合逻辑的场景,声音等都是由一个你脑中的GPT帮助你生成的。回到第一个例子四级阅读理解的卷子,不就是你的GPT宕机了,怎么都编不出考题,而你在那里拼命loading的结果吗?
而在梦中这个有意识的你和帮助你创造场景的无意识GPT有什么本质区别呢?我感觉是因为我有主观能动性。也就是我能决定往东走还是往西走。我能决定跑还是跳。主观能动性的表现之一就是本能,比如刚出生的婴儿就会吃东西,饿了渴了会哭。而长大后一些根植与人的本性,比如说自私,攀比等。理论上来说这一切主观能动性都是自然选择的产物,都是人生存必不可少的产物。相对的chatGPT只能根据你提出的问题被动的给出答案,而非自己主动寻找问题,解决问题。而你梦中这些被动GPT也只能根据你的要求来给出场景人物,甚至考题,而非有意识。
所以意识的产生由两部分合成,一部分是主观能动性,令一部分是有一定规模的GPT。有说三岁以前的事都不记得了。有没有可能不单单不记得而有没有可能是大脑中GPT还没能训练出足够强大到能够产生意识的能力呢?人眼睛中看到的画面是由眼睛中一个个感光点所产生的,有没有可能刚出生的婴儿看到的点是任意排列的混乱图像,是出生后通过类似GPT的这种不断训练才产生正确图像的呢?
假设人的大脑由一个主观能动性模块和一百个GPT组成。做梦等同与有80个模块处于下线状态。一个主观能动性模块和10个GPT组成了梦中的本我意识,还有10个模块由于与主观能动性模块的半连接状态而误打误撞开始负责梦中场景的建设。
在现实生活中,如果主观能动性模块出问题,可能是导致自闭症的发生。GPT算力异常可能就导致了弱智。精神病可能是GPT模块出问题或者是总线传输上有问题。做梦可能发生的机理和精神病是类似的。
本人不是学医的,不是学心理学,不是学哲学的。只是一个略懂编程的工科生。所有想法都是个人假设。算是抛砖引玉结合热门的chatGPT大家讨论一下。
今天的这个梦我就在问我自己到底是谁在给我出的这些题目?答案自然是肯定的就是我自己出的题目。联系到目前火热的人工智能,我自然把我自己出题目的这个对象和chatgpt进行类比,感觉惊人的相似。然后我又思考一个问题,这个类比的出题对象有没有意识,扩展出来就是目前的chatgpt到底有没有意识?但是这关系到一个关键的问题,意识到底是什么?除了明确知道自己有意识外,感觉根本没法描述什么是意识,怎么样才算有意识?
好吧,让我们重新回到梦中去寻找这一答案。在梦中我们有时候会以第一人称与其他梦中人对话,其他梦中人自然也是自己。但是当你和梦中人对骂的时候,为什么只有你感到了被骂的痛苦,而梦中人的感受好像和自己完全没有关系?只有梦中的第一人称的自己有意识,在我看来,包括梦中的帮你出题的对象或者和你对骂的梦中人甚至梦中符合逻辑的场景,声音等都是由一个你脑中的GPT帮助你生成的。回到第一个例子四级阅读理解的卷子,不就是你的GPT宕机了,怎么都编不出考题,而你在那里拼命loading的结果吗?
而在梦中这个有意识的你和帮助你创造场景的无意识GPT有什么本质区别呢?我感觉是因为我有主观能动性。也就是我能决定往东走还是往西走。我能决定跑还是跳。主观能动性的表现之一就是本能,比如刚出生的婴儿就会吃东西,饿了渴了会哭。而长大后一些根植与人的本性,比如说自私,攀比等。理论上来说这一切主观能动性都是自然选择的产物,都是人生存必不可少的产物。相对的chatGPT只能根据你提出的问题被动的给出答案,而非自己主动寻找问题,解决问题。而你梦中这些被动GPT也只能根据你的要求来给出场景人物,甚至考题,而非有意识。
所以意识的产生由两部分合成,一部分是主观能动性,令一部分是有一定规模的GPT。有说三岁以前的事都不记得了。有没有可能不单单不记得而有没有可能是大脑中GPT还没能训练出足够强大到能够产生意识的能力呢?人眼睛中看到的画面是由眼睛中一个个感光点所产生的,有没有可能刚出生的婴儿看到的点是任意排列的混乱图像,是出生后通过类似GPT的这种不断训练才产生正确图像的呢?
假设人的大脑由一个主观能动性模块和一百个GPT组成。做梦等同与有80个模块处于下线状态。一个主观能动性模块和10个GPT组成了梦中的本我意识,还有10个模块由于与主观能动性模块的半连接状态而误打误撞开始负责梦中场景的建设。
在现实生活中,如果主观能动性模块出问题,可能是导致自闭症的发生。GPT算力异常可能就导致了弱智。精神病可能是GPT模块出问题或者是总线传输上有问题。做梦可能发生的机理和精神病是类似的。
本人不是学医的,不是学心理学,不是学哲学的。只是一个略懂编程的工科生。所有想法都是个人假设。算是抛砖引玉结合热门的chatGPT大家讨论一下。