中二病吧 关注:48,222贴子:3,421,011
  • 8回复贴,共1

【赞诗歌庭资料库】哲思实验室

取消只看楼主收藏回复

“咕噜咕噜咕噜,这里是哲思实验室~“犬科兽人推了推自己的眼睛,望向每一个进入实验室的生物。
“我是实验室室长卢比安,欢迎来到充斥着思想实验的哲思实验室~在这里,我将为您们展示历史上出现的具有代表性的55个思想实验~包含各种实验课题——自我、时空、道德、幸福、上帝......在这里,将会进行各种实验来对这些课题进行研究,我将在实验发布后对其进行结果分析。
若是感兴趣的话,您们也可以参与实验的讨论哦~不过嘛,吵闹是不需要的,实验室需要安静。我不会生气的,绝对不会吵起来。”犬科兽人的眼镜闪出危险的光芒“毕竟是犬科吗,会不会咬不听话的孩子一口,就另当别论了...."
大门被轻轻推开,缸中之脑、哲学僵尸等一一出现在眼前。
“那么,开始实验吧~”


IP属地:四川1楼2018-07-04 19:09回复
    ‘让我看看。。这几天的课题是什么呢~“
    犬科兽人笑了一笑,“就决定是~自由(freedom)吧。”
    哲思实验室,开启,课题一【自由】
    day1 实验一 【凶手无法不行凶】


    IP属地:四川3楼2018-07-04 19:13
    收起回复
      2026-03-11 23:22:26
      广告
      不感兴趣
      开通SVIP免广告
      【凶手无法不行凶】实验如下,设想展开over
      请想象一下:你想杀掉你的邻居——一个手无缚鸡之力的人。你有自己的理由,但是你不是唯一想这么做的人,黑手党也同样想除掉你的邻居。于是黑手党利用你做杀人工具,办法如下:一个很厉害的黑手党人偷偷在你脑里植入一块芯片,透过这块芯片,黑手党人任何时候都能确知你要做出什么决定,而且他们还能操纵你,让你往他们想要的方向下决定。
      现在有两个可能的状况:要么你自发地决定杀死你的邻居,这样的话,黑手党就不会介入你的选择,因为这个决定使他们称心如意。但是假如黑手党人确认,你正准备要决定不杀死你的邻居,那么他们就会介入,启动芯片,让你决定还是要杀死邻居,所以你无论如何都会杀死邻居。
      然而在这两种情况中,你是否都需要为谋杀负责?你或许会说:“黑手党那次不用负责”,但是如果你是处于自愿杀死邻居,要不要负责呢?
      许多人认为,只有有自由做其他选择的人,才需要为他的行为负责,然而这个行为正确吗?在上述的黑手党案例里面,你的决定是确定无疑的:你唯一能做的决定,就是杀死邻居,你无法让邻居继续活下去,因为若你不想这么做,黑手党就会介入。然而,要是你自发地、在黑手党未介入的情况下,做出了杀人的决定,那么你依旧需要负道德的责任,即便你没有其他选择。
      这么说来,即便我们无法做出其他决定,我们还是有可能必须为该决定负责。是这样吗?
      设想完成,结束实验


      IP属地:四川4楼2018-07-04 19:23
      回复
        以上这个实验出自美国哲学家法兰克福(Harry Frankfurt)。在自由意志的争论中,它被视作重量级的声音。他对于自由意志持有兼容论的立场。他认为,如果我们能依靠自身较高层次的愿望来行为,我们的意志就是自由的。比如瘾君子对毒品的渴望就不是自由意志——他更希望拜托毒品。而我们生活中的大部分行为都与真正的想要的一致,也就是说我们是自由的,不管世界是不是依循决定论,也不影响这一点,即“就算世界进程已经被预先决定好,我们仍然可以使自由的。”


        IP属地:四川5楼2018-07-04 19:27
        回复
          “必须负责”有一个前提,我们可以在两个选项中作选择,至少看起来是这样。假如抢银行的逼迫银行职员,那么银行的破产就不应该由职员的过错。
          然而,这个基本原则真的毫无破绽么?
          在刚才的实验中,不论是自愿还是非自愿,你做出的决定都是杀死邻居,而杀死这个行为的施与者不论如何都是你。人们认为你至少需要为自行杀死邻居负责。
          所以,在我们拥有自由的时候,我们需要为自己的行为负责,但是这样的自由并不预定我们一定有别的选择。“无论是自由还是是否承担责任,都不预设你有别的选择。”
          假如反对这种说法,就等同于主张:“在上述例子中,哪怕是出于自身意志而杀人,也无需负责。因为你不论怎么决定都会杀死邻居,邻居非死不可,就算你不自愿,也会被杀死,故你无需负责。”
          day1 实验完结


          IP属地:四川7楼2018-07-04 19:34
          回复
            “咕噜咕噜,又到了今天的实验时间~”
            “今天呢,我准备临时换一个课题进行研究~【心智与大脑】~”
            “那么,哲思,开始。”
            哲思实验室,开启,课题二【心智与大脑】
            day2,实验二【大脑义肢】


            IP属地:四川20楼2018-07-05 14:19
            回复
              【大脑义肢】
              请想象一下,你大脑里的神经细胞正在一个接着一个地被非常微小的硅芯片所取代。渐渐地,你的大脑大部分都是硅芯片组成的了,就如同一台电脑。而每一块芯片所负担的,都是原来那条神经细胞的功能,所以大脑运作会跟从前完全一样,只不过不是基于生物组织。
              你的大脑使用了跟计算机一样的硬件。这样会发生什么呢,会一切突然变黑么?再也没有嗅觉、没有感觉了么?如果是这样,什么时候会发生?是在芯片取代第一条神经细胞时就如此了么?还是直到换了一百万条时才出现?意识会渐渐消逝么,还是一切如常,没有影响?
              假如一切毫无改变,那么问题就来了:机器人也可以有感情么?
              day2实验结束


              IP属地:四川21楼2018-07-05 14:25
              回复
                这个思想实验来自瑟尔(John Searle),当代极富影响力的意识哲学家和语言哲学家。他想通过这个实验传输的问题便是,当你的大脑被非生物的机理代替之时,你的认知,你的体验特质会不会出现变化呢。
                总体而言,就算整个大脑被芯片取代,一切也应和原本的一样,毕竟代替大脑细胞的芯片与大脑细胞有着完全一样的功能,所以大脑的运行应该是不成问题的,只不过是硬件换成了机械的而已,软件的操作未受到影响。
                当硅芯片取代了你的整个大脑之后,你就是个半生物半机械的生物机器人了。你的感觉如何?
                假如你说:“没什么区别,完全一样”。那你就是一个“功能论论者”。功能论的论题是“人的心智状态是由其功能来定义的”比如恐惧,这样的心智状态,让我们在有特定输入的条件下,特定输出某种反应,至于在物理上如何实现,功能论认为是无关紧要的。故功能论论者提出了“多重状态可实现性”(multiplen Reakisierbarkeit):同一套软件可以再任何一套硬件上执行。假如机器人可以被打造成和人类一样,看到蛇就会发抖和逃跑,那我们就知道,机器人怕蛇。简言之,只要行为与人类一致,那他就具有和人相同的心智状态:有思想、有感情和愿望,一样都不缺。


                IP属地:四川22楼2018-07-05 14:35
                回复
                  2026-03-11 23:16:26
                  广告
                  不感兴趣
                  开通SVIP免广告
                  如果你认为这不可能,那你应该能够指出,在芯片取代神经的实验中,什么时候人的意识会消失,以及为什么。为什么精神需要生物基础,为什么人工制造的硬件,假如他执行跟神经一样的功能,也不能承担一个精神的存在?
                  day2,完结
                  “明天,将是反驳开始的时候,接下来的实验将说明为什么即使是最好的计算机,也不能拥有思想。请期待吧~”
                  犬科兽人推了推眼镜,关上了实验室的大门


                  IP属地:四川23楼2018-07-05 14:39
                  回复