反furry吧 关注:28,366贴子:768,626

关于AI作画 【置顶评论有省流】

只看楼主收藏回复

图1崽子镇楼
近些日子lz看到越来越多的毛毛up主在分享一些由AI生成的图片、短视频,再联想到前几年海内外多个作画委托平台发起的抵制AI的活动,不由得有一些感慨,于是想分享一下自己对于AI技术的一些看法与观点,也非常欢迎8u们来一起分享见解、一起讨论。
开始之前先叠个甲,lz接触fur圈比较晚,但米、闲鱼、私人群等平台约稿大大小小加起来也有小四位数了,且从未将约稿画作在公共社交平台、在线AI服务平台发布过。lz非常能够理解画师们对于文生图技术的抵触,这一点会在后面详细展开说。总之,lz并不是疯狂崇拜AI技术且无视其带来的隐患和风险的人。
接下是正文。
lz是某四非中外合作准博士研究生,研究方向是多模态大模型,但平时也对其它技术有所涉猎。lz在本科的时候就已经开始接触各类AI技术,从最早的以卷积为主的计算机视觉,到22年、23年Stable Diffusion与ControlNet的文生图模型火爆全球,也算是见证了一波又一波AI发展的高潮。以文生图技术为例,lz因为是工科出身,绘画能力聊胜于无,因此最开始并不反感这类技术,因为文生图模型带给lz的只有利没有弊。但在了解了2022年底从欧美圈开始对平台未经画师授权扒取其画作用于AI训练的声讨后,楼主认为这项技术的确对画师们非常不公平,无论是出于伦理道德,还是对行业发展。至于为什么,下文会展开聊。
自此开始,AI作画在全球火爆,一发不可收拾。但是由于当时模型架构、数据质量的局限性,从22年到24年底,其实文生图、图生图技术也还停留在多次采样抽奖(每次同时生成几十张图,选最合适的一张)才能出一张合适的图片的地步。且由于Stable Diffusion 由开源转向闭源,AI作画平台如MidJourney、Stability AI等订阅费极其昂贵(高分辨率图片一次约1块钱),所以这项技术对传统的委托-作画-交付的模式冲击有限(并不是没有)。但今年年中到现在出现的各类技术,如谷歌的nano banana (见本贴图2),字节的即梦4.0(见本帖图3),亦或是各类短视频生成模型(Veo等),已经能够实现对图片指定区域的精准修改,亦或是从多个图片中提取准确的特征并融合(风格融合、人物融合),这些技术在某种程度上已经达到了让即使是完全没有作画经验的人,也可以根据一些例图快速地上手,通过ai模型获得满意的画作的能力(参考本帖图2,根据单图中特定角色精准生成的例图,这只是其中之一的例子)。这让lz对画师们、以及正在学习作画艺术的同学们感到一些担忧,AI技术正在飞速发展,目前模型展现出来的其实也只是先导性的技术,它们现在还有极高的成本代价的约束。但一年、两年、三年以后呢?真不太好说吧。为什么lz感到担忧呢?因为lz认为,至少对于ai作画而言,目前的技术发展并非是“可循环”的。
接下来讲讲为什么lz认为目前文生图技术的上下端并不“健康”。以文生文技术举例作对比,从google的BERT到OpenAI的ChatGPT问世,也不过短短三年时间。文生文技术的发展给人的冲击其实远大于文生图,它可以做到多事情,也能取代很多人。但却很少有人站出来说文生文技术侵犯了自己的某某权益,为什么呢?要了解这一点,我们需要大概知道,‘AI模型’是如何被训练出来的。对于文生文模型,也就是目前大家讲的‘大模型’而言,训练数据其实就是文本,而且是来自全世界各地、各用户的文本。在大模型的预训练中,需要用到海量的文本作为训练数据以强化大模型对于语言语义的感知。换句话说,点进帖子的每一位8u,你们在公共网络平台的每一次发言,在贴吧的每一次评论,网购的每一次差评贴,都可能会成为大模型预训练的“养料”的一部分。至此为止,大模型之于其训练数据的源头的关系其实和文生图类似。我们每个人都是大模型体系下的“画师”,我们的画作可能会被拿去作为训练数据,被撕碎、瓦解、缝合的数据。但是,我们在是其训练数据的贡献者的同时,其实每个人也都可以成为大模型的使用者、受益者。从初高中学生用大模型搜题,到使用大模型替代百度百科,亦或是对大模型进行某种猫娘式的调教,这都是我们从训练好的大模型身上所得到的、所收益的。我们在不经意间的行为,培养出了具有一定程度的通用智能的大模型,且大模型能够反过来为我们提供各种服务或帮助,这无疑是极其正向的循环,也是相对而言更加健康的产业上下游关系。
字数限制,接下文请看评论1楼!
此处是结尾:
undefined


IP属地:上海来自iPhone客户端1楼2025-09-16 00:55回复
    再反观文生图模型,其原理是通过对一张完整的画作不断添加像素点级别的噪声直至图片完全模糊,并让AI模型反向学习加噪、去噪的过程,从而能够让大模型通过一段自然语言的描述(亦或是关键字),将一个全是噪声的图片不断去噪最终成为与指令相符合的画作。文生图模型最底层的训练数据,一是各类图片、画作,二是由专业的标注员对图片、画作进行的自然语言标注(这一步正在被多模态大模型替代)。但文生图模型服务的,却是那些没有完整绘画能力(或者低质量绘画能力)的人,其提供的服务是对绘画委托的直接竞争。很显然,文生图模型的上游(源源不断提供优质画作的画师们)和下游(完全不懂得绘画的人)并不对等,且文生图模型提供的服务对画师的看家本领们形成了强力的挑战。正如前文所言,这份挑战正在逐渐变得更加强力,且直指命门。自始至终,画师的权益没有收到保障,画师的生意被分走大半,如此庞然的文生图模型产业,到头来并没有为作为产业最上游的画师们提供任何帮助。lz认为,创意、风格、设计是作画的精髓,而AI作画本质其实也还是对画作-标注这个体量极其巨大的数据集在统计概率程度的拟合。如果有一天,AI作画挤占了绝大多数画师的市场,迫使绘画成为一个冷门行业,那么文生图技术也就走向了它最后的顶峰---因为没有人能够再为它提供‘灵感’,人类作画的能力将会被永远限制在那一天。
    以上便是lz对于文生图技术的一些看法。虽然lz是相关技术的研究人员,但lz对于这些技术的看法其实反而相对保守。lz一直都知道,国内外作画委托平台,绝大多数画师对‘把自己的画作扔给ai’其实是持绝对抵制的态度,在这一点上lz是支持的,因为正如上文所言,画师们变成了潜在的‘养分’,却并没有分到这项ai技术的红利。所以在看到即使是对‘画作雷AI’这一潜规则有很深了解的毛毛们也开始使用各类AI技术的时候,lz产生了以上的感想。lz一方面十分希望AI技术能够用于生产、提高生活品质,另一方面也对一些AI技术的上下游循环模式产生担忧,害怕这些“不健康”的循环最终会毁掉一个行业,甚至人类文明层面的一项文化。当然这并非是lz在抵制大家使用ai技术,只是有些感慨,想发表一下自己的看法罢了。就像无限对小黑说的话,每个人都可以有自己的答案,lz决不强求其它人去改变自己的观点。
    话又说回来,AI作画在真正蓬勃发展的现在,另一项技术也在悄然成型--文生3D。以混元3D为首的前沿模型技术已经能够做到根据图像甚至文字在一定程度上生成其对应的3D模型,且能够复刻材质、花纹等细节。lz认为这项技术的发展也会带来不小的行业冲击。


    IP属地:上海来自iPhone客户端2楼2025-09-16 00:56
    回复
      2025-10-13 17:46:50
      广告
      不感兴趣
      开通SVIP免广告
      今年是AI元年(感觉每年都是哈哈,只不过lz的AI ETF今年大涨了,就在此定义今年为元年~),各项AI技术都在高速迭代发展。8u们对这些AI技术什么自己的看法呢?欢迎大伙一起交流意见、讨论~!


      IP属地:上海来自iPhone客户端3楼2025-09-16 00:57
      回复
        省流:lz认为相比如大模型这种取之于民用之于民的技术,文生图、图生图、图片增强技术取之于‘精通作画者’,用之于‘对作画一窍不通者’,且前者没有获得任何利益,反而失去了部分市场。画师这个职业的生存空间被挤占,最终会导致优质创新画作越来越稀少,而相应的,AI模型也就学不到创新的画作,至此形成死循环,彻底堵死作画行业。因此lz认为文生图AI技术的上下游不平等,无法达成健康、有利的循环。 8u们对目前的AI技术有什么看法呢?欢迎大家来分享讨论!


        IP属地:上海来自iPhone客户端4楼2025-09-16 00:58
        回复
          混元内网最新3.0模型,已支持智能uv展开、非人骨骼生成,建模拓扑贴图什么的已经是上半年的事了,3D这块今年是名副其实的元年


          IP属地:浙江来自iPhone客户端5楼2025-09-16 02:44
          收起回复
            文生文其实现在也并不是很好,本人就曾经试着用ai引导写一些文章,ai最大的问题就是,人类写文章是很注重隐喻,暗示和双关的。而且人类写文章极其喜欢引用典故和真实事例,而ai写的文章往往不能正确的使用双关和暗示,还是需要人为的去修改。ai的弱点就在于此,它在有自主意识之前(有点科幻了)不可能拥有审美,也不可能代替人类选择。ai洗稿生产文章的能力确实牛逼,但是它永远不能代替人类自己记述现实,它也不能判断自己生成的图片是美还是丑。就像你把一篇高考零分作文扔进去问它写的好不好,他先会根据那群开发者的人文关怀对文章进行夸赞,你说这是零分作文之后它又进行批判 这个东西的局限性还是很大的,所以写文章厉害的用ai也能搞出很好的文章,画画厉害的用ai辅助上色就是比一般人搞出来的更惊艳


            IP属地:河南来自Android客户端6楼2025-09-16 03:08
            收起回复
              建议你去反ai吧发


              IP属地:江苏来自Android客户端7楼2025-09-16 07:23
              收起回复
                咱个人对ai的看法虽然说是不确定的态度,但是并不喜欢ai图,
                ai更像是罐头食品,虽然每一罐都很标准但是很便宜(跳出举例的话ai似乎无法生成那些有一定连贯性的图,比如说生成一个人坐着的仰视角和俯视角,会出现细节对不上的情况),画师画图就是厨师煮饭,既有珍馐也有黑暗料理
                我还记得我一个画画领域高手群友说的话 ai说到底还是工具,真要取代了也应该会取代掉那些“厨艺不好”的画师,那些愿意提升的倒可以借助ai图学习借鉴临摹那些自己并不会的地方(当然人体结构之类的基本功是需要另外学的就是了)


                IP属地:广西来自Android客户端9楼2025-09-16 08:55
                收起回复
                  2025-10-13 17:40:50
                  广告
                  不感兴趣
                  开通SVIP免广告
                  ai的文生文就是垃圾,有什么冲击


                  IP属地:辽宁来自Android客户端10楼2025-09-16 09:01
                  收起回复
                    大势所趋


                    IP属地:江苏来自Android客户端11楼2025-09-16 09:18
                    收起回复
                      ai图看了会羊尾


                      IP属地:福建来自Android客户端12楼2025-09-16 09:22
                      收起回复
                        我对ai不反感,而且ai一定程度上可以为那些有灵感没技术的人提供一些便利,比如我就喜欢看ai小猫连续剧来放松,而且ai对于我的学习有巨大的帮助,我很感谢技术的发展;目前我看到人们对ai的反感和批评主要集中在侵权问题,想知道楼主对这方面怎么看


                        IP属地:四川来自Android客户端13楼2025-09-16 09:54
                        收起回复
                          现在ai生图无法理解位置和名词,很难做到在画面上的某个地方画上某物,而这是设定类画作必不可少的


                          IP属地:上海14楼2025-09-16 09:56
                          收起回复
                            用AI来给自己作为一些提供灵感的参考,也未尝不可吧,比较讨厌的是那种AI做出来的东西,直接说是自己做的。个人感觉是你用AI生成出来的东西,在这个基础之上,你重新自己去手绘,并加入自己的灵感,成为自己独一无二的作品,这也没什么不好的吧


                            IP属地:福建来自Android客户端15楼2025-09-16 10:02
                            收起回复
                              2025-10-13 17:34:50
                              广告
                              不感兴趣
                              开通SVIP免广告
                              有亲友是画师,说只要不用AI作画来盈利其实是可以接受的,而且我觉得AI根据描述作画和画师一笔一笔画出来是有本质区别的,人与机器的沟通可能不如人与人的沟通来得流畅,所以也就导致ai作画或多或少都会有些僵硬和奇怪。也不是说ai不好吧,本人还挺喜欢用ai搞一些稀奇古怪的小玩意,比如最近挺火的渲染成手办,但ai终究只是ai,生成的东西是没有价值的,至少我自己来说,我不会将自己的崽子看得如此廉价,用ai随便生成一张图我并不会喜欢


                              IP属地:上海来自Android客户端16楼2025-09-16 10:59
                              回复