AI热点 6小时前 165 阅读 0 评论

LiblibAI 正式推出2.0,十字路口第一时间评测:从 1.0 到 2.0,什么变了?

作者头像
AI中国

AI技术专栏作家 | 发布了 246 篇文章

LiblibAI 2.0:真· AI 创作 Studio



作为一个熟练掌握各种 AI 工具的创作者,你可能熟悉这样的创作日常:我们需要为图片生成订阅 Midjourney,为视频生成购买 Pika 或 Runway,用 Topaz 来高清修复,甚至在不同开源模型之间来回切换、用 LoRA、蜘蛛网一样的 ComfyUI、Stable Diffusion……


每多一个工具,就多一层摩擦。


2 天前,国内最大的 AI 多模态模型社区之一的 LiblibAI 进行了一次大升级,正式推出了 2.0 版本。对许多创作者而言,这个平台并不陌生,LiblibAI 一直是国内开源绘画与 LoRA 文化的重要发源地,也常被称为中国版的 CivitAI (大家常说的 C 站)


这一次,LiblibAI 重新梳理了创作者的工作逻辑,正式补全了一个完整的「工作站」。


可以明确地说,这一次,LiblibAI 正在尝试回答那个被反复追问的问题:


在 AI 时代,创作到底该有多难?


所以,这篇文章我们不打算做单纯的功能测评。


我们更想从一个创作者的真实体验出发,聊聊这次 LiblibAI 的升级,也聊聊,在这个AI 时代,创作者们的「内心活动」、真实的困惑与想法


AI 创作的「工具大分裂」时代,我们为何感到疲惫?


首先,先看一个大问题:


AI 创作的「工具大分裂」时代,我们为何总是感到疲惫?


要回答这个问题,不妨先回到我们最熟悉的日常工作流: 


 【1】为了得到一张「好看、有美感」的图,我们先得在许多 AI 生图模型中选择一个,比如 Midjourney ,然后订阅 Pro 套餐,再垫概念图;


【2】接着,把满意的图下载下来(有些平台,甚至不充值不允许下载);


【3】如果想对局部做些精细调整,在过去可能还得用 Stable Diffusion 的 Inpainting 功能,启动像蜘蛛网一样复杂的 ComfyUI;



【4】最后,想让这张图动起来?很好,现在请打开 AI 视频生成平台:Pixverse、Kling、Pika 或 Runway,再次导入、输入提示词、等待生成……


像我,平常爱用的就有:很有创意的 Recraft、有美感的 Midjourney、中文图像编辑能力很好的字节 Seedream 4.0、混元图像 3.0、英文图像编辑能力不错的谷歌 NanoBanana角色一致性保持很好的 F.1 Kontext


像这些模型,我们能像「报菜名」一样,轻松说出一堆。


每个月下来,每个产品都得冲一笔少则 20 多则 100 美元的月费。更贵的,其实是被割裂的注意力和被稀释的创造力


所以,一个创作者最需要的几样东西,最理想的状态下应该是:全都被放在同一个触手可及的地方


为什么必须是「Studio」?


LiblibAI 的「前世」,是那个被无数创作者亲切称为「小破站」的开源模型社区。许许多多设计师,曾在这里寻找灵感、下载模型、学习工作流。


也是名副其实的「中国版 CivitAI」。



它最令人关注的是对创作者的真诚。相信很多朋友都实际体验过一个有趣的故事,LiblibAI 即便在资金十分紧张的时刻,也还在发放激励,硬是聚拢了中文世界最活跃的 AIGC 创作者。


确实,当时有很多人用 Stable Diffusion 训练模型、上传作品、写教程、分享 Prompt,每天循环炼图、上传、优化。


在这个过程中,大家亲眼见证了 AI 图像从「崩坏脸」「天花板窗户」进化到可落地可商用,也亲身感受了社区从「草根互助」成长为「创作者激励体系」的建立。LiblibAI 也在动荡中坚持,哪怕在资金最紧张时(公司账上只剩下 4000 块钱)仍发放创作者激励,累计补贴超千万。让很多人赚到了人生第一笔 AIGC 收益:



然而,当开源生态的热度逐渐冷却,各种模型即服务的 SOTA AI 生图模型出来时,2 个问题出现了,相信很多人对此都有共鸣:


【1】对于新人,WebUI 和 ComfyUI 的节点式操作门槛过高,劝退了大量潜在用户。毕竟,不是所有人都有能力、或者有时间有想法去搭工作流的。


【2】对于成熟的创作者,单一的模型训练和分享,已无法满足系统性的、追求效率的商业创作需求。


市场想要的,不再是零散的「玩具」,而是一个集成化的「Studio 工作室」


所以,LiblibAI 2.0 正是在回应这一变化。它试图让创作重新回归一个整体过程:从灵感萌发,到素材生成,再到最终成品的诞生,所有动作,都能在一个空间内完成。


这间 AI 工作室的真实生产力如何?


如果说过去一年,AI 创作的关键词是「拆解」,那么 LiblibAI 2.0 想要做的,就是「重组」


在 2.0 版本里,LiblibAI 首次引入了一个完整的「Studio 工作站」概念:它不再是一个单纯的开源模型社区,而是一个让创作者能在同一个页面内,完成从「生图 → 生视频 → 特效 → 成品资产管理」的全链路创作环境。


这意味着,过去那些「模型之间来回切换」「素材导出导入」的步骤,被一次性整合进一个系统中。


虽然,这回的 LiblibAI 给出了一揽子升级,但是原有的 WebUI、ComfyUI、LoRA 也都没有取消


那么,这间全新的「工作室」,究竟能为创作带来什么?


简单来说:它把一个创作者最高频的几样需求,全都放在了触手可及的地方


总的来说,LiblibAI 2.0 新增了 4 个功能:图片生成、视频生成、视频特效、资产。我们一个一个来看。


首先是生图工作流


现在,在 LiblibAI 的 AI 生图工作室界面里,用户能一次性调用多种模型(Seedream 4.0、Nano Banana、Mj V7、F.1-Kontext 等),也支持超清 4K 图,并将素材、特效、视频在同一个工作区中连贯使用:



LiblibAI 2.0 的改动,本质上是在「降低切换摩擦」。


它让创作者能在同一个界面下完成不同模型的调用与测试。在我生图的时候,注意到目前的生图算力是打五折的,所以我一次性尝试了非常多轮的生图测试。


「十字路口」团队一直都计划着去硅谷办一场 AI Hacker House 的线下黑客松活动。所以这回我就以这个为主题来生成几张海报,试一试。


如果我想在海报中使用「Hackathon」这个词,如果使用中文的话,或者说有更多中文元素的话,我一般会用 Seedream 4.0。


垫一张我们 AI Hacker House 的参考图,提示词如下:









要是全英文的话,我一般会用 Nano 模型,它的效果会比较好一点,主要是在 LiblibAI 里面的操作流程确实非常流畅。我每回都会生成非常多轮的图片,主要也是便宜(趁着打折) :












还有一点就是,用 LiblibAI 有一个体感上特别明显的地方:因为它集成了非常多的模型,所以我会根据不同的模型调整不同的提示词,或者说用同一个提示词直接去用多个模型刷新测试,疯狂抽卡。


像是美感度还不错 Mj V7:



我还会用 Mj V7 来生成一只我们「 AI Hacker House 的标志性小猫咪」,像是这样比较有创新力的,又比较有美感的图片,在其他模型上可能会需要多 Roll 几 轮,但是 Mj V7 会好一点。



在 LiblibAI 里面的操作流程确实还是比较顺的。


比如说,你可以直接在同一个图片生成界面里面,将多个图片设置为参考图,然后它们会集中到一个输入框里面。


其实可以这么说,LiblibAI里面的生图流程和生视频的流程相比于一些专有平台来说,会稍微更顺畅一些,而且得益于社区长年的积累,灵感会更好找


像是,我就在社区里找了找灵感,让图 1 的小猫跳到图 2 的 AI Hacker House 文字上。



接下来我们可以继续抽卡了,可以选择多个模型进行反复的抽卡。 看看下面的效果,是不是还不错:







再比如,使用多个模型让这只小猫和 AI Hacker House 的标志进行组合。






其次,是视频生成。


目前,LibLib AI 里面接入了可灵、通义万象、海螺、vidu、Pixverse 等 SOTA AI 视频模型。


每个视频模型都支持非常多的特效。你可以在这个特效广场位置找到它们。我浅浅数了一下,5 个模型,一共有 100 个左右的特效模版



这个功能确实非常好玩。 「视频特效」,如果你点击这个模版之后呢,它会在 5 秒钟内给你整个视频 or 图片套上固定的特效。


像是在保持好一致性的情况下,把上面的那只 AI Hacker House 的小猫咪「捏团团」:


vidu 一秒入魂的「来点草间弥生」视频特效:


可灵的「万物膨胀」视频特效:


还有各种小创意:




生成的所有素材、视频、特效文件,都会自动存入「资产库」:



与此同时,那些我们老用户非常熟悉的「AI 工具箱」依然得到了保留。背景消除、风格迁移、构图扩展、局部修复……这一系列曾支撑起社区生态的功能,如今被重新整合进 Studio 工作流中。


所以,与其说 Liblib 2.0 新增了 4 块功能,不如说它把多年的技术与经验,向「工作流前端」又推进了一步。这个 AI 工具箱功能,也是一直以来的 LiblibAI 社区文化的最直观的体现


你能在 AI 工具箱里找到关于图片创作的大部分功能:



现在,这 4 大功能 + AI 工具箱等 LiblibAI 原有的社区创意储备,共同组成了一个很好用、比较全面的工作流。


下面,让我们总结下。


LiblibAI 2.0 的升级,其实是 AI 应用从「功能时代」迈向「场景时代」的同时,自己努力寻找新定位的一个缩影。


过去的逻辑是:模型强大 ≠ 创作高效。


而新的逻辑是:系统连贯 = 创作自由。


这种一站式的 Studio 模式,是否会成为未来 AI 创作工具的主流形态?它能否真正解决创作者的效率焦虑和成本焦虑?


时间会给出答案,但 LiblibAI 已经「先做为敬」了。


对于所有身处「工具大分裂」时代而感到疲惫的创作者来说,这个全新的「工作室」或许值得亲自推门进去看一看。


AI 创作的浪潮,正从最初的「技术狂欢」回归到「价值创造」。我们这些身处其中的创作者,也从追求「新奇特」,回归到追求「好用、高效」。


LiblibAI 2.0 的这次升级,恰好踩在了这个节点上。


它用一个「真· AI 创作 Studio」的形态,回应了我们这些创作者最朴素的期待:少一些折腾,多一些创作。


如果你也曾为散落各处的 AI 工具感到疲惫,为高昂的订阅费感到焦虑,那么,我真诚地建议你,去这个全新的工作室里坐一坐。



文章来自于微信公众号 “十字路口Crossing”,作者 “十字路口Crossing”

作者头像

AI前线

专注人工智能前沿技术报道,深入解析AI发展趋势与应用场景

246篇文章 1.2M阅读 56.3k粉丝

评论 (128)

用户头像

AI爱好者

2小时前

这个更新太令人期待了!视频分析功能将极大扩展AI的应用场景,特别是在教育和内容创作领域。

用户头像

开发者小明

昨天

有没有人测试过新的API响应速度?我们正在开发一个实时视频分析应用,非常关注性能表现。

作者头像

AI前线 作者

12小时前

我们测试的平均响应时间在300ms左右,比上一代快了很多,适合实时应用场景。

用户头像

科技观察家

3天前

GPT-4的视频处理能力已经接近专业级水平,这可能会对内容审核、视频编辑等行业产生颠覆性影响。期待看到更多创新应用!