工具&提示词设计生产力大提升

AIGC前沿驾驭AI

用StableDiffusion给自己设计一个独栋别墅,一分钟就能出图
Midjourney

用StableDiffusion给自己设计一个独栋别墅,一分钟就能出图

假如你有宅基地,正好又想自己建个新房,何必找什么设计院!设计公司,装修设计师?只要你能手画得草图,只要你能简单玩玩StableDiffusion,分分钟就能自己设计!!!!!! 建议使用秋叶大神的webui整合包,随时更新!分秒新鲜!!!! 底模建议使用老王_Architecutral_MIX;这是国内作者专门制作的建筑类效果图表现模型,效果非常好,技术很专业! 推荐分辨率在1024*768以上,默认512的像素无法取得良好的效果! LORA风格模型可以选用: 别墅简约风 – V1.0 配合 house_architecture_Exterior_SDlife_Chiasedamme,前者是一个别墅风格模型,后者是建筑表现风格模型! 出图参数:大小512*512 采用器:Euler a ,采样步数:30 使用高清放大:放大算法:Larent 倍数2 重绘幅度 0.7 ,seed:1162457424 seed:1162457424 正面提示词如下:<lora:别墅简约风:0.4>,Minimalist style,villa,jjbs,a three-story villa,the main body of the building is mainly white wall,(there are also a few gray walls and grilles:0.7),there are terraces on the second...
价值1亿美金时,Stable Diffusion背后的团队互撕,谁才是真官方?
Midjourney

价值1亿美金时,Stable Diffusion背后的团队互撕,谁才是真官方?

机器之心报道 机器之心编辑部 Stable Diffusion 到底是谁的 Stable Diffusion? 前几天,一家 AI 公司融资的消息吸引了不少人的目光。这家公司名叫 Stability AI,成立于 2020 年,在拿到本轮 1.01 亿美元的融资之后成为新晋独角兽,估值高达 10 亿美元。 在很多媒体的报道中,这家公司还有一个特别的身份——Stable Diffusion 背后的公司,因为他们为近段时间大火的、可以在消费级 GPU 上快速生成高质量图像的 Stable Diffusion 内容生成模型提供了算力支持。 Stable Diffusion 生成的高质量图像。 在 Stability AI 的高调宣传下,许多人以为这家公司就是 Stable Diffusion 的所有者,毕竟一个月前他们刚刚官宣发布 Stable Diffusion,并引发业内极大的关注。 Stability AI 官方博客发布 但其实,这个模型的技术来源是发表在 CVPR 2022 中的一篇论文《High-Resolution Image...
7000字详解!幼儿园都能看懂的Stable Diffusion工作原理
Midjourney

7000字详解!幼儿园都能看懂的Stable Diffusion工作原理

作为文生图的大模型代表,Stable Diffusion在业内被越来越多的人使用。但很多人其实并不明白其工作原理。这篇文章,作者梳理了Stable Diffusion的工作原理,希望能够帮助大家更好的理解和使用它。 事先声明!本文没有苦涩难懂的各种专业术语和代码公式,请大家放心食用!! 在过去的一年里,AIGC在绘画领域的蓬勃发展对设计行业的冲击相信大家都有目共睹。各个公司都在要求设计师必须会使用 AIGC 的相关工具,其中以 Stable Diffusion 为基础的系列工具和 Midjourney 应用范围最广。 AI绘画领域能够取得如此巨大的进展,很大的功劳要归属于Stability AI发布了开源的Stable Diffusion。 它除了降低硬件要求,使其可以在相对普通的硬件上运行外。也正是因为它的开源性,应运而生的相关研究和为了更好控制模型的各种插件才发展的尤为繁荣。 本文也将从 Stable Diffusion 从发,聊一聊它的工作原理,希望能够帮助大家更好的理解和使用它。 为什么需要了解 SD 的工作原理 在使用 Stable Diffusion相关工具时,并非一定需要了解它的工作原理,但了解它对后续的使用会很有帮助。当遇到生成图片质量低,各种参数不知道怎么调整时,不会举手无措。因为你会知道它的配置参数比如:种子、采样器、步数、CFG 比例或去噪强度等是如何去影响最终生成图片的,能够帮助我们自定义调整算法以适应特定的设计需求和偏好,从而生成更符合预期的视觉内容。 在接下来的内容中,我会通过类比的方式让大家了解 Stable Diffusion的内部工作原理,以及它是如何能够通过提示词、图像参考等输入条件来生成各种创意图像的,再次强调本文没有苦涩难懂的各种专业术语和代码公式,几乎适合所有人。如果你在使用 Stable Diffusion 生图得时候,出图总是差强人意,相信看完这篇文章会对你有很大的帮助。 一、生成式模型的发展 生成模型发展初期主要是基于生成对抗网络(GAN),但在2021年随着扩散模型性能的显著提升和生成质量的大幅度改进逐渐成为主流。 因为它更接近人的思维模式,能够实现更自然和多样化的生成内容。 与传统的GAN相比,扩散模型在生成样本的质量、多样性和稳定性上具有一定的优势。并且在跨模态应用中表现出色,例如OpenAI的GLIDE和DALL·E 2、谷歌的Imagen、以及Stability AI的Stable Diffusion等都是基于扩散模型的应用,凸显了它在文本到图像生成中的强大能力。 下面我们先来介绍一下两者的工作原理,放心你一定能看懂! 1. 生成对抗网络(GAN)的工作原理 生成对抗网络(GAN)是由两部分组成的深度学习模型,它的核心思想是让两个网络一个生成器(Generator)和一个判别器(Discriminator)相互对抗,以此来提高生成数据的质量。 接下来我们用设计师做比喻来解释一下生成对抗网络(GAN)的工作原理,想象一个由两位设计师组成的团队:一位是设计实习生(生成器),另一位是设计总监(判别器)。他们相互配合完成客户所要求的视觉作品。 设计实习生(生成器):...
咱也来聊聊Sora

咱也来聊聊Sora

近几日,关于Sora来了的文章铺天盖地,究竟是狼来了还是Sora真的来了,我们来聊一聊。 什么是Sora? Sora是由全球领先的AGI创企OpenAI推出的最新文生视频大模型。Sora能够通过文字指令生成长达1分钟的高清视频,进一步拓展了AI技术的应用领域。Sora的强大之处在于其能够生成复杂的场景,并保持角色、运动和背景的准确细节。此外,谷歌的新一代多模态模型Gemini Pro 1.5也表现出突破性的能力。 怎么热的? 既然是首个生成时长达到1分钟的文生视频大模型,当然值得大家关注,同样也值得各位媒体人关注并蹭热度(包括我),资本在大肆宣传(股价疯涨)。。。,不可谓不热。 回归本质,怎么用? 文生视频国内很多AI大厂也有相关产品,但普遍质量和效果都不理想,根据目前Sora所展现出来的技术能力来看,用途广泛,之前很多不敢想的事情都实现了,例如一个编剧完成一部电影。但想要在国内市场应用很难,一方面国家不会放任这种不可控的产品推广,另一方面陈本也不会低了。 都说是自媒体的神器,用AI生成文案在通过Sora生成视频,专区流量带货,多么美好的场景,但是新手承担不了成本,大V看不上。 结论: 针对目前所掌握的资料,Sora不管是从产品还是技术都具有他的颠覆性和绝对领先性,但离普通人还挺远,国内厂商想追赶也并非一朝一夕,让消息再飞会,理性看待。