用StableDiffusion给自己设计一个独栋别墅,一分钟就能出图
Midjourney

用StableDiffusion给自己设计一个独栋别墅,一分钟就能出图

假如你有宅基地,正好又想自己建个新房,何必找什么设计院!设计公司,装修设计师?只要你能手画得草图,只要你能简单玩玩StableDiffusion,分分钟就能自己设计!!!!!! 建议使用秋叶大神的webui整合包,随时更新!分秒新鲜!!!! 底模建议使用老王_Architecutral_MIX;这是国内作者专门制作的建筑类效果图表现模型,效果非常好,技术很专业! 推荐分辨率在1024*768以上,默认512的像素无法取得良好的效果! LORA风格模型可以选用: 别墅简约风 – V1.0 配合 house_architecture_Exterior_SDlife_Chiasedamme,前者是一个别墅风格模型,后者是建筑表现风格模型! 出图参数:大小512*512 采用器:Euler a ,采样步数:30 使用高清放大:放大算法:Larent 倍数2 重绘幅度 0.7 ,seed:1162457424 seed:1162457424 正面提示词如下:<lora:别墅简约风:0.4>,Minimalist style,villa,jjbs,a three-story villa,the main body of the building is mainly white wall,(there are also a few gray walls and grilles:0.7),there are terraces on the second...
价值1亿美金时,Stable Diffusion背后的团队互撕,谁才是真官方?
Midjourney

价值1亿美金时,Stable Diffusion背后的团队互撕,谁才是真官方?

机器之心报道 机器之心编辑部 Stable Diffusion 到底是谁的 Stable Diffusion? 前几天,一家 AI 公司融资的消息吸引了不少人的目光。这家公司名叫 Stability AI,成立于 2020 年,在拿到本轮 1.01 亿美元的融资之后成为新晋独角兽,估值高达 10 亿美元。 在很多媒体的报道中,这家公司还有一个特别的身份——Stable Diffusion 背后的公司,因为他们为近段时间大火的、可以在消费级 GPU 上快速生成高质量图像的 Stable Diffusion 内容生成模型提供了算力支持。 Stable Diffusion 生成的高质量图像。 在 Stability AI 的高调宣传下,许多人以为这家公司就是 Stable Diffusion 的所有者,毕竟一个月前他们刚刚官宣发布 Stable Diffusion,并引发业内极大的关注。 Stability AI 官方博客发布 但其实,这个模型的技术来源是发表在 CVPR 2022 中的一篇论文《High-Resolution Image...
7000字详解!幼儿园都能看懂的Stable Diffusion工作原理
Midjourney

7000字详解!幼儿园都能看懂的Stable Diffusion工作原理

作为文生图的大模型代表,Stable Diffusion在业内被越来越多的人使用。但很多人其实并不明白其工作原理。这篇文章,作者梳理了Stable Diffusion的工作原理,希望能够帮助大家更好的理解和使用它。 事先声明!本文没有苦涩难懂的各种专业术语和代码公式,请大家放心食用!! 在过去的一年里,AIGC在绘画领域的蓬勃发展对设计行业的冲击相信大家都有目共睹。各个公司都在要求设计师必须会使用 AIGC 的相关工具,其中以 Stable Diffusion 为基础的系列工具和 Midjourney 应用范围最广。 AI绘画领域能够取得如此巨大的进展,很大的功劳要归属于Stability AI发布了开源的Stable Diffusion。 它除了降低硬件要求,使其可以在相对普通的硬件上运行外。也正是因为它的开源性,应运而生的相关研究和为了更好控制模型的各种插件才发展的尤为繁荣。 本文也将从 Stable Diffusion 从发,聊一聊它的工作原理,希望能够帮助大家更好的理解和使用它。 为什么需要了解 SD 的工作原理 在使用 Stable Diffusion相关工具时,并非一定需要了解它的工作原理,但了解它对后续的使用会很有帮助。当遇到生成图片质量低,各种参数不知道怎么调整时,不会举手无措。因为你会知道它的配置参数比如:种子、采样器、步数、CFG 比例或去噪强度等是如何去影响最终生成图片的,能够帮助我们自定义调整算法以适应特定的设计需求和偏好,从而生成更符合预期的视觉内容。 在接下来的内容中,我会通过类比的方式让大家了解 Stable Diffusion的内部工作原理,以及它是如何能够通过提示词、图像参考等输入条件来生成各种创意图像的,再次强调本文没有苦涩难懂的各种专业术语和代码公式,几乎适合所有人。如果你在使用 Stable Diffusion 生图得时候,出图总是差强人意,相信看完这篇文章会对你有很大的帮助。 一、生成式模型的发展 生成模型发展初期主要是基于生成对抗网络(GAN),但在2021年随着扩散模型性能的显著提升和生成质量的大幅度改进逐渐成为主流。 因为它更接近人的思维模式,能够实现更自然和多样化的生成内容。 与传统的GAN相比,扩散模型在生成样本的质量、多样性和稳定性上具有一定的优势。并且在跨模态应用中表现出色,例如OpenAI的GLIDE和DALL·E 2、谷歌的Imagen、以及Stability AI的Stable Diffusion等都是基于扩散模型的应用,凸显了它在文本到图像生成中的强大能力。 下面我们先来介绍一下两者的工作原理,放心你一定能看懂! 1. 生成对抗网络(GAN)的工作原理 生成对抗网络(GAN)是由两部分组成的深度学习模型,它的核心思想是让两个网络一个生成器(Generator)和一个判别器(Discriminator)相互对抗,以此来提高生成数据的质量。 接下来我们用设计师做比喻来解释一下生成对抗网络(GAN)的工作原理,想象一个由两位设计师组成的团队:一位是设计实习生(生成器),另一位是设计总监(判别器)。他们相互配合完成客户所要求的视觉作品。 设计实习生(生成器):...
Midjourney宣布将进军硬件领域
Midjourney

Midjourney宣布将进军硬件领域

#记录我的2024# 快速导读 Midjourney,一个在没有风险投资的情况下创造超过14亿人民币收入的人工智能图像生成平台,现已扩展至硬件开发。公司宣布将在美国加利福尼亚州旧金山设立新的硬件团队,并呼吁潜在团队成员加入。该举措标志着Midjourney在多元化运营方面的重要一步,目前员工人数不到100人。阿哈迈德·阿巴斯的加入可能为公司未来硬件项目提供线索,他曾在Neuralink工作,并参与苹果混合现实耳机的开发。尽管尚未透露具体项目,Midjourney表示已有多个项目在进行中。首席执行官大卫·霍尔茨在硬件领域的丰富经验也为公司未来发展提供了支持。尽管面临法律挑战,Midjourney仍专注于推动视频和3D生成的AI模型,可能将新硬件举措与这些技术进展结合。 Midjourney扩展至硬件开发 Midjourney,这个据说在没有任何风险投资的情况下就创造了超过14亿人民币(CNY)收入的人工智能图像生成平台,如今正迈入硬件领域。该消息于周三(北京时间2024年8月28日17:24)在X平台上发布,公司透露其新的硬件团队将设立在美国加利福尼亚州的旧金山。这标志着Midjourney在多元化运营方面迈出了重要一步。 新团队与招聘计划 该帖子还呼吁潜在的团队成员,声明:“我们正式进入硬件领域。如果你有兴趣加入旧金山的新团队,请发送电子邮件至hardware@midjourney.com。”这一招聘努力表明公司致力于建立一个专注于硬件创新的强大团队。目前,Midjourney的员工人数不到100人,使得这一新举措成为显著的扩展。 领导层与未来方向 2月份聘请的阿哈迈德·阿巴斯可能为Midjourney未来可能探索的硬件类型提供了一些线索。阿巴斯曾是Neuralink的员工,在苹果的混合现实耳机Apple Vision Pro的工程开发中发挥了重要作用。尽管公司尚未披露具体项目,但他们已表示“多个项目正在进行中”。Midjourney的首席执行官大卫·霍尔茨在硬件领域经验丰富,他是Leap Motion的联合创始人,该公司以其运动追踪外设而闻名。尽管面临有关其AI训练方法的法律挑战,Midjourney仍然专注于推动视频和3D生成的AI模型的发展,这可能将新的硬件举措与这些进展联系起来。