终于来了,Midjourney V6 很强大
Midjourney

终于来了,Midjourney V6 很强大

我们一直在等待的时刻终于来了——Midjourney V6来了!作为这个极其强大的人工智能艺术生成的长期粉丝,当 David Holz 在圣诞节前宣布发布 alpha 版本时,大家都很开心。 MidjourneyV6有什么新功能? V6可以更准确地理解提示V6 可以遵循更长的提示提高一致性和模型知识改进的图像提示和重新混合文字绘制能力较弱(必须将文字写在“引文”中)改进的升级器,具有“微妙”和“创意”模式(分辨率提高 2 倍) 如何激活MidjourneyV6 前往Discord上的 Midjourney 服务器。 打开 Midjourney 聊天实例并键入/settings以调出设置菜单。在默认模型下拉列表中,选择“Midjourney Model V6 [ALPHA]”。您可以尝试其他设置,但我现在将它们保留为默认值。 接下来,输入imagine关键字,弹出提示框,您可以在其中描述要生成的图像。 这是以下提示的结果: 提示:一张 32 岁女性在丛林中的照片,她是一位崭露头角的自然资源保护主义者;运动型短卷发和温暖的微笑 — s 250 — v 6.0 人工智能将生成结果的四种变体。单击 U1 至 U4 按钮,选择您想要升级的版本。 在此示例中,我想放大第二张图像。这是最终结果: 这是更多示例照片 提示:成年女性的照片。你的美丽无与伦比 全新的“文本”功能 我想强调一下这个包括我在内的粉丝们一直在等待的全新功能——文本功能。尽管 Midjourney 团队称该功能是“次要的”,但我的初步测试证明它已经相当优秀了。 这是一个例子:...
简洁、生动,图解「老画师」DALL-E 2的工作原理
Midjourney

简洁、生动,图解「老画师」DALL-E 2的工作原理

选自assemblyai 作者:Ryan OConnor 机器之心编译 编辑:蛋酱 效果惊艳的 DALL-E 2,到底是怎么工作的? 2022 年 4 月初,OpenAI 的开创性模型 DALL-E 2 登场,为图像生成和处理领域树立了新的标杆。只需输入简短的文字 prompt,DALL-E 2 就可以生成全新的图像,这些图像以语义上十分合理的方式将不同且不相关的对象组合起来,就像通过输入 prompt「a bowl of soup that is a portal to another dimension as digital art」,便生成了下面的图像。 DALL-E 2 甚至可以修改现有图像,创建处保有其显著特征的图像变体,并在两个输入图像之间进行插值。DALL-E 2 令人印象深刻的结果让许多人想知道,这样一个强大的模型究竟是如何工作的。 在本文中,我们将深入了解 DALL-E 2 如何创造出众多令人惊艳的图像。将提供大量背景信息,并且解释级别将涵盖范围,因此本文适合具有多个机器学习经验级别的读者。 总体来说,DALL-E 2 的亮点如下: 1....
Midjourney 出图效果总比别人差?看看是不是这3点没做好!
Midjourney

Midjourney 出图效果总比别人差?看看是不是这3点没做好!

大家好,我是花生~ 很多小伙伴都会在「优设 AI 绘画交流群」以及文章评论区中非常积极地和我探讨Midjourney的使用问题,我在帮助大家的同时自己也学到了不少新的技巧。今天就写一篇文章解释 3 个比较常见的疑问,希望对大家有帮助。 一、人物面部模糊 问题描述:在生成人物全身图的时候,面部很模糊,五官特别是眼睛看着很不自然。尝试过垫图、生成变体、局部重绘等方式,都没有办法修复这个问题。 生成人物全身图时面部效果差是一个目前 Midjourney 的真实短板之一,很多用户都向官方反馈了这个问题,而针对它的优化也已经被提上日程,所以这个问题应该很快会被解决。而之所以会出现这种问题,是因为全身图中面部占太小,没有足够的像素来生成精致的细节。 一般来说一张图像的分辨率越高,在相同显示面积内的像素点就越多,图像细节就越丰富,看起来也就越清晰。以 Midjourney 默认的 1024*1024 分辨率来说,如果直接生成一张人物面部的特写图像,那么至少会有 30% 的像素点用于生成面部,可以保证五官细节清晰;而在生成全身图时,面部能分配到像素点可能不到 10%,也就无法精致的细节了,导致脸很模糊。 所以我们目前可以通过一些其他的功能来解决这个问题,比如先生成针对面部的特写,然后通过 reframe 功能(原来的 Pan/Zoom)对图像进行外绘拓展,这样就能优先保证五官的细节,是效果比较好的一种方式。 我还测试过另外一种方法也有一定的面部修复作用,即用 Midjourney 自带的 Creative Upscale 来提升面部精度。因为 Creative Upscale 在放大图像时,会在图像中重新添加一些的噪点再生成图像,所以它放大的图像会与原图有所不同,但细节更丰富,面部细节也能在这个过程中得到优化。 二、局部重绘不起作用 问题描述:在使用 Repaint 局部重绘修改或者添加元素时,效果并不好甚至根本不起作用。 一般来说出现这种情况主要是因为选择的重绘区域面积太小,导致 Midjourney 没有足够的空间生成新的细节。官方建议框选的区域要占图像总面积的 20% – 50%。下图我测试的结果,可以看到在框选区域变大之后,画面出现新元素的几率也变高了。因此即使你要添加的物体本身很小,但是选择重绘区域时还是尽量大一些。 此外提示词也会对生成效果有一定的影响,局部重绘的提示词要保持简短直接,比如你想修改人物的衣物,就只写 “a white dress”...
博士意外发现秘密:DALL-E 2自创语言,人看不懂但能生成特定图像
Midjourney

博士意外发现秘密:DALL-E 2自创语言,人看不懂但能生成特定图像

丰色 金磊 发自 凹非寺 量子位 | 公众号 QbitAI DALL·E 2,这个AI竟然自己搞了一套秘密语言。 例如这两个非常奇怪的词组: Apoploe vesrreaitais(下文简称A)Contarra ccetnxniams luryca tanniounons(下文简称C) (翻译软件都会崩溃,可以去试试) 但到了DALL·E 2这里,画风却截然不同。 在它看来,A就是“鸟类”的意思,而C则是“害虫”之意。 于是乎,如果给DALL·E 2喂上一句:A eat C,那么它的打开方式就会这样: 清一色产出的图片,都是鸟吃害虫相关。 而且你要是跟DALL·E 2说,生成“两只鲸鱼讨论食物,带字幕”,结果会是这样: 图里的“Wa ch zod rea”,在DALL·E 2的词库里竟然是“食物”的意思! 此事一经曝光,瞬间引发了众多网友的热议。 甚至还有人提出,有了这些秘密语言,可以绕开DALL·E 2的“违禁词过滤器”,从而生成一些有争议的图像了。 (搞事情!) 所以,关于DALL·E 2的秘密咒语,到底是怎么一回事? 一次意外的发现 发现这个问题的是国外一名计算机专业的博士生。 他注意到DALL-E 2模型在遇到需要给出带文字的图像时,总是会出现一些奇怪的单词。 比如输入这句:“两个农民谈论蔬菜,带字幕(Two farmers talking about...