工具&提示词设计生产力大提升

AIGC前沿驾驭AI

DALL-E3目前面对的问题
Midjourney

DALL-E3目前面对的问题

文末有福利 三年前,Thomas Smith 担任 OpenAI 的早期 Beta 测试员。在发布前几个月或几年使用最终成为 ChatGPT 的模型是令人兴奋的。 虽然OpenAI早期的文本模型让Thomas Smith惊叹不已,但他仍然记得第一次使用OpenAI第一代图像创建系统DALL-E的情景。 作为一名摄影师,您可以输入简单的提示并获取实际图像的想法是开创性的。虽然这些图像只有 500 像素宽,而且常常非常奇怪,但它仍然感觉很科幻。 快进两年,像 Midjourney 这样的人工智能图像生成系统可以生成照片高质量的图像,足以赢得摄影比赛。 当 OpenAI本周发布了万众期待的 DALL-E3 模型时,整个 AI 和摄影界都屏息以待,想看看 DALL-E3 能实现什么新魔力。 上周,Thomas Smith是第一批访问 DALL-E3 的用户之一。不幸的是,对于专业用户来说,新系统并不像许多人希望的那样具有开创性或有趣。 尽管如此,对于某些类型的用户来说,DALL-E3 仍然是向前迈出的一大步。原因如下。 盲目飞行 与 ChatGPT Vision(一项真正革命性的、接近 OpenAI 的功能)一样,新的 DALL-E3 直接内置于 ChatGPT 界面中。您可以通过选择 DALL-E3 模型来访问它,就像您在不同的 ChatGPT 文本模型之间进行选择一样。 在...
DALL-E 3动嘴改图上线,四大优点快速上手体验!碾压对手还需要时间!
Midjourney

DALL-E 3动嘴改图上线,四大优点快速上手体验!碾压对手还需要时间!

扫除AI绘画的迷雾,全面解读AIGC的秘密!加入《AI绘画与AIGC实践之路》专栏,快速入门! 自OpenAI宣布推出DALL-E 3以来,引发大量的关注,但绝大多数人并没能亲身体验他的真实效果。根据官方介绍,DALL-E 3是OpenAI最新推出的文本转图像工具,它可以根据用户提供的文本描述生成各种类型和风格的图像。 DALL-E 3是在DALL-E 2的基础上升级而来,具有以下四个方面的优势: DALL-E 3能够更好地理解用户的命令,生成更符合文本要求的图像。例如,如果用户输入“一个穿着芭蕾舞裙的小萝卜在遛狗”,DALL-E 3可以生成一张清晰可爱的插画,而不是一些模糊不清或者与文本无关的图像。 DALL-E 3能够生成具有可读性的文本和排版,这是DALL-E 2或者其他竞争对手难以做到的。例如,如果用户输入“一个有‘openai’字样的店铺”,DALL-E 3可以生成一张包含不同字体和颜色的‘openai’标志的店铺图片,而不是一些随机或者不清楚的文字。 DALL-E 3能够与ChatGPT聊天机器人无缝整合,让用户可以直接在ChatGPT中使用DALL-E 3生成图像,或者让ChatGPT帮助用户完善文本描述。例如,如果用户只输入“一个沙发”,ChatGPT可以自动给出一些更具体和有趣的描述,如“一个形状像牛油果的沙发”,然后DALL-E 3根据这些描述生成相应的图像。 DALL-E 3在安全性方面也有所改进,它可以拒绝生成一些涉及公众人物、暴力、成人或仇恨内容的图像。此外,OpenAI也在研究如何帮助人们识别哪些图像是由AI生成的,以防止可能存在的滥用或误导。 一个好消息是,Dall-E3已经在必应中推出,现在你可以直接在必应的聊天界面使用Dall-E3模型生成图像,体验一下官方提到的优点是否真实。建议先打开Bing的创意开关。下面先看一个快速体验视频: 一、DALL-E 3生成可读性的文本 下面我们先来体验一下DALL-E 3生成可读性文本的能力,首先让Dall-E3生成一张“一个人坐在电脑前,屏幕上显示着‘Im working! ’” 二、DALL-E 3与ChatGPT交互修改图像 接下来提示:将电脑改为Mac。结果如下。 继续修改,把坐着的人改成美女。 甲方脑子短路,要求改为室外场景,没问题: 甲方表示,要中国人,不要老外,好的,继续改: 但应该注意到的是,在Bing里的ChatGPT只能根据用户提示不断修改提示语,并不能直接修改已生成的图像,也就无法根据创作者的意图调整图像细节和走向,实用性大打折扣,碾压Midjourney和Stable Diffusion还需要时日。如果未来能够直接根据语义修改已有图像,那才是碾压性的能力,这从理论上来说是可以实现的。 三、DALL-E 3生成图像的质量如何 四、DALL-E 3对复杂语义的理解能力: 风来了,猪都能飞上天。 探险家在海底发现了泰坦尼克号的残骸。 哥特教堂的局部雕塑,异形大战铁血战士。 梵高的作品,巨人举起光剑,周围一群人围观。 日本富士山沉没在海底,火山熔岩。 更复杂的:牛顿和史蒂夫并肩站着,中间有“每个苹果都有一个故事”这句话,牛顿留着浓密的卷发,穿着17世纪的服装,手里拿着一个红苹果。在他旁边,史蒂夫穿着他标志性的黑色高领毛衣和眼镜,拿着一个时尚的iPad。 改成摄影风格...
OpenAI终于Open一回:DALL-E 3论文公布、上线ChatGPT,作者一半是华人
Midjourney

OpenAI终于Open一回:DALL-E 3论文公布、上线ChatGPT,作者一半是华人

MLNLP 社区是国内外知名的机器学习与自然语言处理社区,受众覆盖国内外NLP硕博生、高校老师以及企业研究人员。 社区的愿景是促进国内外自然语言处理,机器学习学术界、产业界和广大爱好者之间的交流和进步,特别是初学者同学们的进步。转载自 | 机器之心 打开 ChatGPT 就能用 DALL・E 3 生成图片了,OpenAI 还罕见地发布了一些技术细节。 终于,「OpenAI 又 Open 了」。在看到 OpenAI 刚刚发布的 DALL・E 3 相关论文后,一位网友感叹说。 DALL・E ‍3 是 OpenAI 在 2023 年 9 月份发布的一个文生图模型。与上一代模型 DALL・E 2 最大的区别在于,它可以利用 ChatGPT 生成提示(prompt),然后让模型根据该提示生成图像。对于不擅长编写提示的普通人来说,这一改进大大提高了 DALL・E 3 的使用效率。 此外,与 DALL・E 2 相比,DALL・E 3 生成的图质量也更高。 DALL・E 2...
中国版Sora来了!Vidu是何方神圣?

中国版Sora来了!Vidu是何方神圣?

来源:雷科技AI硬件组 | 编辑:冬日果酱 | 排版:LIN 2 个月前,OpenAI 发布了全新的文生视频模型 Sora,瞬间引爆了全球科技圈,也让马斯克说出了「人类愿赌服输」。在那之后,没有任何一个大模型敢于在文生视频领域「挑衅」Sora。 现在,事情有了变化。 在 4 月 27 日举办的 2024 中关村论坛上,生数科技与清华大学联合发布了「Vidu」文生视频模型,全面对标 OpenAI 的 Sora。 Vidu 生成,动图经过压缩。图/生数科技 不仅是在视频生成分辨率和时长上,最关键的根据官方放出的生成视频,Vidu 已经实现了相当程度的「拟真」——模拟真实世界的物理原理,以及主体的一致性。这是 Vidu 真正对标 Sora 的底气。 但 Vidu,离 Sora 到底还有多少差距? 对标 Sora,Vidu 还差「一点」 从这次发布可以看出,Vidu 处处都在对标 Sora。同样是通过提示词直接生成视频,同样支持最高 1080P,虽然 16 秒的生成视频时长还明显短于 Sora(最长 60 秒)。 最明显的还是生成的视频内容。 比如 Sora 街头行走这一段,相信会看这篇文章的读者应该都看过,一度刷爆了各大社交媒体。 Sora 生成,动图经过压缩。图/...