文章主题:AI图片生成技术, 图片编辑, 自然语言处理, 人工智能应用
自从AI图片生成技术爆火以后,各路玩家纷纷亲自尝试。
要不就是用AI做个头像,要不就是生成一些奇思妙想的画作。
但要我说,这些点子和今天的主人公Dinda比起来,简直就是不值一提。
思路打开一点嘛。
用高科技应付长辈?
Dinda,作为YouTube的一名照片编辑,遵循“近水楼台先得月”的原则,他每天的主要工作就是与图片编辑软件进行紧密的接触和合作。
最近,Dinda遭遇了全世界大龄青年都会面临的问题——来自长辈的催婚。
然而,Dinda小哥在事业上尚未取得成功,如何考虑子女之情呢?然而,来自长辈的压力又无法忽视,因此,他只能选择一条道路来解决这个问题——欺骗长辈。
在过去,伪造事实是一项充满挑战的任务。为了找到一个了解内情的异性伙伴,并安排一次“一日情侣”的约会,需要费尽心思。一旦双方家长见面,只需尽量模糊事实真相,就能轻松应对。
但是不得不说,风险挺大的。一个大活人,可不能随时都配合着应付来自长辈的检查。
Dinda提出了一个巧妙的解决方案。她认为,如果能够利用DALL-E生成大量自己和女朋友互动的照片,然后定期向长辈分享这些照片,就可以轻松应对日常社交场合了。
作为一名文章写作高手,我会以专业的高标准重新组织原文内容,使其表达更为准确、清晰和有深度。Dinda是一位技术娴熟的图像编辑师,她最近采用了DALL-E的图像修复功能来进行操作。这个功能使得用户可以轻松地擦除图片中的一部分,同时DALL-E会根据用户输入的文字自动填补空缺的部分。这种技术的出现,无疑极大地提高了图像编辑的效率和精准度,使得即使是初学者也能够轻松完成高质量的图像处理任务。
因此,Dinda精心调整了自己的自拍照片,同时清理了周围的空间,留出了一个恰好能够容纳她想象中的女朋友的位置。
接着,他在指令中输入——一个有女朋友的男人。
然后,啪。
这还不算完,一般和修图打交道的人都很重视细节。
为使生成的图像更加真实,Dinda将虚拟女友的面部进行了裁剪,并将其导出至名为GFP-GAN的人工智能图片编辑软件中。
这个程序允许用户Dinda对图像进行微调,以便使其看起来更加真实。完成微调后,她可以将修改过的图片放入Photoshop中进一步编辑。在完成所有必要的调整后,她可以将图片放回原始状态,从而获得最终的完美效果。
这样一来,生成的照片就无可挑剔了。
Dinda表示,「就算我告诉别人这张照片是生成的,90%的人也不知道哪里是动过的。」
与此同时,他还演示了照片编辑人员如何使用同样的技术在AI的帮助下把人去掉。
还是一样的把要去掉的人身上涂抹一下,DALL-E就会生成一个替代背景出来。虽然背景很复杂,但是生成出来的图片也还可以。
超凡图像生成工具!
DALL-E究竟是什么呢?
我不允许还有人没听说过DALL·E。毕竟,现在都出到2代——DALL·E 2了。
这是一款由OpenAI开发的转化器模型,全部的功能就是把「话」变成「画」。
具体来说,DALL·E是一个有120亿参数版本的GPT-3,被训练成了使用文本生成图像的模型。背后的数据集是文本-图像的对应集。
比如上面这几张图,有戴帽子的狗,做实验的熊猫,还有长得像星云的狗狗。有没有觉得,哪怕不合常理,但是并不违和?这就是DALL·E能做到的。说起DALL-E的源头,其实是研究人员从GPT-3那里得到了启发。GPT-3是个用语言生成语言的工具,而图像GPT则可以用来生成高保真度的图片。
研究人员发现,用文本来操控视觉,是可以做到的。也就是这样,DALL·E成为了一个和GPT-3一样的转化器。
在此基础上,研究人员又开始琢磨同时用文本描述多个物体,生成一张图。这些物体各自的特征、之间的空间位置关系全都交给文字来描述。
比方说,输入文本:一只戴着红帽子、黄手套,穿着蓝衬衫和绿裤子的刺猬。为了正确生成对应的图片,DALL·E不仅要正确理解不同衣服和刺猬之间的关系,还不能混淆不同衣服和颜色的对应关系。
这种任务被称作变量绑定,在文献中有大量的相关研究。
可以说,DALL·E从1代到2代,就是这么一个个小任务走过来的。最终能够呈现的就是一个不错的文本-图像转化器。
T2I究竟有多卷?
要说今年最火的AI便是多模态人工智能崛起。
上半年,文本生成图像AI模型(T2I)各家争霸。
除了DALL-E,谷歌自家Imagen、Parti,Meta的文本图像生成工具Make-A-Scene,再到现在大火的Stable Diffusion、谷歌文本3D生成模型DreamFusion都在扩充着文本转图像的应用。
先是4月,在GPT-3大模型的加持下,Open AI对画图界的扛把子DALL-E进行了2.0版的全面升级。
和上一代相比,可以说,DALL·E 2简直就是直接从二次元简笔画走向超高清大图:
分辨率提升4倍,从256×256提升到了1024×1024,并且生成图像的准确率也更高!
5月,谷歌不甘落后推出AI创作神器Imagen,效果奇佳。
仅仅给出一个场景的描述,Imagen就能生成高质量、高分辨率的图像,无论这种场景在现实世界中是否合乎逻辑。
6月,谷歌再次推出了新一代AI绘画大师Parti。
要说Imagen和Parti不同地方,便在于采取了不同的策略——自回归和扩散。
Parti是一个自回归模型,它的方法首先将一组图像转换为一系列代码条目,然后将给定的文本提示转换为这些代码条目并「拼成」一个新图像。
7月,Meta公布了自家的AI「画家」——Make-A-Scene,通过文本描述,再加上一张草图,就能生成你想要的样子。
最重要的是,构图上下、左右、大小、形状等各种元素都由你说了算。
可以看到,DALL-E 2、Imagen等仍然停留在二维创作,无法生成360度无死角的3D模型。
而谷歌发布的文本3D生成模型DreamFusion便开辟了这一新路线。
训练后的模型可以在任意角度、任意光照条件、任意三维环境中基于给定的文本提示生成模型。
而且整个过程既不需要3D训练数据,也无需修改图像扩散模型,完全依赖预训练扩散模型作为先验。
由此可见,在文本转图像这块,各大厂已经卷上了新高度。
甚至有人称,今年文本转视频AI模型暂时还不会到来。
没想到的是,Meta和谷歌再次打破了这一预言。
T2V已来!
9月底,Meta最先公布了文本一键生成视频模型Make-A-Video。
这一模型厉害到什么程度?
除了可以把文本变成视频之外,它也可以把静态图变成Gif、把视频变成视频。
这一模型发布后,就连图灵奖得主Yann LeCun称,该来的都会来。
比如「马儿喝水」,生成如下效果:
猫主子拿着遥控器在看电视
简直AI导演上线。
紧接着10月,谷歌还是文本视频模型两连发。
先是Imagen Video,与Meta的Make-A-Video相比最突出一个特点就是「高清」。
它能生成1280*768分辨率、每秒24帧的视频片段。
与此同时,还有Phenaki模型,让骑马的宇航员也动了起来。
这一模型能根据200个词左右的提示语生成2分钟以上的长镜头,讲述一个完整的故事。
在文本转视频上,下一个谁会接棒?
参考资料:
https://petapixel.com/2022/10/14/photographer-creates-ai-girlfriend-to-stave-off-nosy-relatives/
AI图片生成技术, 图片编辑, 自然语言处理, 人工智能应用
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!