一文读懂「AI+游戏」
AIGC游戏

一文读懂「AI+游戏」

文/WenlonChatGPT于2022年11月30日由OpenAI推出。5天后,用户数量过百万,两个多月后(2023年1月),ChatGPT的用户数超过1亿,成为增长最快的消费者应用程序。这家公司已经深耕8年,而他们也仅是AI生态中的公司之一,AI生态这个庞然大物还未真正浮上水面。或许可以说,GPT4预示着AI生态的时代已经慢慢拉开了帷幕。在游戏领域,AI+游戏有怎样的应用可能,对商业价值、用户价值、制作开发人员的价值几何,值得我们思考。 01 AI在游戏生态中的应用 游戏PME飞轮游戏方面化繁为简,可以抽象为三大模块,前两个模块为生产制作、营销触达,以及第三个最终服务的对象:玩家体验,三者构成飞轮循环。在PME三端我们可以进一步细分,从目前主流的岗位职能角度解析AI在每个模块的具体应用场景,现阶段AI与游戏生态内容如下图所示:AI生态在游戏PME端的应用1. P 生产制作端:增效为主,美术是第一突破口玩球少女(雷)-MidJourney制作部分来看,当下美术是第一突破口,这次的AIGC美术浪潮不亚于照相机的发明。目前来看,AIGC的美术资源在意向图绘制、概念设计方面表现出众,例如Midjourney,几秒钟的时间帮助游戏美术设计师尝试不同的抽象内容,一方面可以帮助美术设计师汲取灵感,另一方面可以为没有美术功底的策划等其他岗位,提供轻松制作意向图的路径,快速与美术设计同事对齐,极大降低了前期设计和对齐成本。而在完全的标准化商业使用方面,稳定性和变化度还有明显不足。StableDiffusion更加开放的参数暴露相对表现更优。目前主要的生产方式为:(1)简单出图:文生图、图生图(线稿),结合不同的主模型输出,得到初稿,后续手绘修正;(2)姿态出图:Open pose等工具绘制姿态,Controlnet根据姿态精准输出形体,结合文本Prompt确定内容倾向,配合Lora精调例如面部、服饰、首饰等细节,或结合局部重绘工具修正,最后用SD自带的或外部的超分辨率工具输出;(3)专业手绘出图:精准手绘线稿轮廓,Controlnet填色绘制,得到初稿后用Ps涂大色块方式调整姿态、细节,返回用图生图等方式持续迭代;(4)风格切换出图:MidJourney出概念图,导入StableDiffusion重绘至指定风格,或StableDiffusion出参考图,导入MidJourney发散不同风格。总的来说,美术通用资源部分初步具备了AIGC管线生产的能力,问题即提升空间和机会。玩球少女(金)-StableDiffusion 音频方面,笔者测试了多款AI技术工具,除变音类的例如Voice AI较为实用外,AI生成音频,例如Amper Music、MuseNetAI生成背景音乐等,成果尚不成熟,拼凑感强烈,不能很好的通过音乐传达情绪,考虑到有信息局限,以及篇幅原因不再展开。 AI撰写游戏文档大纲策划和程序方面,在一些标准化程度较高,已经有成功案例和资料的方面可以替代“重复造轮子”的工作。这里ChatGPT3.5表现一般,GPT4在多次输入,完善上下文和边界后表现不错。例如基础的数值设计、世界观框架设计、玩法方案设计,都能得到还不错的、合乎逻辑的方案,但创意性相对不足。在基础的程序代码方面类似,可以充当较好的多种语言实现“翻译工具”,以及代码辅助工作,在小模块的功能方面能节省很多字符输入成本,测试下来仍会有较多bug,但和策划案类似,将有问题的部分返回GPT提示修正后,基本能得到正确的方案。GPT4 辅助生成代码2. M 营销端 :自动化的分析,降低门槛传统的舆情分析、信息采集需要通过爬虫等方式搜集海量的信息,再通过NLP情感分析、聚类分析等方式处理,并对内容进行汇总解读,相对门槛和成本较高。大语言模型例如ChatGPT很大程度上优化了整合了上述流程,配合插件等方式完全联网后,多语种、全渠道的公开数据分析将极高效率的辅助对玩家和市场情况进行洞察,对舆情和异动情况进行有有效的自动报表分析。此外AI强大的总结、提炼语言信息的能力,在该方面着手成效,非公开数据在投喂后进行分析、制作报表呈现、预测,提炼和总结的效率将很大提升。同时,我们需要警惕信息的泄露问题,注意保密信息的安全。3. E 玩家体验:AI促进新玩法的产生,叙事类、UGC类、大世界AI玩法类将首先受益《极乐迪斯科》 对话探索解密类游戏AI bot技术中的对抗AI和社会生态AI一直是游戏行业研究和应用的重点,这次也更大程度的曝光到大众视野之中。而人类的信息决策和“智慧”很大程度是对自然语言的接收、分析、处理,大语言模型将助推AIbot多维度呈现更为鲜活的表现。例如改变了玩家的交互方式,玩家通过自然语言交互的方式将能够传达更多、更为开放的信息,可以被AI接收处理,提升AI bot的信息收集能力。并且AIbot 通过语言输出作为反馈,打破了玩家非此即彼的交互选择。进一步的技术提升后,可作为AI bot GOAP目标建立的依据,技术原理上类似HuggingGPT,由中枢驱动驱动AI的行为表现更为智能,给玩家带来更生动的AI体验。超参数 GAEA (图片来源于超参数官网公开资料)目前阶段的案例,例如超参数公司最新发布的GAEA,其要点在于打造有“生命”的AI NPC,以及建立反馈机制。反馈机制的建立笔者认为依赖三种途径:环境的标签和数值、交互行为的标签和数值(PvP/PvE/EvE),以及大语言模型(LLM)逐渐成熟后的语言交互的标签和数值,这种整体性的系统一旦耦合完成,最终的效果可能远超我们的期待。4. PME整合:PME和AI的全面整合,将改写游戏的生产方式,进一步可能推动生产关系的变革PME端各部分结合泛AI后,在生产效率、标准化方面将有显著的提升机会,并促进新玩法的产生,带给玩家新的体验。可能会是新设备载体(XR)普及前最大的助力,而PME和AI的全面整合,将可能改写游戏的生产方式,进一步可能推动生产关系的变革。 举例来说,20年前建筑领域基本以手绘图纸、施工图为主,而现在基本已实现全面的数字化和信息化,现在的游戏行业生产方式可能相当于20年前的手绘时代。而这种进步和改变,使得准入门槛和生产成本极大降低,更加提升创新和思维能力的占比,UGC的游戏参与方式可能从一种“玩法方式”变为一种“生产方式+玩法方式”的融合,web3倡导的个体价值(去中心+所有权)的实现有了具体载体,UGC定义将会重塑。 02 游戏制作中AI工具的具体运用 生产制作端现有AI工具1. 策划:隐形助手AI对策划方面的提升目前主要集中在两个方面:一是作为基础计算工具的整合,二是帮助牵引灵感,给出大的框架设计。前者是指复杂的多软件、多数据的处理整合过程,可以交由AI处理,例如需要调整一张复杂数值表格的某些参数。其中计算实验部分很多,例如需要反复数十次的调整各项数值,达到“平衡”。可以将整体数据输入ChatGPT,清晰描绘数值调整需求,由AI给出不同的计算和调整方案,作为多方案预览,极大节约时间成本,后续再通过手动校正的方式逐步达到落地需求。后者例如文案/叙事策划,则可以给定关键词,交由ChatGPT、文心一言、通义千问之一的大模型,由AI帮助撰写,获取灵感,然后在此基础上调整、拓展,还可将每一章节交由其提炼关键词并生成Prompt,输入到MidJourney中生成对应的插图,形成图文并茂的策划案。2. 美术:拥抱直至成为一部分——AIGC的发展阶段AI与美术的应用前文中有提到部分管线流程,而对于整体的发展,笔者认为有几个阶段:(1)技术突破为主,美术效果:“又不是不能用”;(2)“玩家共创”,前锋跑步入场,迭代完善美术效果——“涩涩是第一生产力”;(3)专业化人员进入大众视野,“Prompt/AIGC工程师”,多技术融合,插件如雨后春笋,技术和品质提升全面加速;(4)深度融合,美术自训练AI模型成为标配,“请提供你的Portfolio”变为“请提供你的SD模型集”;(5)链条打通,AI 2D、3D工具完善,分化为两条路径,一是极度便利的自然语言输入,生成各类概念性、非标性美术内容,二是极度复杂,海量参数暴露的“参数化美术”专业发展路径。目前来看(2023年4月)处于2.5阶段,着重阐述一下阶段4的模型训练原理:我们可以类比美术师的成长训练过程,以人体为例,美术师需要对头、手、脚、躯干各部分进行“分模块练习”和“整体组合练习”,并对脸部五官、手重要部分进行“强化训练”,基本的绘制形体功能练成后,逐步对不同人物的体态、神态进行“泛化训练”,由写形逐步提升到写神,最后经过海量的数据和训练,可以达到默写,而后进行艺术创作。这一过程无疑是以“年”为单位进行的,而AI技术的优势在于,我们将各个“部件”绘制成果一次输入多组即可,而后的对不同对象的组合、泛化交由AI操作,极大省去了协同过程中的试错和反复成本——我们将脑海中的“意象”绘制出来与“甲方”同步,“甲方”认为和其脑海中的“意象”不一致,反复调整的成本。显而易见的,AI生态的融入,很大程度上对美术这一岗位进行了一次大面积筛选,绘画功底越深、驾驭的美术风格越成熟,或者风格越独特的能更大的放大自身的价值,且在更复杂的场景领域存在很多机会。通过AI的杠杆将只有“一双手”的生产力扩大化,而单纯只是充当绘制劳力的人力,则面临迭代。3. 客户端:我打败我自己虽然AI目前无法完全代替程序员来编写复杂的游戏客户端,但它可以帮助程序员生成一部分简单的代码或基于已有的代码进行拓展。运用AI来辅助编写游戏客户端代码已经起到了不错的成效,例如GitHub Copilot工具,使用方法和步骤如下:工具准备:GitHub Copilot 是一款基于AI技术开发的代码补全工具,可以借助它来辅助编写游戏客户端。GitHub Copilot 以OpenAI的大型代码库为训练基础,能够理解大量编程语言和框架,如Python、JavaScript、Unity 和 Unreal Engine等。步骤:(1)准备好环境,并安装GitHub Copilot,GitHub Copilot将整合到编程环境里(如Visual Studio Code);(2)编写游戏逻辑:当你在编写过程中遇到需要帮助的地方时,可以借助GitHub...
我们尝试用AIGC来进行工作,发现……
AIGC插画

我们尝试用AIGC来进行工作,发现……

撰文 | 何涧石 责编 | 齐卿 早在ChatGPT席卷全球之前,在2022年,以AI绘画、AI语音等等为代表的AI内容创作,又叫生成式AI(AIGC)就在互联网上掀起了一股热潮,其中尤以AI绘画最为热门,NovelAI、MidJourney、Stable Diffusion等AI绘画工具横空出世,震动了整个互联网内容创作圈,我们在今天也能在网上看到层出不穷的“以假乱真”的AI绘画作品。在沉迷于这样的“机械画皮”之外,笔者想到,是否可以完全用AI为我们生成一个虚拟主播,用于《中欧商业评论》的视频和直播中,甚至用全程用AI制作视频。于是在这段时间的折腾中,我们尝试了大量的AIGC工具,AIGC的革命性到底如何,也许能从此看出一二。 市面上的AIGC工具已数不胜数,几乎每天都有新的AI工具问世,在我们这次的折腾中,我们抱着“神农尝百草”的精神,在各种尝试之后,主要使用了以下AIGC工具(表 1): ◎表 1 掌握了以上工具,你也能全程用AI创造出以虚拟人为主角的视频 AI画图一时爽,投入使用两行泪 最初对于虚拟主播的设想来自于2022年底NovelAI的流行,在这个网站上,通过输入各种描述(仅限英文),可以由AI画出我们设想中的二次元萌妹子形象,于是我们突发奇想,为什么不用AI做几个虚拟主播玩玩呢?于是,这场AI引起的折腾开始了。 我们的设想是用AI画一对姐妹样式的二次元虚拟人,一位现代风的和一位国风的,分别用于不同风格的视频和直播内容。经过多次尝试和调整之后,我选出了两幅比较满意的画作(图 1): ◎图 1 NovelAI产出的两幅我们还比较满意的虚拟人形象 NovelAI使用云端算力,对电脑配置没有要求,但画图需要付费消耗点数,生成分辨率高的一张图大约要花0.1美元,要不断尝试直到生成满意的画作,还是要花不少钱的。尽管基于NovelAI背后的开源模型,可以将其部署到本地免费使用,但这样的话则由于消耗显卡算力,对电脑显卡性能要求较高,出图速度慢,当然还有一个更重要的问题——NovelAI的画风单一,图源明显来自于网络画师,可能有版权问题。 由于NovelAI的种种缺点,我们并不能真正享受到AI绘画的乐趣,于是我们把目光投向了其背后的开源AI图像生成模型Stable Diffusion WebUI(简称SD)——部署在本地,免费,需要电脑有较好的显卡和较大的固态硬盘,一次生成的图片越多,或者图片的分辨率越高,对电脑显卡性能的要求也就越高。使用者需要花很多时间学习词条指令、调试参数、加载各种模型、操作各种图片生成模式等等,同时因为是开源模型,新功能、新玩法层出不穷,需要用户时刻跟进学习,学习成本较高。操作繁琐复杂的同时(图 2),是极为丰富的可玩性和DIY乐趣,以及庞大的模型素材库引起的更加严重的版权纠纷。前不久,美国的盖蒂图片社(Getty Images)起诉了SD的母公司Stability AI,指控它为了创建一个图像生成模型而侵犯了盖蒂图库中数百万张照片的版权。 ◎图 2 要精通这让人头皮发麻的操作界面和霍格沃茨都直呼内行的生图指令,需要投入大量的时间和精力学习钻研,中间学习操作的过程也是小问题不断 这一次,我们想画出有一定写实风格、身着职业装的虚拟女性人像作为我们的视频旁白播音员,经过大力钻研,目前靠笔者的一台2019年RTX2070显卡的老笔记本电脑,不算调试参数和指令的时间,基本上5分钟之内能生成一张质量还不错的图,基于如今琳琅满目的各种模型,理论上可以自由生成无限种不同风格、不同款式、不同形象的虚拟人像画作(图 3)。 ◎图 3 通过不断调试,我们已经能通过Stable Diffusion生成我们想要的虚拟播音员图片,接下来就是让她动起来说话了 结果没想到,这一切才仅仅是个开始。要把AI生成的人像图片变成虚拟主播,按照传统由立绘到虚拟主播的方法,需要用PhotoShop(PS)先拆分图层,再到一个叫live2D的软件进行建模,配合面部捕捉软件和OBS(直播推流和录制视频必须要用到的软件)录制视频和直播,这下笔者实在是学不动了,决定探索有没有AI画作直接变身虚拟人的邪术。 结果是万能的B站上还真有个邪术,一个由民间大神开发的AI程序,叫作EasyVtuber。利用AI抠图软件扣除AI人像图片中的背景,再进行AI高清化处理后,加载EasyVTuber,就可以跳过一般虚拟主播要使用的立绘拆图、live2D建模和面部捕捉,直接连接到OBS使用。但由于必须用到OBS上的一个特定插件,仅支持旧版的OBS,实际效果差强人意,仅仅头能动,像是个简陋的摇头娃娃,或者说仅仅是一幅会动的图片。但无论如何,我们至少是用现阶段的AI技术一步到位,可以快乐地用虚拟人直播和录视频了。进一步看,如果我们只是想要虚拟播音员出镜的话,用AI画作理论上我们有无数种不同形象的虚拟播音员,再结合前文表格中提到的D-ID这样让人像动起来的AI配音工具,配上《中欧商业评论》的背景或者视频画面,就可以任意产出虚拟播音员的配音短视频了(图 4)。 ◎图 4 AI生成的虚拟人结合背景模板,投入直播或视频中的效果演示,看起来还凑合 但如果是要打造真正的虚拟主播IP,AI仅仅在立绘生成,即从0到1这一步能派上真正用场。全流程使用AI的话,从效果上来看,还无法与传统人工的制作水平相提并论,如果对虚拟主播有特别定制化的需求,还是建议去网络社区花钱请专业人士绘制一个真正的虚拟形象(没钱的话就慢慢自学吧)。 在这之后,我们想到尽可能多地用AI技术录制视频,这又是好大一番折腾,也就是文章开头的表格是怎么来的——我们可以通过ChatGPT制作视频文本,通过文本由AI绘画生成图片素材,上传文本到AI视频制作软件再根据文字爬取素材生成视频。AI生成的虚拟主播类似于播报员,可以用AI生成的语音念旁白,也可以人工配音,配合D-ID做到面部可动穿插在画面中,理论上我们想做什么样的虚拟主播、什么样的视频都可以用AI随意生成。听上去不错,但从实际效果看,还有很大的提升空间,比如经常还会出现旁白内容与视频内容不匹配的情况。 AIGC的局限 AIGC并不是零门槛,相反对于一般人来说,想要精通AIGC,门槛不低。以AI绘画为例,无论是用何种方式生成图片,首先都需要大量的文字描述编写,这一关就已经需要大量的时间进行尝试和训练,其次则是要学会AI绘画工具的各项功能和设置,调试各类参数。在这之后,尽管几分钟AI就能拿交出一幅画作,但出图质量不稳定,比如众所周知的“AI不会画手”,这也是为什么AI绘画被称为“赛博炼丹”——图片质量靠运气和输入描述指令的水平,需要大量时间进行试错,才能让AI产出满意的成品。...
AI绘画革命:探讨在线工具的实用性与影响
AIGC&人物生成

AI绘画革命:探讨在线工具的实用性与影响

人工智能助手在艺术创作领域的应用日益广泛,尤其是一些在线生成器工具,如NightCafe、Artbreeder、Fotor和DeepAI等,可以帮助艺术家和设计师提升工作效率,实现创意的迅速呈现。然而,AI生成的艺术作品版权问题仍需引起关注。
;第四步:微调FastRCNN网络,利用RPN网络对RPN网络与FastRCNN网络进行联合训练训练完成后,将RPN网络的输出传给FastRCNN网络,对全图
AIGC视频

;第四步:微调FastRCNN网络,利用RPN网络对RPN网络与FastRCNN网络进行联合训练训练完成后,将RPN网络的输出传给FastRCNN网络,对全图

文章主要介绍了AI视频智能分析在各领域的应用及其重要组成部分。AI视频智能分析通过处理和分析视频数据,帮助识别目标物体、目标属性、目标行为和目标事件。具体包括人、车、物体的位置、类别信息以及行为动作等。在实际应用中,例如人员电子围栏、车流量统计等方面,这些信息可以产生巨大的商业价值。此外,文章还详细介绍了目标检测任务,包括基于深度学习的目标检测方法,如Faster-RCNN和Yolov5等。
我们尝试用AIGC来进行工作,发现……
AIGC插画

我们尝试用AIGC来进行工作,发现……

撰文 | 何涧石 责编 | 齐卿 早在ChatGPT席卷全球之前,在2022年,以AI绘画、AI语音等等为代表的AI内容创作,又叫生成式AI(AIGC)就在互联网上掀起了一股热潮,其中尤以AI绘画最为热门,NovelAI、MidJourney、Stable Diffusion等AI绘画工具横空出世,震动了整个互联网内容创作圈,我们在今天也能在网上看到层出不穷的“以假乱真”的AI绘画作品。在沉迷于这样的“机械画皮”之外,笔者想到,是否可以完全用AI为我们生成一个虚拟主播,用于《中欧商业评论》的视频和直播中,甚至用全程用AI制作视频。于是在这段时间的折腾中,我们尝试了大量的AIGC工具,AIGC的革命性到底如何,也许能从此看出一二。 市面上的AIGC工具已数不胜数,几乎每天都有新的AI工具问世,在我们这次的折腾中,我们抱着“神农尝百草”的精神,在各种尝试之后,主要使用了以下AIGC工具(表 1): ◎表 1 掌握了以上工具,你也能全程用AI创造出以虚拟人为主角的视频 AI画图一时爽,投入使用两行泪 最初对于虚拟主播的设想来自于2022年底NovelAI的流行,在这个网站上,通过输入各种描述(仅限英文),可以由AI画出我们设想中的二次元萌妹子形象,于是我们突发奇想,为什么不用AI做几个虚拟主播玩玩呢?于是,这场AI引起的折腾开始了。 我们的设想是用AI画一对姐妹样式的二次元虚拟人,一位现代风的和一位国风的,分别用于不同风格的视频和直播内容。经过多次尝试和调整之后,我选出了两幅比较满意的画作(图 1): ◎图 1 NovelAI产出的两幅我们还比较满意的虚拟人形象 NovelAI使用云端算力,对电脑配置没有要求,但画图需要付费消耗点数,生成分辨率高的一张图大约要花0.1美元,要不断尝试直到生成满意的画作,还是要花不少钱的。尽管基于NovelAI背后的开源模型,可以将其部署到本地免费使用,但这样的话则由于消耗显卡算力,对电脑显卡性能要求较高,出图速度慢,当然还有一个更重要的问题——NovelAI的画风单一,图源明显来自于网络画师,可能有版权问题。 由于NovelAI的种种缺点,我们并不能真正享受到AI绘画的乐趣,于是我们把目光投向了其背后的开源AI图像生成模型Stable Diffusion WebUI(简称SD)——部署在本地,免费,需要电脑有较好的显卡和较大的固态硬盘,一次生成的图片越多,或者图片的分辨率越高,对电脑显卡性能的要求也就越高。使用者需要花很多时间学习词条指令、调试参数、加载各种模型、操作各种图片生成模式等等,同时因为是开源模型,新功能、新玩法层出不穷,需要用户时刻跟进学习,学习成本较高。操作繁琐复杂的同时(图 2),是极为丰富的可玩性和DIY乐趣,以及庞大的模型素材库引起的更加严重的版权纠纷。前不久,美国的盖蒂图片社(Getty Images)起诉了SD的母公司Stability AI,指控它为了创建一个图像生成模型而侵犯了盖蒂图库中数百万张照片的版权。 ◎图 2 要精通这让人头皮发麻的操作界面和霍格沃茨都直呼内行的生图指令,需要投入大量的时间和精力学习钻研,中间学习操作的过程也是小问题不断 这一次,我们想画出有一定写实风格、身着职业装的虚拟女性人像作为我们的视频旁白播音员,经过大力钻研,目前靠笔者的一台2019年RTX2070显卡的老笔记本电脑,不算调试参数和指令的时间,基本上5分钟之内能生成一张质量还不错的图,基于如今琳琅满目的各种模型,理论上可以自由生成无限种不同风格、不同款式、不同形象的虚拟人像画作(图 3)。 ◎图 3 通过不断调试,我们已经能通过Stable Diffusion生成我们想要的虚拟播音员图片,接下来就是让她动起来说话了 结果没想到,这一切才仅仅是个开始。要把AI生成的人像图片变成虚拟主播,按照传统由立绘到虚拟主播的方法,需要用PhotoShop(PS)先拆分图层,再到一个叫live2D的软件进行建模,配合面部捕捉软件和OBS(直播推流和录制视频必须要用到的软件)录制视频和直播,这下笔者实在是学不动了,决定探索有没有AI画作直接变身虚拟人的邪术。 结果是万能的B站上还真有个邪术,一个由民间大神开发的AI程序,叫作EasyVtuber。利用AI抠图软件扣除AI人像图片中的背景,再进行AI高清化处理后,加载EasyVTuber,就可以跳过一般虚拟主播要使用的立绘拆图、live2D建模和面部捕捉,直接连接到OBS使用。但由于必须用到OBS上的一个特定插件,仅支持旧版的OBS,实际效果差强人意,仅仅头能动,像是个简陋的摇头娃娃,或者说仅仅是一幅会动的图片。但无论如何,我们至少是用现阶段的AI技术一步到位,可以快乐地用虚拟人直播和录视频了。进一步看,如果我们只是想要虚拟播音员出镜的话,用AI画作理论上我们有无数种不同形象的虚拟播音员,再结合前文表格中提到的D-ID这样让人像动起来的AI配音工具,配上《中欧商业评论》的背景或者视频画面,就可以任意产出虚拟播音员的配音短视频了(图 4)。 ◎图 4 AI生成的虚拟人结合背景模板,投入直播或视频中的效果演示,看起来还凑合 但如果是要打造真正的虚拟主播IP,AI仅仅在立绘生成,即从0到1这一步能派上真正用场。全流程使用AI的话,从效果上来看,还无法与传统人工的制作水平相提并论,如果对虚拟主播有特别定制化的需求,还是建议去网络社区花钱请专业人士绘制一个真正的虚拟形象(没钱的话就慢慢自学吧)。 在这之后,我们想到尽可能多地用AI技术录制视频,这又是好大一番折腾,也就是文章开头的表格是怎么来的——我们可以通过ChatGPT制作视频文本,通过文本由AI绘画生成图片素材,上传文本到AI视频制作软件再根据文字爬取素材生成视频。AI生成的虚拟主播类似于播报员,可以用AI生成的语音念旁白,也可以人工配音,配合D-ID做到面部可动穿插在画面中,理论上我们想做什么样的虚拟主播、什么样的视频都可以用AI随意生成。听上去不错,但从实际效果看,还有很大的提升空间,比如经常还会出现旁白内容与视频内容不匹配的情况。 AIGC的局限 AIGC并不是零门槛,相反对于一般人来说,想要精通AIGC,门槛不低。以AI绘画为例,无论是用何种方式生成图片,首先都需要大量的文字描述编写,这一关就已经需要大量的时间进行尝试和训练,其次则是要学会AI绘画工具的各项功能和设置,调试各类参数。在这之后,尽管几分钟AI就能拿交出一幅画作,但出图质量不稳定,比如众所周知的“AI不会画手”,这也是为什么AI绘画被称为“赛博炼丹”——图片质量靠运气和输入描述指令的水平,需要大量时间进行试错,才能让AI产出满意的成品。...
;第四步:微调FastRCNN网络,利用RPN网络对RPN网络与FastRCNN网络进行输入,并使用全连接层将预测结果映射到各个类别
Midjourney

;第四步:微调FastRCNN网络,利用RPN网络对RPN网络与FastRCNN网络进行输入,并使用全连接层将预测结果映射到各个类别

本文介绍了视频智能分析在生活中的各个场景中的应用,如生活中的刷脸支付、停车场的车牌识别、工厂园区的烟火识别、工地的工装安全帽识别等。AI视频智能分析通过人工智能技术处理和分析视频数据,输出对象、属性、行为以及事件的信息。其中,目标检测任务是识别目标类别并定位目标在图像中的位置,可以应用于打架检测、摔倒检测、操作规范检测等领域。文章还介绍了基于深度学习的目标检测方法,包括Faster-RCNN和Yolov5等模型,并详细介绍了它们的网络结构和训练过程。
文章**互联网平台插画师“逃离潮”:AI工具引发的新冲突**
AIGC插画

文章**互联网平台插画师“逃离潮”:AI工具引发的新冲突**

这篇文章讲述了互联网平台与插画师之间的纠纷。近期,多位插画师因 AI 工具生成的作品相似度高而选择停更,引发了公众的关注和讨论。此类事件并非首次发生,早在今年3月,另一内容社区也出现了类似情况。AI 绘画的出现引发了新的问题和争议,包括作品归属问题和人类创作者与 AI 生成的作品相似性的判断等。