别让你的3D模型光屁股了,开源DressCode只需一句话轻松换装
接下来,这些指令会被传递给3D建模引擎,结合面料物理属性数据库进行建模。为了使生成的3D服装更加逼真,DressCode采用了先进的布料动力学算法,模拟布料在运动中的表现,如褶皱的形成和裙摆的摆动效果。此外,DressCode还提供多样化的可定制虚拟模特,用户可以选择不同的体型和肤色。系统内置的动作库支持从静态展示到复杂走秀...
SIGGRAPH上首个Real-Time Live的中国团队用生成式AI创建3D世界
这也让该模型实现了快速落地:目前Rodin已经成为很多3D开发者的常用3D生成器。可点击阅读原文,访问Rodin体验产品(建议PC端打开)。国内外很多行业使用者反馈认为,Rodin生成的3D资产几何科学、布线规则、材质贴图精致,而且可以直接被导入现有的主流渲染引擎,使用起来非常方便,是一款接近Production-...
希腊Z世代女生打造3D建模AI工具,年收入7位数
去年,和英伟达合作的MasterpieceStudio被推荐为最好的3D建模生成式AI之一,也是人工智能文本到3D生成器,可创建实时可用的3D头像、角色和道具。Kaedim也是英伟达人工智能初创计划启动的一个项目,位于伦敦,它是一家AI2D转3D模型公司,提供简单的图生3D资产创建服务,用户上传1-6张图便能生成3D模型。据官网,平台...
清华团队提出V3D:视频扩散模型是有效的3D生成器|大模型论文
在视频扩散模型最新进展的推动下,清华大学团队提出了V3D,它利用预训练视频扩散模型的世界模拟能力来促进3D生成。为了充分发挥视频扩散感知3D世界的潜力,研究团队进一步引入了几何一致性先验,并将视频扩散模型扩展为多视角一致性3D生成器。得益于此,最先进的视频扩散模型可以通过微调在给定单张图像的情况下生成...
前沿分享丨AI生成3D主题乐园,角色建筑批量生成,风格保持一致
然而,直接在少量3D样例上训练的3D生成器缺乏先验信息,只能简单地重复、缩放和微调输入样例,无法生成多样化且主题一致的3D资产。为此,ThemeStation采用了一种两阶段的生成方案,模仿了实际3D建模工作流程:第一阶段:主题驱动的概念图像生成在第一阶段,ThemeStation利用给定3D样例的多视角渲染图像对预训练的文本到图像(T2...
史上最快3D数字人生成器:半小时完成训练,渲染仅需16毫秒,苹果出品
而且无需复杂的采样和建模,只要随便拍一段50-100帧的视频就足够了,换算成时间不过几秒钟(www.e993.com)2024年10月3日。这正是由苹果联合德国马普所推出的,基于高斯函数的3D数字人合成工具HUGS。它可以从一段简单的视频当中提取出人物骨骼,从而合成数字分身并驱动它做出任意动作。
60秒直出3D内容,纹理逼真!Meta最新3D Gen模型实现60倍速生成
这种更加高效的优质生成,离不开模型pipeline的精心设计。3DGen的生成主要分为两步,由两个组件分别完成——文本到3D对象生成器AssetGen和文本到纹理生成器TextureGen。其中,第二阶段的TextureGen也可以单独拿出来使用。如果有一个之前生成的,或者艺术家自己创作的无纹理3D网格,提供描述外观的文本提示后,模型也能在...
最新爆火3D生成模型,清北硬核00后成团再出击丨开源
01由清北硬核00后团队AVARAI开发的3D生成模型Unique3D,近期成为新晋当红炸子鸡,GitHub星数超过1.6k。02Unique3D解决了模型生成需要长时间优化、几何质量差、存在不一致性问题,生成速度仅需30秒。03团队CEO胡雅婷毕业于北大计算机系,CTO吴凯路来自清华姚班,成员擅长利用CG进行艺术创作。
文本直接生成多视角3D图像,Meta推出创新模型
而ViewDiff使用了一种创新架构,先使用文生图模型作为先验知识和图像流生成器,然后通过显式的3D建模为图像赋予生成一致性、多视角3D图像的能力。增强U-Net架构为了使文生图模型能够有效捕获3D几何和全局风格,研究人员对原有U-Net架构进行了创新,添加了两种新的层:跨帧注意力层和投影层。
3D版在线stable Diffusion?又一款3D模型生成工具!
由一代AI提供支持的3D资产生成器ArtefactsAI是一个革命性的平台,它利用GenAI的力量,只需一张图像,这个AI工具就可以在几分钟内生成3D模型。即时将图像转换为3D模型整个生成界面和stableDiffusion非常相似包含了生成的数量、随机种子值、生成步数、强度、正负面词等多个参数...