小猪登场网红舞丨Maya初级动画
Sophia模型地址:https://www.cgtrader.com/3d-models/character/woman/realistic-female-character-maya-rig-model-378c1dbc-c191-499e-89b5-3b35fe8344fb
探索Maya世界:基础教程、动画技巧、建模艺术与渲染技术。
小猪登场网红舞丨Maya初级动画
Sophia模型地址:https://www.cgtrader.com/3d-models/character/woman/realistic-female-character-maya-rig-model-378c1dbc-c191-499e-89b5-3b35fe8344fb
视频概要:本视频教授如何在Maya中使用Arnold渲染器的AOVs(渲染通道)来识别和解决噪波问题。首先,解释了噪波产生的原因,如漫反射、镜面反射、透射等。然后,提到了增加摄像机采样值以改善效果,但指出了时间和资源成本。建议采用针对性设置。具体操作包括在AOV浏览器中添加不同通道,将采样设置为1,然后检查噪波。通过示例,突出漫反射通道的重要性,降低噪点。最后,与增加摄像机采样值比较,说明了针对性设置参数的高效性。视频强调了噪波问题的解决思路和效果优化方法。
朱砂痣与白月舞蹈丨Maya初级动画
Sophia模型地址:https://www.cgtrader.com/3d-models/character/woman/realistic-female-character-maya-rig-model-378c1dbc-c191-499e-89b5-3b35fe8344fb
当您在使用Maya进行3D建模时,经常需要处理UV展开。在今天的视频中,我们将为您介绍两种方法,让您轻松掌握如何拉直UV。首先,我们将使用Maya内置的拉直UV工具,然后,我们会展示一种更复杂情况下的解决方案,通过巧妙的UV分割和缝合,让UV完美无缺。 但最精彩的部分在最后!我们会向您展示一种最简便的方法,使用UVlayout插件,让UV展开和拉直变得异常流畅。不仅如此,UVlayout还提供了一键拉直UV的功能,无论您的UV有多复杂,都能轻松应对。 快来学习这些技巧,提高您在Maya中的UV处理效率,同时也享受创造性建模的乐趣。不仅流畅,还能让您的模型看起来更专业。立刻点击观看,了解UV处理的专业秘诀!
Maya 免费小猪模型资源:绑定模型无需版权费用
模型下载地址:Cartoon Pig Rig free VR / AR / low-poly 3D model animated rigged | CGTrader



在Maya viewport视图中,模型显示为白色怎么去修复?通常针对这样的模型,重新指定材质是完全没用的。这里我们可以选择模型,执行这段修复代码就可以解决这个问题。
string $select_dd[] = `ls -shapes -sl`;
setAttr ($select_dd[0] + ".displayColors") 1;
setAttr ($select_dd[0] + ".displayColors") 0;
现在我们也能够给模型正常指定材质了那么目前,我也只知道这种修复方法。如果你有更好的解决方案,欢迎与大家分享!
Hello!大家好!
今天我们来看下在maya中
怎么利用高级骨骼绑定插件配合苹果的ARkit套件实现面部动作的捕捉动画
那么要想把动作捕捉到我们的模型上
首先我们的绑定模型必须支持这个苹果标识的ARkit
如果我们是自己绑定的模型,我们需要在进行面部绑定的时候勾选这个ARkit功能
那么这里,我们需要在电脑端下载windows版的iFacialMocap
然后我们再在苹果手机上下载Tr结尾的免费版本就可以了
那么下载好以后,我们要保证我们的手机和电脑连接到同一个网络下
有网络代理的,我们需要把代理先关闭一下
首先我们在手机上打开软件后,上方会显示iPhone的IP地址
我们在电脑端打开软件,填入这个IP地址
接着我们展开高级设置,打开脚本
这里一个是通讯插件,一个是面部捕捉的绑定模型
我们直接把它们都拖到maya当中
然后我们展开这个模型组,选中根骨骼,移动到我们想要的位置
接着我们点击等待连接,它的作用是在maya和外部软件之间建立通讯
而这个外部软件又同时和手机建立通讯,以此来传输手机上捕捉的数据
好了,我们点击连接到maya
连接成功后,我们的这个人脸面具就会实时显示捕捉到的动作
我们现在打开高级骨骼绑定插件的脸部设置,选择连接到ARkit
我们选择面具的头部骨骼,点击选择头部旋转节点
然后点击连接到头部旋转,这样我们模型的头就能跟着旋转了
接着,我们点击下方的连接,面部表情就会跟着动
那么捕捉主要有两种方式
第一种:实时捕捉
那么这个虽然比较直接,但是缺点也比较明显
它可能会漏掉一些关键帧造成动画卡顿
那么这里我们选择从第一帧开始捕捉
准备好以后,我们点击烘焙动画,我们对着手机随便做几个表情动作
做完了之后,我们点击烘焙动画
那么现在我们的关键帧是在这个面具上的
我们只需要点击下方的烘焙按钮,才能真正的把关键帧转移到我们的模型上
我们拍个屏来看下效果
接着我们来说第二种捕捉方式,就是手机录制之后再烘焙动画
我们在手机上点击录制按钮,我们开始录制动画
录制完以后,我们先把面具头部骨骼和面具上的融合变形的关键帧给删除了
同样的,我们把头部控制器和ARkit控制器的帧删除了,然后归零
然后再次点击连接到头部以及面部表情
接着我们点击烘焙录制的动画
完成以后,我们同样的点击这个烘焙按钮就可以把动画转移到模型上
同样的,我们拍个屏来看下效果
那么这个效果其实还是不错了,感觉挺有意思的
感兴趣的小伙伴可以去试一下
好了,今天的视频就到这里,我们下期再见!
今天我们来看下在玛雅中怎么去制作一个人物慢跑的动画。一样的,我们采用24FPS,17帧的长度来制作这个动画。
首先我们在关键帧的地方先标记上书签,方便我们K帧。
标记完以后,我们开始来制作第一个接触地面的关键pose,我们选择双腿和重心控制器,在第一帧设置关键帧。此时,我们重心下压制半蹲的状态,前脚刚好接触地面,后脚离开地面。

然后,我们再第4帧制作第二个向下的关键pose,此时,我们的重心大幅度的下压,前脚刚好踩到地面,后脚收至前脚关节的位置。

然后,我们再第6帧制作第三个向上的过渡pose,此时,我们的重心大幅度的向上,前脚向后垫一点脚尖,后脚持续向前移动。

那么在,第7帧,这里我们要单独对重心做一个微微上移的操作,一点点就好了。然后我们接着在第9帧制作第四个接触地面的关键pose,它与第1帧是相反的pose,动作都是一样的。

那么后面的第12帧、14帧、15帧、17帧都分别对应了前面的1帧、4帧、6帧、7帧和1帧,重心规律都一样,我们跟着做就可以了。第17帧,我们直接把第1帧的pose复制过来用。

这样,一个大概的跑步框架就被我们制作出来了。现在我们开始来修复滑步,我们打开Python滑步工具,我们在踩地的第1帧获取起始帧信息,然后在离开地面的第6帧获取结束帧信息。我们计算位移差,然后再第1帧开始修复,直到第6帧结束。另外这只脚,我们在踩地的第9帧开始修复,直到第14帧结束。这样我们滑步就修复好了。


那么这里。还存在一个问题就是从接触地面到完全踩地,我们只需要一帧完成,所以我们在脚接触地面的后一帧,把旋转参数设置为0,这样脚部的动作就自然了。

接着我们来处理这个脚,我们需要让它在踩地的时候位于人物下方,我们只要打开曲线图编辑器。我们需要处理这个控制平移的X轴,这里我们需要选中踩地的关键帧,然后统一的向内移动。另一只脚也是一样的,选中踩地的帧,然后,统一的向内移动。这个度需要我们自己去把握,最好两只脚比较接近就可以了。
接着,我们框选上半身的控制器,在第1帧,9帧,17帧设置关键帧,我们来调节一下剩余部分的动画。
首先我们选择次级重心控制器,前脚踩地,我们就朝着踩地的方向去倾斜。胯部朝着后脚的方向去旋转。腰部,我们做一个对应的次级重心的修正。接着我们把手臂的pose摆一下。胸部在修正身体基础pose的同时,我们需要它朝着向后手臂的方向旋转一些。头部我们让它正常的看向前方的路就可以了。


接着,我们在第9帧调第17帧的反pose,一样的,我们选择次级重心控制器,前脚踩地,我们就朝着踩地的方向去倾斜。胯部朝着后脚的方向去旋转。腰部,我们做一个对应的次级重心的修正。接着我们把手臂的pose摆一下。胸部在修正身体基础pose的同时,我们需要它朝着向后手臂的方向旋转一些。头部我们让它正常的看向前方的路就可以了。

那么第1帧和第17帧是一样的,我们直接把第17帧的关键帧复制过来。
那么到这里这个跑步的雏形就出来了,我们现在适当的插入一些中间帧,增加一些变化。
我们来到第4帧,那么此时,我们身体会保持平衡,重心会微微的向后一点。然后腰部和胸部,由于踩地会向前弓一点点。然后双肩向下,手臂也向下摆动,头部我们也跟着做一点校正。
与此对应的12帧,也是一样的。重心会微微的向后一点。然后腰部和胸部,由于踩地会向前弓一点点。然后双肩向下,手臂也向下摆动,然后是头部做一些调整。
然后,这个手腕,我们在它向前抬起的时候做一个跟随,这样我们的手就看起来要软一些。
接着我们把肩部的控制器滞后,向后挪1帧,然后再第3帧设置关键帧,移动到第1帧,然后再把第1帧复制到最后一帧,保持pose连续性。
最后我们框选所有的控制器,我们给它们开启前后循环,然后我们挨个给他们做曲线修复调整,让动作衔接更加自然流畅。
大家好,今天我们来看下maya中模型没有UV或者不显示UV的解决办法
首先第一种情况是多UV集的问题,可能我们在UV设置下切换UV集就能把UV显示出来。

那么如果不是UV集的问题,那大概率就是我们的模型UV被删除了,就像上面的这个模型的UV一样。解决方法也很简单,我们只要选择模型,在创建菜单下选择“自动映射UV”,这个时候模型的UV就会重新创建出来了。

那么创建出来的UV,很多时候是拆分不合理的。当我们需要重新去分割的时候,我们需要右键进入线模式,框选所有的UV线,Shift+右键选择“移动并缝合UV”。这样我们的UV就成为了一个整体,我们再按照自己的方法去拆分UV就可以了。
