为你推荐
封面页
书名页
版权页
内容简介
前言FOREWORD
基础篇
第1章 ARKit基础
1.1 增强现实技术概述
1.1.1 AR概述
1.1.2 AR技术
1.1.3 AR技术应用
1.2 AR技术原理
1.2.1 位置追踪
1.2.2 视觉校准
1.2.3 惯性校准
1.2.4 3D重建
1.3 ARKit概述
1.3.1 什么是ARKit
1.3.2 ARKit功能
1.3.3 ARKit支持的设备
1.3.4 ARKit的不足
1.4 ARKit原理
1.4.1 ARKit三大基础能力
1.4.2 ARSession
1.4.3 ARAnchor
1.4.4 ARFrame
1.5 RealityKit概述
1.5.1 RealityKit主要功能
1.5.2 RealityKit体系架构
1.6 ARKit初体验
1.7 调试AR应用
第2章 RealityKit基础
2.1 运动跟踪原理
2.1.1 ARKit坐标系
2.1.2 ARKit运动跟踪分类
2.1.3 ARKit运动跟踪
2.1.4 ARKit使用运动跟踪的注意事项
2.2 ARSession管理
2.2.1 创建ARSession
2.2.2 ARConfiguration
2.2.3 设备可用性检查和权限申请
2.2.4 ARSession生命周期管理与跟踪质量
2.3 ARSession执行流
2.4 平面检测
2.5 射线检测
2.5.1 ARKit中的射线检测
2.5.2 射线检测实例
2.6 手势检测
2.6.1 手势检测定义
2.6.2 ARKit中的手势检测
2.7 ARCoaching
2.8 RealityKit中的事件系统
2.9 LiDAR传感器
2.9.1 场景几何
2.9.2 虚拟物体放置
2.9.3 动作捕捉与人形遮挡
2.9.4 场景仿真
2.10 DepthAPI
2.11 AR截屏
2.12 基于位置的AR
2.12.1 技术基础
2.12.2 实践
第3章 渲染基础
3.1 材质纹理
3.2 网格
3.3 模型
3.4 动画
3.5 RealityKit渲染
3.5.1 立方体贴图
3.5.2 PBR渲染
3.5.3 清漆贴图
功能技术篇
第4章 图像与物体检测跟踪
4.1 2D图像检测跟踪
4.1.1 图像检测跟踪基本操作
4.1.2 检测图像使用的配置
4.1.3 图像跟踪优化
4.2 3D物体检测跟踪
4.2.1 获取参考物体空间特征信息
4.2.2 扫描获取物体空间特征信息的注意事项
4.2.3 3D物体识别跟踪基本操作
第5章 人脸检测跟踪
5.1 人脸检测基础
5.1.1 人脸检测概念
5.1.2 人脸检测技术基础
5.2 人脸检测配置
5.2.1 人脸网格
5.2.2 挂载虚拟元素
5.3 BlendShapes
5.3.1 BlendShapes基础
5.3.2 BlendShapes技术原理
5.3.3 BlendShapes使用
5.4 同时开启前后摄像头
第6章 光影特效
6.1 光照
6.1.1 光源
6.1.2 光与材质的交互
6.1.3 光照模型
6.1.4 RealityKit中的光源
6.2 光照估计
6.2.1 光照一致性
6.2.2 ARKit中的光照估计
6.3 环境反射
6.3.1 环境探头
6.3.2 环境反射操作
6.3.3 性能优化
第7章 肢体动作捕捉与人形遮挡
7.1 ARBodyTrackingConfiguration配置
7.2 2D人体姿态估计
7.2.1 人体骨骼关节点检测
7.2.2 使用2D人体姿态估计
7.3 3D人体姿态估计
7.3.1 3D人体姿态估计基础
7.3.2 3D人体姿态估计实例
7.4 人形遮挡
7.4.1 人形遮挡原理
7.4.2 人形遮挡实现
7.5 人形提取
第8章 持久化存储与多人共享
8.1 AR锚点
8.1.1 锚点概述
8.1.2 使用锚点
8.1.3 使用锚点的注意事项
8.2 持久化存储与共享体验技术基础
8.2.1 initialWorldMap属性
8.2.2 isCollaborationEnabled属性
8.3 ARWorldMap
8.3.1 ARWorldMap概述
8.3.2 存储与加载ARWorldMap
8.3.3 通过网络传输ARWorldMap
8.4 协作Session
8.4.1 协作Session概述
8.4.2 协作Session实例
8.4.3 协作Session使用事项
8.5 RealityKit同步服务
8.5.1 RealityKit同步服务机制
8.5.2 使用RealityKit同步服务事项
第9章 物理模拟
9.1 物理引擎
9.2 RealityKit中的物理组件
9.2.1 PhysicsBodyComponent组件
9.2.2 PhysicsMotionComponent组件
9.2.3 CollisionComponent组件
9.3 物理模拟实例
9.4 触发器与触发域
9.5 自定义物理实体类
第10章 Reality Composer
10.1 Reality Composer主要功能
10.2 内容操作
10.2.1 锚点选择
10.2.2 控制场景锚定类型
10.2.3 添加资源
10.2.4 修改资源
10.2.5 操作资源
10.3 与AR应用整合
10.3.1 利用Xcode自动生成的代码加载场景
10.3.2 手动加载场景
10.4 行为交互
10.4.1 触发器
10.4.2 动作
10.5 代码交互
10.5.1 场景对象操作
10.5.2 添加程序性资源
10.6 导出USDZ
第11章 3D文字与音视频
11.1 3D文字
11.2 3D音频
11.2.1 3D声场原理
11.2.2 RealityKit中的3D音效
11.3 3D视频
第12章 USDZ与AR Quick Look
12.1 USDZ概述
12.1.1 USD
12.1.2 USDZ
12.2 USDZ文件转换
12.2.1 USDZTools
12.2.2 Reality Converter
12.2.3 USD Unity插件
12.3 AR Quick Look概述
12.4 App应用中嵌入ARQuickLook
12.5 Web网页中嵌入AR Quick Look
12.5.1 选择支付样式
12.5.2 显示自定义文字按钮文件
12.5.3 自定义显示文字
12.5.4 自定义显示条目
12.5.5 自定义条目高度
12.5.6 事件处理
12.6 使用AR Quick Look的注意事项
提高篇
第13章 设计原则
13.1 移动AR带来的挑战
13.1.1 用户必须移动
13.1.2 要求手持设备
13.1.3 要求必须将手机放在脸前
13.1.4 操作手势
13.1.5 用户必须打开App
13.2 移动AR设计准则
13.2.1 有用或有趣
13.2.2 虚拟和真实的混合必须有意义
13.2.3 移动限制
13.2.4 心理预期与维度转换
13.2.5 环境影响
13.2.6 视觉效果
13.2.7 UI设计
13.2.8 沉浸式交互
13.3 移动AR设计指南
13.3.1 环境
13.3.2 用户细节
13.3.3 虚拟内容
13.3.4 交互
13.3.5 视觉设计
13.3.6 真实感
第14章 性能优化
14.1 移动平台性能优化基础
14.1.1 影响性能的主要因素
14.1.2 AR常用调试方法
14.2 移动设备性能优化
14.3 性能优化的一般流程
14.4 RealityKit优化
14.4.1 降低CPU使用
14.4.2 降低GPU使用
14.5 RealityKit渲染测试
14.6 性能优化与设备兼容性
参考文献
买过这本书的人还买过
读了这本书的人还在读
同类图书排行榜