万本电子书0元读

万本电子书0元读

顶部广告

ARKit原生开发入门精粹——RealityKit + Swift + SwiftUI电子书

全书结构清晰、配图丰富,阐述通俗易懂、深浅出 对ARKit底层技术原理机制行了详细阐述,对ARKit各功能特性逐一分解剖析 注重实践,通过翔实案例,提高实际工程转化能力 从技术运用到技术深度,着力解决发人员在项目发中面临的难问题

售       价:¥

纸质售价:¥67.20购买纸书

53人正在读 | 0人评论 6.2

作       者:汪祥春

出  版  社:清华大学出版社

出版时间:2021-02-01

字       数:22.2万

所属分类: 科技 > 计算机/网络 > 软件系统

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(0条)
  • 读书简介
  • 目录
  • 累计评论(0条)
本书采用RealityKit框架,对ARKit原生发行了全面深的探究,从ARKit技术原理、理论脉络到各功能技术、设计原则、性能优化,对AR应用发中涉及到的技术行了全方位的讲述,用语通俗易懂,阐述深浅出。 本书共分三个部分:*部分为基础篇,包括第1章到第3章,从*基础的增强现实概念手,简述了ARKit、RealityKit技术体系结构、基本使用环境、运动跟踪原理、重要技术术语、基本功能等基础知识,本篇立意高屋建瓴,带领读者一览ARKit全貌,形成整体印象;第二部分为功能技术篇,包括第4章至第12章,对ARKit各个功能技术行了全面深的剖析,在讲述功能时,特别注重技术的实际应用,每一个功能都配有详尽的可执行代码及代码的详细说明;第三部分为提高篇,包括第13章和第14章,主要从高层次对AR发中的原则及性能优化行讲解,提升发人员对AR发整体把握能力。 本书结构清晰、循序渐、深浅兼顾,实例丰富,每个技术都有案例,特别注重对技术的实际运用,力图解决读者在项目发中面临的难问题,实用性强。 本书适合ARKit初学者、iOS发人员、程序员、科研人员,也可以作为高校、大专院校相关专业师生的学习用书,以及培训学校的培训教材。<br/>【推荐语】<br/>全书结构清晰、配图丰富,阐述通俗易懂、深浅出 对ARKit底层技术原理机制行了详细阐述,对ARKit各功能特性逐一分解剖析 注重实践,通过翔实案例,提高实际工程转化能力 从技术运用到技术深度,着力解决发人员在项目发中面临的难问题<br/>【作者】<br/>汪祥春,计算机科学与技术专业硕士,全国信标委计算机图形和图像处理及环境数据表示分技术委员会虚拟现实与增强现实标准工作组成员,中国增强现实核心技术产业联盟成员,曾在中国人民解放军某部从事部队信息化软件发研制,现从事AR技术研发及管理工作。拥有深厚的软件工程专业背景,省部级科技项目实施管理经验,CSDN博客专家。拥有十余年软件发及项目管理经验,100余万行代码发量积累,著有《基于Unity的ARCore发实战详解》《AR发权威指南——AR Foundation》。<br/>
目录展开

封面页

书名页

版权页

内容简介

前言FOREWORD

基础篇

第1章 ARKit基础

1.1 增强现实技术概述

1.1.1 AR概述

1.1.2 AR技术

1.1.3 AR技术应用

1.2 AR技术原理

1.2.1 位置追踪

1.2.2 视觉校准

1.2.3 惯性校准

1.2.4 3D重建

1.3 ARKit概述

1.3.1 什么是ARKit

1.3.2 ARKit功能

1.3.3 ARKit支持的设备

1.3.4 ARKit的不足

1.4 ARKit原理

1.4.1 ARKit三大基础能力

1.4.2 ARSession

1.4.3 ARAnchor

1.4.4 ARFrame

1.5 RealityKit概述

1.5.1 RealityKit主要功能

1.5.2 RealityKit体系架构

1.6 ARKit初体验

1.7 调试AR应用

第2章 RealityKit基础

2.1 运动跟踪原理

2.1.1 ARKit坐标系

2.1.2 ARKit运动跟踪分类

2.1.3 ARKit运动跟踪

2.1.4 ARKit使用运动跟踪的注意事项

2.2 ARSession管理

2.2.1 创建ARSession

2.2.2 ARConfiguration

2.2.3 设备可用性检查和权限申请

2.2.4 ARSession生命周期管理与跟踪质量

2.3 ARSession执行流

2.4 平面检测

2.5 射线检测

2.5.1 ARKit中的射线检测

2.5.2 射线检测实例

2.6 手势检测

2.6.1 手势检测定义

2.6.2 ARKit中的手势检测

2.7 ARCoaching

2.8 RealityKit中的事件系统

2.9 LiDAR传感器

2.9.1 场景几何

2.9.2 虚拟物体放置

2.9.3 动作捕捉与人形遮挡

2.9.4 场景仿真

2.10 DepthAPI

2.11 AR截屏

2.12 基于位置的AR

2.12.1 技术基础

2.12.2 实践

第3章 渲染基础

3.1 材质纹理

3.2 网格

3.3 模型

3.4 动画

3.5 RealityKit渲染

3.5.1 立方体贴图

3.5.2 PBR渲染

3.5.3 清漆贴图

功能技术篇

第4章 图像与物体检测跟踪

4.1 2D图像检测跟踪

4.1.1 图像检测跟踪基本操作

4.1.2 检测图像使用的配置

4.1.3 图像跟踪优化

4.2 3D物体检测跟踪

4.2.1 获取参考物体空间特征信息

4.2.2 扫描获取物体空间特征信息的注意事项

4.2.3 3D物体识别跟踪基本操作

第5章 人脸检测跟踪

5.1 人脸检测基础

5.1.1 人脸检测概念

5.1.2 人脸检测技术基础

5.2 人脸检测配置

5.2.1 人脸网格

5.2.2 挂载虚拟元素

5.3 BlendShapes

5.3.1 BlendShapes基础

5.3.2 BlendShapes技术原理

5.3.3 BlendShapes使用

5.4 同时开启前后摄像头

第6章 光影特效

6.1 光照

6.1.1 光源

6.1.2 光与材质的交互

6.1.3 光照模型

6.1.4 RealityKit中的光源

6.2 光照估计

6.2.1 光照一致性

6.2.2 ARKit中的光照估计

6.3 环境反射

6.3.1 环境探头

6.3.2 环境反射操作

6.3.3 性能优化

第7章 肢体动作捕捉与人形遮挡

7.1 ARBodyTrackingConfiguration配置

7.2 2D人体姿态估计

7.2.1 人体骨骼关节点检测

7.2.2 使用2D人体姿态估计

7.3 3D人体姿态估计

7.3.1 3D人体姿态估计基础

7.3.2 3D人体姿态估计实例

7.4 人形遮挡

7.4.1 人形遮挡原理

7.4.2 人形遮挡实现

7.5 人形提取

第8章 持久化存储与多人共享

8.1 AR锚点

8.1.1 锚点概述

8.1.2 使用锚点

8.1.3 使用锚点的注意事项

8.2 持久化存储与共享体验技术基础

8.2.1 initialWorldMap属性

8.2.2 isCollaborationEnabled属性

8.3 ARWorldMap

8.3.1 ARWorldMap概述

8.3.2 存储与加载ARWorldMap

8.3.3 通过网络传输ARWorldMap

8.4 协作Session

8.4.1 协作Session概述

8.4.2 协作Session实例

8.4.3 协作Session使用事项

8.5 RealityKit同步服务

8.5.1 RealityKit同步服务机制

8.5.2 使用RealityKit同步服务事项

第9章 物理模拟

9.1 物理引擎

9.2 RealityKit中的物理组件

9.2.1 PhysicsBodyComponent组件

9.2.2 PhysicsMotionComponent组件

9.2.3 CollisionComponent组件

9.3 物理模拟实例

9.4 触发器与触发域

9.5 自定义物理实体类

第10章 Reality Composer

10.1 Reality Composer主要功能

10.2 内容操作

10.2.1 锚点选择

10.2.2 控制场景锚定类型

10.2.3 添加资源

10.2.4 修改资源

10.2.5 操作资源

10.3 与AR应用整合

10.3.1 利用Xcode自动生成的代码加载场景

10.3.2 手动加载场景

10.4 行为交互

10.4.1 触发器

10.4.2 动作

10.5 代码交互

10.5.1 场景对象操作

10.5.2 添加程序性资源

10.6 导出USDZ

第11章 3D文字与音视频

11.1 3D文字

11.2 3D音频

11.2.1 3D声场原理

11.2.2 RealityKit中的3D音效

11.3 3D视频

第12章 USDZ与AR Quick Look

12.1 USDZ概述

12.1.1 USD

12.1.2 USDZ

12.2 USDZ文件转换

12.2.1 USDZTools

12.2.2 Reality Converter

12.2.3 USD Unity插件

12.3 AR Quick Look概述

12.4 App应用中嵌入ARQuickLook

12.5 Web网页中嵌入AR Quick Look

12.5.1 选择支付样式

12.5.2 显示自定义文字按钮文件

12.5.3 自定义显示文字

12.5.4 自定义显示条目

12.5.5 自定义条目高度

12.5.6 事件处理

12.6 使用AR Quick Look的注意事项

提高篇

第13章 设计原则

13.1 移动AR带来的挑战

13.1.1 用户必须移动

13.1.2 要求手持设备

13.1.3 要求必须将手机放在脸前

13.1.4 操作手势

13.1.5 用户必须打开App

13.2 移动AR设计准则

13.2.1 有用或有趣

13.2.2 虚拟和真实的混合必须有意义

13.2.3 移动限制

13.2.4 心理预期与维度转换

13.2.5 环境影响

13.2.6 视觉效果

13.2.7 UI设计

13.2.8 沉浸式交互

13.3 移动AR设计指南

13.3.1 环境

13.3.2 用户细节

13.3.3 虚拟内容

13.3.4 交互

13.3.5 视觉设计

13.3.6 真实感

第14章 性能优化

14.1 移动平台性能优化基础

14.1.1 影响性能的主要因素

14.1.2 AR常用调试方法

14.2 移动设备性能优化

14.3 性能优化的一般流程

14.4 RealityKit优化

14.4.1 降低CPU使用

14.4.2 降低GPU使用

14.5 RealityKit渲染测试

14.6 性能优化与设备兼容性

参考文献

累计评论(0条) 0个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部