ARkit 收藏本版 已有4人收藏 +发表新主题
查看: 27761|回复: 6
打印 上一主题 下一主题

ARKit从入门到精通(4)-ARKit全框架API大全

[复制链接]

ARKit从入门到精通(4)-ARKit全框架API大全

Scarlett_1990 发表于 2017-9-25 17:15:04 浏览:  27761 回复:  6 只看该作者 复制链接
转载请注明出处:ARKit从入门到精通(4)-ARKit全框架API大全
1.1-ARKit框架简介
1.2-ARAnchor1.3-ARCamera1.4-ARError1.5-ARFrame1.6-ARHitTestResult1.7-ARLightEstimate1.8-ARPlaneAnchor1.9-ARPointCloud1.10-ARSCNView1.11-ARSession1.12-ARSessionConfiguration1.13-ARSKView1.1-ARKit框架简介
  • 再上一小节中,相信大家已经对<ARKit>框架的使用及原理有了一个全局的认识,为了能够更加深入的研究学习ARKit技术,所以笔者本小节主要介绍<ARKit>框架中所有的API
    • 本篇主要翻译自苹果官方文档,适当加上一些笔者的见解
  • ARKit框架类图


0501.png

1.2-ARAnchor
  • ARAnchor表示一个物体在3D空间的位置和方向(ARAnchor通常称为物体的3D锚点,有点像UIKit框架中CALayer的Anchor)
    • ARFrame表示的也是物体的位置和方向,但是ARFrame通常表示的是AR相机的位置和方向以及追踪相机的时间,还可以捕捉相机的帧图片
      • 也就是说ARFrame用于捕捉相机的移动,其他虚拟物体用ARAnchor


@interface ARAnchor : NSObject <NSCopying>/** 标识符 */@property (nonatomic, readonly) NSUUID *identifier;/** 锚点的旋转变换矩阵,定义了锚点的旋转、位置、缩放。是一个4x4的矩阵(读者可以自行科普什么叫4x4矩阵) */@property (nonatomic, readonly) matrix_float4x4 transform;/** 构造方法,一般我们无需构造。因为添加一个3D物体时ARKit会有代理告知我们物体的锚点 */- (instancetype)initWithTransformmatrix_float4x4)transform;@end1.3-ARCamera
  • *AR相机,该类API较多,并且理解比较困难,将会在后续小节单独介绍
    • 该类非常重要,且API较多,将在后续小节介绍

1.4-ARError
  • ARError是一个描述ARKit错误的类,这个错误来源于几个方面,例如设备不支持,或者当相机常驻后台时ARSession会断开等问题
//作用域,一般会表示是哪一个类出现问题NSString *const ARErrorDomain;//错误码描述  100:不支持会话追踪配置,主线由于A9芯片以下的机型会报错   101:失活状态 102:传感器故障  200:追踪失败typedef NS_ERROR_ENUM(ARErrorDomain, ARErrorCode) {    /** Unsupported session configuration. */    ARErrorCodeUnsupportedConfiguration   = 100,    /** A sensor required to run the session is not available. */    ARErrorCodeSensorUnavailable          = 101,    /** A sensor failed to provide the required input. */    ARErrorCodeSensorFailed               = 102,    /** World tracking has encountered a fatal error. */    ARErrorCodeWorldTrackingFailed        = 200,};1.5-ARFrame
  • ARFrame主要是追踪相机当前的状态,这个状态不仅仅只是位置,还有图像帧及时间等参数
@interface ARFrame : NSObject <NSCopying>/**时间戳. */@property (nonatomic, readonly) NSTimeInterval timestamp;/** 缓冲区图像帧 */@property (nonatomic, readonly) CVPixelBufferRef capturedImage;/**相机(表示这个ARFrame是哪一个相机的,iPhone7plus有两个摄像机) */@property (nonatomic, copy, readonly) ARCamera *camera;/** 返回当前相机捕捉到的锚点数据(当一个3D虚拟模型加入到ARKit中时,锚点值得就是这个模型在AR中的位置) */@property (nonatomic, copy, readonly) NSArray<ARAnchor *> *anchors;/**灯光,详情可见本章节ARLightEstimate类介绍(指的是灯光强度 一般是0-2000,系统默认1000) */@property (nonatomic, copy, nullable, readonly) ARLightEstimate *lightEstimate;/**特征点(应该是捕捉平地或者人脸的,比较苹果有自带的人脸识别功能) */@property (nonatomic, nullable, readonly) ARPointCloud *rawFeaturePoints;/**根据2D坐标点搜索3D模型,这个方法通常用于,当我们在手机屏幕点击某一个点的时候,可以捕捉到这一个点所在的3D模型的位置,至于为什么是一个数组非常好理解。手机屏幕一个是长方形,这是一个二维空间。而相机捕捉到的是一个由这个二维空间射出去的长方体,我们点击屏幕一个点可以理解为在这个长方体的边缘射出一条线,这一条线上可能会有多个3D物体模型point:2D坐标点(手机屏幕某一点)ARHitTestResultType:捕捉类型  点还是面(NSArray<ARHitTestResult *> *):追踪结果数组  详情见本章节ARHitTestResult类介绍 */- (NSArray<ARHitTestResult *> *)hitTestCGPoint)point typesARHitTestResultType)types;/**相机窗口的的坐标变换(可用于相机横竖屏的旋转适配) */- (CGAffineTransform)displayTransformWithViewportSizeCGSize)viewportSize orientationUIInterfaceOrientation)orientation;@end1.6-ARHitTestResult
  • ARHitTestResult:点击回调结果,这个类主要用于虚拟增强现实技术(AR技术)中现实世界与3D场景中虚拟物体的交互。 比如我们在相机中移动。拖拽3D虚拟物体,都可以通过这个类来获取ARKit所捕捉的结果
//捕捉类型枚举typedef NS_OPTIONS(NSUInteger, ARHitTestResultType) {    /** 点. */    ARHitTestResultTypeFeaturePoint              = (1 << 0),    /** 水平面 y为0. */    ARHitTestResultTypeEstimatedHorizontalPlane  = (1 << 1),    /** 已结存在的平面. */    ARHitTestResultTypeExistingPlane             = (1 << 3),    /** 已结存在的锚点和平面. */    ARHitTestResultTypeExistingPlaneUsingExtent  = (1 << 4),} NS_SWIFT_NAME(ARHitTestResult.ResultType);/**捕捉类型 */@property (nonatomic, readonly) ARHitTestResultType type;/** 3D虚拟物体与相机的距离(单位:米) */@property (nonatomic, readonly) CGFloat distance;/**本地坐标矩阵(世界坐标指的是相机为场景原点的坐标,而每一个3D物体自身有一个场景,本地坐标就是相对于这个场景的坐标)类似于frame和bounds的区别 */@property (nonatomic, readonly) matrix_float4x4 localTransform;/**世界坐标矩阵 */@property (nonatomic, readonly) matrix_float4x4 worldTransform;/** 锚点(3D虚拟物体,在虚拟世界有一个位置,这个位置参数是SceneKit中的SCNVector3:三维矢量),而锚点anchor是这个物体在AR现实场景中的位置,是一个4x4的矩阵 */@property (nonatomic, strong, nullable, readonly) ARAnchor *anchor;@end1.7-ARLightEstimate
  • ARLightEstimate是一个灯光效果,它可以让你的AR场景看起来更加的好
@interface ARLightEstimate : NSObject <NSCopying>/**灯光强度  范围0-2000 默认1000 */@property (nonatomic, readonly) CGFloat ambientIntensity;@end1.8-ARPlaneAnchor
  • ARPlaneAnchor是ARAnchor的子类,笔者称之为平地锚点。ARKit能够自动识别平地,并且会默认添加一个锚点到场景中,当然要想看到真实世界中的平地效果,需要我们自己使用SCNNode来渲染这个锚点
    • 锚点只是一个位置

/**平地类型,目前只有一个,就是水平面 */@property (nonatomic, readonly) ARPlaneAnchorAlignment alignment;/**3轴矢量结构体,表示平地的中心点  x/y/z */@property (nonatomic, readonly) vector_float3 center;/**3轴矢量结构体,表示平地的大小(宽度和高度)  x/y/z */@property (nonatomic, readonly) vector_float3 extent;@end1.9-ARPointCloud
  • ARPointCloud:点状渲染云,主要用于渲染场景
@interface ARPointCloud : NSObject <NSCopying>/** 点的数量 */@property (nonatomic, readonly) NSUInteger count;/**每一个点的位置的集合(结构体带*表示的是结构体数组) */@property (nonatomic, readonly) const vector_float3 *points;@end1.10-ARSCNView
  • AR视图,在第一小节笔者介绍过,ARKit支持3D的AR场景和2D的AR场景,ARSCNView是3D的AR场景视图
    • 该类非常重要,且API较多,将在后续小节介绍
  • 该类是整个ARKit框架中唯一两个有代理的类其中之一

1.11-ARSession
  • AR会话,它的作用已经在前面小节中介绍,这里不再累述
    • 该类非常重要,且API较多,将在后续小节介绍
  • 该类是整个ARKit框架中唯一两个有代理的类其中之一

1.12-ARSessionConfiguration
  • ARSessionConfiguration会话追踪配置,主要就是追踪相机的配置
    • 注意:该类还有一个子类:ARWorldTrackingSessionConfiguration,它们在同一个API文件中

//会话追踪配置类@interface ARSessionConfiguration : NSObject <NSCopying>/**当前设备是否支持,一般A9芯片以下设备不支持 */@property(class, nonatomic, readonly) BOOL isSupported;/**会话的对其方式,这里的对其指的是3D世界的坐标。枚举值见下方 */@property (nonatomic, readwrite) ARWorldAlignment worldAlignment;/**是否需要自适应灯光效果,默认是YES */@property (nonatomic, readwrite, getter=isLightEstimationEnabled) BOOL lightEstimationEnabled;@end//世界会话追踪配置,苹果建议我们使用这个类,这个子类只有一个属性,也就是可以帮助我们追踪相机捕捉到的平地@interface ARWorldTrackingSessionConfiguration : ARSessionConfiguration/**侦查类型。枚举值见下方(默认侦查平地) */@property (nonatomic, readwrite) ARPlaneDetection planeDetection;@end
//追踪对其方式,这个决定了会话的参考坐标系(参照物)
typedef NS_ENUM(NSInteger, ARWorldAlignment) {
/* 相机位置 vector (0, -1, 0) /
ARWorldAlignmentGravity,
/** 相机位置及方向. vector (0, -1, 0) heading :(0, 0, -1) */ARWorldAlignmentGravityAndHeading,/** 相机方向. */ARWorldAlignmentCamera
} NS_SWIFT_NAME(ARSessionConfiguration.WorldAlignment);
/
侦查类型
*/
API_AVAILABLE(ios(11.0)) API_UNAVAILABLE(macos, watchos, tvos)
typedef NS_OPTIONS(NSUInteger, ARPlaneDetection) {
/ 不侦查. */
ARPlaneDetectionNone = 0,
/** 平地侦查 */ARPlaneDetectionHorizontal  = (1 << 0),
} NS_SWIFT_NAME(ARWorldTrackingSessionConfiguration.PlaneDetection);
1.13-ARSKView
  • ARSKView也是AR视图,只不过他是2D的,由于2D比3D简单很多,并且ARSKView基本与ARSCNView类似,所以这里不做重复介绍。详细内容可参考ARSCNView
分享至:
| 人收藏
回复

使用道具 举报

该用户从未签到

沙发
重庆生活网l 发表于 2017-10-25 22:37:55 只看该作者
鉴定完毕.!













淘客机器人、淘客返利机器人、淘宝客机器人 联系客服QQ:4000017854
回复 支持 反对

使用道具 举报

该用户从未签到

板凳
重庆生活网l 发表于 2017-10-26 17:21:49 只看该作者
我也想了解了解!!!先顶一个













第五代QQ机器人QQ群机器人论坛QQ机器人智能客服机器人QQplus机器人QQ群互联机器人..联系QQ800829129 QQ群28352615
回复 支持 反对

使用道具 举报

该用户从未签到

地板
Scarlett_1990
 楼主|
发表于 2017-11-16 10:13:59 只看该作者
ARVR技术交流群: 602929993   
回复 支持 反对

使用道具 举报

  • TA的每日心情

    2019-3-25 21:42
  • 签到天数: 2 天

    [LV.1]初来乍到

    5#
    wj7636 发表于 2019-3-17 12:29:04 只看该作者
    看了楼主的帖子,让我陷入了严肃的思考中!!     平移门 http://www.ssmdd.com
    回复 支持 反对

    使用道具 举报

  • TA的每日心情

    2019-3-25 21:42
  • 签到天数: 2 天

    [LV.1]初来乍到

    6#
    wj7636 发表于 2019-4-2 14:14:20 只看该作者
    顶!(虽然只有一个字,但这个字却深深地表明考生此时看破红尘愤世嫉俗万分悲痛的心情。以及表现出其深厚的文字功底,万中无一的气质,豪情蹦发的英雄气概,对中华文字多年的研究,以及对世界历史的了解,加上考生多年的刻苦学习,终于有了今天“顶!”的成就。再加上一“!”结尾,画龙点睛之笔,使全文更加深情得体,发人深思,如久旱的一滴甘露,在文学的路上又留下了重要的一笔,这一笔必将在千百年后,都在文学上最大的成就,永远都无法抹灭。)! 伸缩门 http://www.ssmdd.com
    回复 支持 反对

    使用道具 举报

  • TA的每日心情

    2019-3-25 21:42
  • 签到天数: 2 天

    [LV.1]初来乍到

    7#
    wj7636 发表于 2019-4-9 15:34:41 只看该作者
    等二十年 我还会回来看LZ的。! 平移门http://www.ssmdd.com
    回复 支持 反对

    使用道具 举报

    *滑动验证:
    您需要登录后才可以回帖 登录 | 立即注册

    本版积分规则

    Copyright © 2013-2017 ARinChina-增强现实中国技术论坛   All Rights Reserved.