日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

ARKit从入门到精通(4)-ARKit全框架API大全

發布時間:2024/9/30 编程问答 29 豆豆
生活随笔 收集整理的這篇文章主要介紹了 ARKit从入门到精通(4)-ARKit全框架API大全 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
  • 轉載請注明出處:ARKit從入門到精通(4)-ARKit全框架API大全

  • 1.1-ARKit框架簡介

  • 1.2-ARAnchor
  • 1.3-ARCamera
  • 1.4-ARError
  • 1.5-ARFrame
  • 1.6-ARHitTestResult
  • 1.7-ARLightEstimate
  • 1.8-ARPlaneAnchor
  • 1.9-ARPointCloud
  • 1.10-ARSCNView
  • 1.11-ARSession
  • 1.12-ARSessionConfiguration
  • 1.13-ARSKView

1.1-ARKit框架簡介

  • 再上一小節中,相信大家已經對<ARKit>框架的使用及原理有了一個全局的認識,為了能夠更加深入的研究學習ARKit技術,所以筆者本小節主要介紹<ARKit>框架中所有的API

    • 本篇主要翻譯自蘋果官方文檔,適當加上一些筆者的見解
  • ARKit框架類圖


0501.png

1.2-ARAnchor

  • ARAnchor表示一個物體在3D空間的位置和方向(ARAnchor通常稱為物體的3D錨點,有點像UIKit框架中CALayer的Anchor)
    • ARFrame表示的也是物體的位置和方向,但是ARFrame通常表示的是AR相機的位置和方向以及追蹤相機的時間,還可以捕捉相機的幀圖片
      • 也就是說ARFrame用于捕捉相機的移動,其他虛擬物體用ARAnchor
@interface ARAnchor : NSObject <NSCopying>/**標識符*/ @property (nonatomic, readonly) NSUUID *identifier;/**錨點的旋轉變換矩陣,定義了錨點的旋轉、位置、縮放。是一個4x4的矩陣(讀者可以自行科普什么叫4x4矩陣)*/ @property (nonatomic, readonly) matrix_float4x4 transform;/**構造方法,一般我們無需構造。因為添加一個3D物體時ARKit會有代理告知我們物體的錨點*/ - (instancetype)initWithTransform:(matrix_float4x4)transform;@end

1.3-ARCamera

  • *AR相機,該類API較多,并且理解比較困難,將會在后續小節單獨介紹
    • 該類非常重要,且API較多,將在后續小節介紹

1.4-ARError

  • ARError是一個描述ARKit錯誤的類,這個錯誤來源于幾個方面,例如設備不支持,或者當相機常駐后臺時ARSession會斷開等問題
//作用域,一般會表示是哪一個類出現問題 NSString *const ARErrorDomain;//錯誤碼描述 100:不支持會話追蹤配置,主線由于A9芯片以下的機型會報錯 101:失活狀態 102:傳感器故障 200:追蹤失敗 typedef NS_ERROR_ENUM(ARErrorDomain, ARErrorCode) {/** Unsupported session configuration. */ARErrorCodeUnsupportedConfiguration = 100,/** A sensor required to run the session is not available. */ARErrorCodeSensorUnavailable = 101,/** A sensor failed to provide the required input. */ARErrorCodeSensorFailed = 102,/** World tracking has encountered a fatal error. */ARErrorCodeWorldTrackingFailed = 200, };

1.5-ARFrame

  • ARFrame主要是追蹤相機當前的狀態,這個狀態不僅僅只是位置,還有圖像幀及時間等參數
@interface ARFrame : NSObject <NSCopying>/** 時間戳.*/ @property (nonatomic, readonly) NSTimeInterval timestamp;/**緩沖區圖像幀*/ @property (nonatomic, readonly) CVPixelBufferRef capturedImage;/** 相機(表示這個ARFrame是哪一個相機的,iPhone7plus有兩個攝像機)*/ @property (nonatomic, copy, readonly) ARCamera *camera;/**返回當前相機捕捉到的錨點數據(當一個3D虛擬模型加入到ARKit中時,錨點值得就是這個模型在AR中的位置)*/ @property (nonatomic, copy, readonly) NSArray<ARAnchor *> *anchors;/** 燈光,詳情可見本章節ARLightEstimate類介紹(指的是燈光強度 一般是0-2000,系統默認1000)*/ @property (nonatomic, copy, nullable, readonly) ARLightEstimate *lightEstimate;/** 特征點(應該是捕捉平地或者人臉的,比較蘋果有自帶的人臉識別功能)*/ @property (nonatomic, nullable, readonly) ARPointCloud *rawFeaturePoints;/** 根據2D坐標點搜索3D模型,這個方法通常用于,當我們在手機屏幕點擊某一個點的時候,可以捕捉到這一個點所在的3D模型的位置,至于為什么是一個數組非常好理解。手機屏幕一個是長方形,這是一個二維空間。而相機捕捉到的是一個由這個二維空間射出去的長方體,我們點擊屏幕一個點可以理解為在這個長方體的邊緣射出一條線,這一條線上可能會有多個3D物體模型 point:2D坐標點(手機屏幕某一點) ARHitTestResultType:捕捉類型 點還是面 (NSArray<ARHitTestResult *> *):追蹤結果數組 詳情見本章節ARHitTestResult類介紹*/ - (NSArray<ARHitTestResult *> *)hitTest:(CGPoint)point types:(ARHitTestResultType)types;/** 相機窗口的的坐標變換(可用于相機橫豎屏的旋轉適配)*/ - (CGAffineTransform)displayTransformWithViewportSize:(CGSize)viewportSize orientation:(UIInterfaceOrientation)orientation;@end

1.6-ARHitTestResult

  • ARHitTestResult:點擊回調結果,這個類主要用于虛擬增強現實技術(AR技術)中現實世界與3D場景中虛擬物體的交互。 比如我們在相機中移動。拖拽3D虛擬物體,都可以通過這個類來獲取ARKit所捕捉的結果
//捕捉類型枚舉 typedef NS_OPTIONS(NSUInteger, ARHitTestResultType) {/** 點. */ARHitTestResultTypeFeaturePoint = (1 << 0),/** 水平面 y為0. */ARHitTestResultTypeEstimatedHorizontalPlane = (1 << 1),/** 已結存在的平面. */ARHitTestResultTypeExistingPlane = (1 << 3),/** 已結存在的錨點和平面. */ARHitTestResultTypeExistingPlaneUsingExtent = (1 << 4), } NS_SWIFT_NAME(ARHitTestResult.ResultType);/** 捕捉類型*/ @property (nonatomic, readonly) ARHitTestResultType type;/**3D虛擬物體與相機的距離(單位:米)*/ @property (nonatomic, readonly) CGFloat distance;/** 本地坐標矩陣(世界坐標指的是相機為場景原點的坐標,而每一個3D物體自身有一個場景,本地坐標就是相對于這個場景的坐標)類似于frame和bounds的區別*/ @property (nonatomic, readonly) matrix_float4x4 localTransform;/** 世界坐標矩陣*/ @property (nonatomic, readonly) matrix_float4x4 worldTransform;/**錨點(3D虛擬物體,在虛擬世界有一個位置,這個位置參數是SceneKit中的SCNVector3:三維矢量),而錨點anchor是這個物體在AR現實場景中的位置,是一個4x4的矩陣*/ @property (nonatomic, strong, nullable, readonly) ARAnchor *anchor;@end

1.7-ARLightEstimate

  • ARLightEstimate是一個燈光效果,它可以讓你的AR場景看起來更加的好
@interface ARLightEstimate : NSObject <NSCopying>/** 燈光強度 范圍0-2000 默認1000*/ @property (nonatomic, readonly) CGFloat ambientIntensity;@end

1.8-ARPlaneAnchor

  • ARPlaneAnchor是ARAnchor的子類,筆者稱之為平地錨點。ARKit能夠自動識別平地,并且會默認添加一個錨點到場景中,當然要想看到真實世界中的平地效果,需要我們自己使用SCNNode來渲染這個錨點
    • 錨點只是一個位置
/** 平地類型,目前只有一個,就是水平面*/ @property (nonatomic, readonly) ARPlaneAnchorAlignment alignment;/** 3軸矢量結構體,表示平地的中心點 x/y/z*/ @property (nonatomic, readonly) vector_float3 center;/** 3軸矢量結構體,表示平地的大小(寬度和高度) x/y/z*/ @property (nonatomic, readonly) vector_float3 extent;@end

1.9-ARPointCloud

  • ARPointCloud:點狀渲染云,主要用于渲染場景
@interface ARPointCloud : NSObject <NSCopying>/**點的數量*/ @property (nonatomic, readonly) NSUInteger count;/** 每一個點的位置的集合(結構體帶*表示的是結構體數組)*/ @property (nonatomic, readonly) const vector_float3 *points;@end

1.10-ARSCNView

  • AR視圖,在第一小節筆者介紹過,ARKit支持3D的AR場景和2D的AR場景,ARSCNView是3D的AR場景視圖

    • 該類非常重要,且API較多,將在后續小節介紹
  • 該類是整個ARKit框架中唯一兩個有代理的類其中之一

1.11-ARSession

  • AR會話,它的作用已經在前面小節中介紹,這里不再累述

    • 該類非常重要,且API較多,將在后續小節介紹
  • 該類是整個ARKit框架中唯一兩個有代理的類其中之一

1.12-ARSessionConfiguration

  • ARSessionConfiguration會話追蹤配置,主要就是追蹤相機的配置
    • 注意:該類還有一個子類:ARWorldTrackingSessionConfiguration,它們在同一個API文件中
//會話追蹤配置類 @interface ARSessionConfiguration : NSObject <NSCopying>/** 當前設備是否支持,一般A9芯片以下設備不支持*/ @property(class, nonatomic, readonly) BOOL isSupported;/** 會話的對其方式,這里的對其指的是3D世界的坐標。枚舉值見下方*/ @property (nonatomic, readwrite) ARWorldAlignment worldAlignment;/** 是否需要自適應燈光效果,默認是YES*/ @property (nonatomic, readwrite, getter=isLightEstimationEnabled) BOOL lightEstimationEnabled;@end//世界會話追蹤配置,蘋果建議我們使用這個類,這個子類只有一個屬性,也就是可以幫助我們追蹤相機捕捉到的平地 @interface ARWorldTrackingSessionConfiguration : ARSessionConfiguration/** 偵查類型。枚舉值見下方(默認偵查平地)*/ @property (nonatomic, readwrite) ARPlaneDetection planeDetection;@end

//追蹤對其方式,這個決定了會話的參考坐標系(參照物)
typedef NS_ENUM(NSInteger, ARWorldAlignment) {
/* 相機位置 vector (0, -1, 0)?/
ARWorldAlignmentGravity,

/** 相機位置及方向. vector (0, -1, 0)heading :(0, 0, -1) */ ARWorldAlignmentGravityAndHeading,/** 相機方向. */ ARWorldAlignmentCamera

} NS_SWIFT_NAME(ARSessionConfiguration.WorldAlignment);

/
偵查類型
*/
API_AVAILABLE(ios(11.0)) API_UNAVAILABLE(macos, watchos, tvos)
typedef NS_OPTIONS(NSUInteger, ARPlaneDetection) {
/
?不偵查. */
ARPlaneDetectionNone = 0,

/** 平地偵查 */ ARPlaneDetectionHorizontal = (1 << 0),

} NS_SWIFT_NAME(ARWorldTrackingSessionConfiguration.PlaneDetection);

1.13-ARSKView

  • ARSKView也是AR視圖,只不過他是2D的,由于2D比3D簡單很多,并且ARSKView基本與ARSCNView類似,所以這里不做重復介紹。詳細內容可參考ARSCNView

總結

以上是生活随笔為你收集整理的ARKit从入门到精通(4)-ARKit全框架API大全的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。