我有一个来自服务器并存储在图库中的图像列表。我想使用ARKit拾取任何图像并将其放置在活动墙上,并希望将图像转换为3d图像,然后执行缩放,移动图像等操作。
有人可以指导我如何在AR中创建自定义对象吗?
答案 0 :(得分:7)
要检测ARKit
中的垂直表面(例如墙壁),您需要首先设置ARWorldTrackingConfiguration
,然后在应用程序中启用planeDetection
。
因此,在您的Class Declaration
下,您将创建以下变量:
@IBOutlet var augmentedRealityView: ARSCNView!
let augmentedRealitySession = ARSession()
let configuration = ARWorldTrackingConfiguration()
然后初始化您的ARSession
和ViewDidLoad
中的示例,例如:
override func viewDidLoad() {
super.viewDidLoad()
//1. Set Up Our ARSession
augmentedRealityView.session = augmentedRealitySession
//2. Assign The ARSCNViewDelegate
augmentedRealityView.delegate = self
//3. Set Up Plane Detection
configuration.planeDetection = .vertical
//4. Run Our Configuration
augmentedRealitySession.run(configuration, options: [.resetTracking, .removeExistingAnchors])
}
现在,您都已设置为检测到的垂直平面,您需要使用以下ARSCNViewDelegate
方法进行钩挂:
func renderer(_ renderer: SCNSceneRenderer, didAdd node: SCNNode, for anchor: ARAnchor) { }
简单地说:
告诉委托人一个SceneKit节点对应于一个新的AR 锚已添加到场景中。
在这种方法中,我们将显式查找已检测到的任何ARPlaneAnchors
,它们可以为我们提供:
有关真实单位的位置和方向的信息 在世界追踪的AR会话中检测到表面。
像这样将SCNPlane
放在检测到的垂直平面上很简单:
//-------------------------
//MARK: - ARSCNViewDelegate
//-------------------------
extension ViewController: ARSCNViewDelegate{
func renderer(_ renderer: SCNSceneRenderer, didAdd node: SCNNode, for anchor: ARAnchor) {
//1. Check We Have Detected An ARPlaneAnchor
guard let planeAnchor = anchor as? ARPlaneAnchor else { return }
//2. Get The Size Of The ARPlaneAnchor
let width = CGFloat(planeAnchor.extent.x)
let height = CGFloat(planeAnchor.extent.z)
//3. Create An SCNPlane Which Matches The Size Of The ARPlaneAnchor
let imageHolder = SCNNode(geometry: SCNPlane(width: width, height: height))
//4. Rotate It
imageHolder.eulerAngles.x = -.pi/2
//5. Set It's Colour To Red
imageHolder.geometry?.firstMaterial?.diffuse.contents = UIColor.red
//4. Add It To Our Node & Thus The Hiearchy
node.addChildNode(imageHolder)
}
}
将此应用于您的案例:
在您的情况下,我们需要做一些额外的工作,因为您希望能够允许用户将图像应用于垂直平面。
因此,最好的选择是使刚刚添加的节点成为变量,例如
class ViewController: UIViewController {
@IBOutlet var augmentedRealityView: ARSCNView!
let augmentedRealitySession = ARSession()
let configuration = ARWorldTrackingConfiguration()
var nodeWeCanChange: SCNNode?
}
因此,您的Delegate Callback
可能看起来像这样:
//-------------------------
//MARK: - ARSCNViewDelegate
//-------------------------
extension ViewController: ARSCNViewDelegate{
func renderer(_ renderer: SCNSceneRenderer, didAdd node: SCNNode, for anchor: ARAnchor) {
//1. If We Havent Create Our Interactive Node Then Proceed
if nodeWeCanChange == nil{
//a. Check We Have Detected An ARPlaneAnchor
guard let planeAnchor = anchor as? ARPlaneAnchor else { return }
//b. Get The Size Of The ARPlaneAnchor
let width = CGFloat(planeAnchor.extent.x)
let height = CGFloat(planeAnchor.extent.z)
//c. Create An SCNPlane Which Matches The Size Of The ARPlaneAnchor
nodeWeCanChange = SCNNode(geometry: SCNPlane(width: width, height: height))
//d. Rotate It
nodeWeCanChange?.eulerAngles.x = -.pi/2
//e. Set It's Colour To Red
nodeWeCanChange?.geometry?.firstMaterial?.diffuse.contents = UIColor.red
//f. Add It To Our Node & Thus The Hiearchy
node.addChildNode(nodeWeCanChange!)
}
}
}
现在您可以随时参考nodeWeCanChange
设置它的图像了!
每个SCNGeometry
都有一组材料,它们是:
一组阴影属性,用于定义几何图形的外观 渲染时显示表面。
在我们的情况下,我们正在寻找以下材料:diffuse property
管理材质对灯光的漫反射的对象。
然后是contents属性,
材料属性的视觉内容-颜色,图像或来源 动画内容。
显然,您需要处理全部工作,但是一个非常基本的示例可能看起来像这样,假设您将图像存储在UIImage数组中,例如:
let imageGallery = [UIImage(named: "StackOverflow"), UIImage(named: "GitHub")]
我已经创建了一个IBAction
,它将根据按下的SCNNode's Geometry
的标签来更改UIButton
的图像,例如:
/// Changes The Material Of Our SCNNode's Gemeotry To The Image Selected By The User
///
/// - Parameter sender: UIButton
@IBAction func changeNodesImage(_ sender: UIButton){
guard let imageToApply = imageGallery[sender.tag], let node = nodeWeCanChange else { return}
node.geometry?.firstMaterial?.diffuse.contents = imageToApply
}
这足以为您指明正确的方向...希望能对您有所帮助...