我想使用Vision
框架,然后使用Core ML
模型来检测相机的某些内容。我首先找到了一些例子,让我们说," step" (Vision
- > Core ML
),但我希望使用ARKit
框架代表其他一些内容,具体取决于Vision
和Core ML
检测到的内容ARKit
模型。
我找到了post here询问流量Vision
- > Core ML
- > Vision
,但我想做的是Core ML
- > ARKit
- > void make_noise() { printf("Quack!\n"); }
int fn1() { puts("fn1"); make_noise(); return 1; }
int fn2() { puts("fn2"); make_noise(); return 2; }
int main() { puts("main"); return fn1() + fn2() - 3; }
gcc -w t.c -o a.out && ./a.out
。
有人可以为我提供一个示例或教程或针对该场景的一些指导原则吗?