将UIEvent从iOS设备UIView发送到外部屏幕UIView

时间:2011-09-08 23:39:33

标签: ios uitouch airplay uievent

我正在使用AirPlay开发应用程序,我需要一种在主屏幕上触摸的方法,作为外部屏幕上UI的触摸,以便与大量以前存在的自定义UI元素兼容。重建UI元素比找到将触摸从一个视图转换为另一个视图的方式要困难几个数量级。

外部屏幕将显示一种鼠标指针来表示交互,因为用户需要在屏幕上显示其操作的参考点。这可能会产生用户界面指导障碍,但是当我到达时,我会越过那座山。希望我能找到一种方法让这个项目足够像鼠标一样。用户将作为一种跟踪板与设备进行交互。

我正在设备屏幕上使用一个窗口,其中“sendEvent”子类用于捕获触摸事件。我正在尝试手动遍历需要接收输入的视图的视图层次结构。找到我想谈的观点并不困难。对于基于UIControl的类,我可以调用“sendActionsForControlEvents”来为控件发送适当的消息。这可能需要一些爱抚,但目前这不是主要问题。

对于touchesBegan,touchesMoved等的UI事件,我没有一种伪造UIEvent信息的好方法。我不能调用这些函数,除非我有一个UIEvent,我似乎没有办法创建一个UIEvent对象。来自sendEvent的UIEvent没有与辅助屏幕上的指针位置匹配的位置(至少),所以简单地传递它不会给我我想要的东西。

有没有合法的方法来合成这些信息?

0 个答案:

没有答案