我试图将多点触控事件嵌入到我的wxPython GUI中,但是我对最佳方法感到有点迷茫。
目前,我有一个TUIO服务器,用于传输要捕获的多点触控事件。然后我使用pytuio库在我的GUI的单独线程中接收多点触控事件。我的GUI由一个带有多个matplotlib面板和一个OpenGL面板的wxFrame组成。
问题是我不得不手动编写代码来确定使用了多少手指,位置和触摸类型。然后我发送一个自定义事件,可以通过我的GUI接收。
这适用于matplotlib面板(尽管我必须为报告的手指位置提供非常小的常量偏移),但对于OpenGL面板,手指位置似乎不正确。这是一个问题,因为OpenGL面板中的触摸位置的偏移甚至不是恒定的,它似乎根据触摸事件发生在面板上的位置而变化。所以我无法弥补它。
我觉得必须有一个更全面的多点触控库,它可以完成确定手指和触摸类型(点击,双击,拖动,释放等)的所有艰苦工作。并且可能会克服我在OpenGL面板上的问题。我看过但是我没有看到可以区分触摸类型等的库,它们似乎只是提供了手指数量和位置的列表。
答案 0 :(得分:1)
唯一支持的综合GUI库:
是Kivy。我能够拼凑出适用于Windows 7及更高版本和wxPython的东西(通过从Kivy中提取相关部分来处理WM_TOUCH
事件),所以原则上它可以完成。但这些都无法解决您的具体问题。