我有一个非常有创意的要求 - 我不确定这是否可行 - 但如果可能,它肯定会使我的应用程序更有趣。
前提:在Android手机上,如果用手遮住屏幕(不接触,只是靠近屏幕)或 在电话锁定或呼叫期间,电话被放在耳朵上 基本上它变黑了。所以必须有一些技术来认识到这一点 我的手靠近屏幕。
问题:我的应用中有一张图片。如果 用户指向图像而不触摸屏幕,就像一个 在扩展到前提下,我必须能够知道用户是 指向图像并更改图像。这可能吗?
更新:使用示例:
说我想建立一个有趣的应用程序,触摸图像导致其他一些 地点。例如 - 我有两个车门,一个车到一个狮子车。 现在,当用户即将触摸门1时 - 门应该显示 一条消息说你确定,然后实际触摸它需要你 到另一个地方。有点基本的例子,但我希望你得到 点
答案 0 :(得分:0)
您可以在带有广角前置摄像头的手机上进行此操作,以便可以看到整个屏幕。您必须编写用于识别手部动作的软件,并将其转换为屏幕操作。
为什么不用触摸,如果我可能会问?
答案 1 :(得分:0)
您正在谈论的功能是接近传感器。有关Sensor.TYPE_PROXIMITY
的信息,请参见Sensor
和SensorEvent.values
。
你可以从屏幕上获得手的距离,但你真的不确定手在XY坐标系中的位置。所以你无法弄清楚用户是否指向了车门"或者到狮子门#34;。