我有一台运行Google TV 3.1的Logitech Revue,我刚刚完成设置我的构建环境以便为它开发。因此,我启动模拟器以查看它可以做什么,令我惊讶的是它几乎无法绘制两个无纹理的立方体(我运行了GLSurfaceView API演示)。帧速率在10 fps左右徘徊,我的机器除了模拟器外什么都没有运行。
“基于内核的虚拟机(KVM)是一种虚拟机框架,其性能可与原生机器相媲美。模拟器使用KVM模拟Google TV设备,其性能可与连接到电视的实际设备相媲美。 “ [https://developers.google.com/tv/android/docs/gtv_emulator#KVM]
据我了解,KVM允许虚拟机直接使用硬件组件,如显卡。作为Google TV模拟器的一项要求,我认为它可以利用我的GPU。为了测试这个,我找到了一个程序调用psensor [http://ubuntuguide.net/monitor-cpunvdia-gpushard-disk-temperature-in-ubuntu-using-psensor]并用它来确定我的GPU是否被使用。在运行GLSurfaceView时,GPU的温度从42C到50C并且风扇开始播放,所以我假设应用程序可以访问。
上面的引用表示与实际设备的性能相当,我决定在Revue上测试3D应用程序。我下载了一个简单的3D骰子滚动应用程序并启动它。立方体的数量超过两倍,纹理化,并且没有可见的帧速率损失。该设备似乎能够正常运行3D应用程序。
我希望能够在开发环境中测试我的应用程序,我需要以与最终用户体验相当的方式运行模拟器。
我不想在设备上使用远程调试,因为这是一个很大的不便。
谢谢!
答案 0 :(得分:1)
查看此G +页面,其中介绍了如何配置AVD以使用图形加速:
答案 1 :(得分:0)
目前,Google TV模拟器不使用Host PC GPU来执行任何OpenGL。 相反,它使用软件模拟。
我强烈建议使用真实硬件进行任何类型的OpenGL开发。 (同样适用于手机/平板电脑的Android模拟器)