我正在编写一个游戏化应用程序,其中与最终用户的交互是通过麦克风和网络摄像头进行的。我正在使用带有统一3D 2018的2019 mac mini。
在使用unity编辑器进行编码会话期间,一切正常,但是当我为部署而构建时,该应用程序变得太慢,并且在尝试访问网络摄像头和麦克风时冻结。
我已授予使用这些设备的所有权限。 生成的应用程序可以在Windows和android上很好地工作。
为什么我不能在MacOS上将麦克风与已部署的应用程序一起使用? 相同的代码在其他平台上也能很好地工作。
下面,我发布使用麦克风的代码段:
public void onPointerDown()
{
mSpeechToTextManagerGoogle.audioSource.clip = Microphone.Start("", true, 30, 44100);
mSpeechToTextManagerGoogle.start = Time.time;
mSpeechToTextManagerGoogle.audioSource.loop = true;
while (!(Microphone.GetPosition(null) > 0))
{
}
}
public void onPointerUp()
{
Microphone.End("");
mSpeechToTextManagerGoogle.end = Time.time;
StartCoroutine(mSpeechToTextManagerGoogle.SendRequestToGoogle(mSpeechToTextManagerGoogle.audioSource.clip, 0, (mSpeechToTextManagerGoogle.end - mSpeechToTextManagerGoogle.start)));
}
答案 0 :(得分:0)
尝试一下:
mSpeechToTextManagerGoogle.audioSource.clip = Microphone.Start("Built-in Microphone", true, 30, 44100);