我正在尝试使用watson developer cloud python library与IBM Speech to Text API进行交互,以检测某些文本中存在哪些音素或音节。但是我遇到了一些与称为 import "core-js/es7/array";
import "core-js/es7/object";
的必需参数有关的问题,并且希望有人可以提供更多有关要传递的值的上下文。阅读了以下内容后,我无法理解文档。这是一个代码段:
import re
text = ':-U campus -u stevendu -l h_data=4G,h_rt=86400,h_vmem=4G -pe single 1:'
match = re.search('(h_data=(\d{1})([G|M]))', text)
print(match.groups()) # ('h_data=4G', '4', 'G')
print(match.group(1)) # h_data=4G
print(match.group(2)) # 4
print(match.group(3)) # G
编辑:期望值可能是新的自定义语音模型的标识符。我已经开始研究该策略here,但不幸的是,我也遇到了与此相关的问题。该方法可能类似于:
customization_id
答案 0 :(得分:1)
我认为您误读了“语音转文字”服务的文档。
您可以创建自定义项来修改语料库如何使用发音来检测单词
https://cloud.ibm.com/apidocs/speech-to-text?code=python#add-custom-words
但是,要做到这一点,您需要创建一个自定义,这对于lite帐户是无法做到的。
https://cloud.ibm.com/apidocs/speech-to-text?code=python#create-a-custom-language-model
您可以使用API列出已创建的自定义项。
https://cloud.ibm.com/apidocs/speech-to-text?code=python#list-custom-language-models
答案 1 :(得分:0)
事实证明,我使用了错误的URL和错误的API密钥。将URL固定为“ https://gateway-wdc.watsonplatform.net/text-to-speech/api”,并创建新的标准级别文本并将其升级到语音服务并使用该服务的API密钥后,我能够实现更新部分中提到的两步过程我的问题。