我正在尝试使用Amazon Rekognition解决面部检测和识别问题。到目前为止,我已经能够将我的实时摄像头Feed从我的树莓派摄像头发送到Amazon Kinesis Video流。我在这里Amazon Rekognition working with streaming videos
熟悉这个概念但令我感到困惑的一件事是,我必须将视频提要发送到由以下代码创建的流处理器( newStreamProcessor222 ):
client = boto3.client('rekognition')
response = client.create_stream_processor(
Input={
'KinesisVideoStream': {
'Arn': 'arn:aws:kinesisvideo:us-east-1:xxxxxx:stream/fd-mystream/xxxxx'
}
},
Output={
'KinesisDataStream': {
'Arn': 'arn:aws:kinesis:us-east-1:xxxxxxx:stream/AmazonRekognition-fd-mystream'
}
},
Name='newStreamProcessor222',
Settings={
'FaceSearch': {
'CollectionId': 'MyCollection',
'FaceMatchThreshold': 85.5
}
},
RoleArn='arn:aws:iam::xxxxxx:role/Administrator'
)
还是应该将视频供稿发送到输入中提到的流(f d-mystream )。
我尝试将视频帧发送到两个流,但输出流中没有输出( AmazonRekognition-fd-mystream ) 另外,AmazonRekognition和AmazonRekognition-fd-mystream中的指标为空。
我在这里想念什么?