通过Live Stream通过Amazon Rekognition识别人脸

时间:2019-07-11 08:25:10

标签: amazon-kinesis amazon-rekognition

我正在尝试使用Amazon Rekognition解决面部检测和识别问题。到目前为止,我已经能够将我的实时摄像头Feed从我的树莓派摄像头发送到Amazon Kinesis Video流。我在这里Amazon Rekognition working with streaming videos

熟悉这个概念

但令我感到困惑的一件事是,我必须将视频提要发送到由以下代码创建的流处理器( newStreamProcessor222 ):

client = boto3.client('rekognition')
response = client.create_stream_processor(
Input={
    'KinesisVideoStream': {
        'Arn': 'arn:aws:kinesisvideo:us-east-1:xxxxxx:stream/fd-mystream/xxxxx'
    }
},
Output={
    'KinesisDataStream': {
        'Arn': 'arn:aws:kinesis:us-east-1:xxxxxxx:stream/AmazonRekognition-fd-mystream'
    }
},
Name='newStreamProcessor222',
Settings={
    'FaceSearch': {
        'CollectionId': 'MyCollection',
        'FaceMatchThreshold': 85.5
    }
},
RoleArn='arn:aws:iam::xxxxxx:role/Administrator'
)

还是应该将视频供稿发送到输入中提到的流(f d-mystream )。

我尝试将视频帧发送到两个流,但输出流中没有输出( AmazonRekognition-fd-mystream ) 另外,AmazonRekognition和AmazonRekognition-fd-mystream中的指标为空。

我在这里想念什么?

0 个答案:

没有答案