Boto3从AWS Glue写入DynamoDB,不可哈希类型:'dict'

时间:2019-05-03 18:45:44

标签: pyspark boto3 aws-glue

我试图在PySpark(AWS Glue ETL作业)中使用boto3模块将数据帧加载到DynamoDB中,但遇到错误:

$(function(){
    $('#load').click(function(){ 
        $('#iframeHolder').html('<iframe scrolling="no" style="border:0px;" src="https://images.pexels.com/photos/414612/pexels-photo-414612.jpeg" width="100%" height="700px;"></iframe>');
    });   

    $('#load2').click(function(){ 
        $('#iframeHolder').html('<iframe scrolling="no" style="border:0px;" src="https://assets.wordpress.envato-static.com/uploads/2017/08/tropical-PS53BSA.jpg" width="100%" height="300px;"></iframe>');
    });   
});

任何人都可以帮助我解决此问题并解释其原因吗?我想了解问题的根源。

这是我当前的代码。请注意,此数据框中将永远只有一行。下面使用的SQL是仅用于测试的伪造数据。

Parameter validation failed: Invalid type for parameter Item, value: set(["{u'ecosystemName': u'animals', u'regionalCenter': u'center', u'dataExtractedTimestamp': u'20190502T13:12:11.111Z'}"]), type: <type 'set'>, valid types: <type 'dict'> Could not write to the Audit Table for regional center:

1 个答案:

答案 0 :(得分:0)

当,五分钟规则又来了...

它在我的put_item调用中。我在那里有多余的括号,有效地使JSON无效。这项更改解决了我的问题:

table.put_item( Item = audit_data_frame_prep )