标签: apache-spark amazon-s3 amazon-iam
我正在使用Java创建Spark作业,该作业在运行时使用访问和秘密密钥显式指定IAM用户。使用密钥,它可以在本地计算机上读写S3,没有任何问题。但是,当我将工作晋升为Cloudera Oozie时,它会继续承担附加到EC2实例(只能读取某些S3片)的IAM角色。目标是为每个租户设置一个IAM用户,该用户只能在同一存储桶(多租户)下访问S3中自己的片。如果您知道如何防止IAM角色覆盖Spark中的IAM用户凭据,谁能给我建议?预先感谢。