使用flink-s3-fs-hadoop时出现UnsatisfiedLinkError

时间:2018-09-11 01:24:16

标签: hadoop amazon-s3 apache-flink

我尝试使用UnsatisfiedLinkError时有经验 flink-s3-fs-hadoop下沉到本地Windows计算机中的s3

我用Google搜索并尝试了几种解决方案,例如下载hadoop.dllwinutils.exe,设置HADOOP_HOMEPATH环境变量,将hadoop.dll复制到C:\Windows\System32,但是它们都不起作用。

我还尝试通过使用以下代码在代码中加载hadoop库: System.loadlibrary("hadoop"),成功了,但错误仍然存​​在, 我还缺少其他任何步骤吗?

这是我的代码(第二和第三行只是在尝试调试,它将在第二行成功,但是在第三行抛出UnSatisfiedLink异常):

public static void main(String[] args) throws Exception { 
    System.loadLibrary("hadoop"); 
    NativeIO.Windows.access(null, NativeIO.Windows.AccessRight.ACCESS_READ); 
    StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); 
    env.setParallelism(1); 
    DataStream<String> ds = env.readTextFile("s3://fts-test/test/input.csv"); 
    ds.print(); 
    ds.writeAsText("s3://fts-test/test/output.csv"); 
    env.execute(); 
} 

通过我使用Window 7 64 bitflink 1.5的方式。

0 个答案:

没有答案