我尝试使用UnsatisfiedLinkError
时有经验
flink-s3-fs-hadoop
下沉到本地Windows计算机中的s3
。
我用Google搜索并尝试了几种解决方案,例如下载hadoop.dll
和
winutils.exe
,设置HADOOP_HOME
和PATH
环境变量,将hadoop.dll
复制到C:\Windows\System32
,但是它们都不起作用。
我还尝试通过使用以下代码在代码中加载hadoop
库:
System.loadlibrary("hadoop")
,成功了,但错误仍然存在,
我还缺少其他任何步骤吗?
这是我的代码(第二和第三行只是在尝试调试,它将在第二行成功,但是在第三行抛出UnSatisfiedLink
异常):
public static void main(String[] args) throws Exception {
System.loadLibrary("hadoop");
NativeIO.Windows.access(null, NativeIO.Windows.AccessRight.ACCESS_READ);
StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
env.setParallelism(1);
DataStream<String> ds = env.readTextFile("s3://fts-test/test/input.csv");
ds.print();
ds.writeAsText("s3://fts-test/test/output.csv");
env.execute();
}
通过我使用Window 7 64 bit
,flink 1.5
的方式。