Spark插入覆盖到动态分区表不能按预期工作

时间:2018-06-12 08:49:43

标签: scala apache-spark bigdata hiveql

我尝试将生成的大量小文件合并为更大的文件。我的文件是镶木地板格式。 我在新位置创建一个新的临时表(外部表),然后用旧的覆盖它。 如果我使用HiveSQL CLI执行此操作,新表位置中的文件将完全合并(我每个分区只能获得一个文件)...但是当我尝试通过Spark SQL(运行相同的Hive命令)执行此操作时,我没有得到合并的文件,但以前他们在旧位置。 我设置了confs

<bean class="org.springframework.web.servlet.mvc.method.annotation.RequestMappingHandlerAdapter">
    <property name="messageConverters">
    <list>    
        <bean class="org.springframework.http.converter.json.MappingJackson2HttpMessageConverter">
            <property name="supportedMediaTypes">
                <list>
                    <value>text/html;charset=UTF-8</value>
                    <value>application/json;charset=UTF-8</value>
                </list>
            </property>
        </bean>            
    </list>
    </property>                        
</bean>    

请帮助!!

P.S。: - 我正在使用Spark 1.6.0

0 个答案:

没有答案