当我使用mlcp从一个db进行批量加载到另一个db时,我遇到了超时错误。任何想法
要执行的命令:
[root @mlcp bin] #sh mlcp.sh copy -mode local -input_host xxxx -input_port 8000 -input_database p2a-aws-prod-00-content -copy_collections false -copy_permissions false -copy_properties false -copy_quality false -input_username admin -input_password admin -output_host xxxx -output_port 8000 -output_database p2a-aws-bldstb-00-content -output_username admin -output_password admin
我在日志中看到了这一点:
17/03/31 05:49:05 INFO contentpump.LocalJobRunner:已完成66% 2017-03-31 05:49:16.951 SEVERE [13](StreamingResultSequence.next):RequestException实例化ResultItem 85129:超出时间限制 com.marklogic.xcc.exceptions.XQueryException:SVC-EXTIME:超出时间限制 [会话:user = admin,cb =#12474893908780766241 [ContentSource:user = admin,cb = p2a-aws-prod-00-content [provider:address = 00-prod-db-02.highroads.local / 10.46.13.182: 8000,pool = 0/64]]] [客户:XCC / 8.0-6.3,服务器:XDBC / 8.0-5.1]
答案 0 :(得分:3)
在不了解更多关于数据大小和系统之间的连接的情况下猜测,但我预计会有一些大文件,并且在一次交易中复制它们需要很长时间。尝试减少var app = angular.module('myApp',[]);
app.factory("getFoo", function(){
return {
getCommi: function(val,id){
var array = ["hello","world"];
return array;
}
}
});
app.controller('myCtrl', ['$scope','getFoo',function($scope,getFoo){
$scope.myArr = getFoo.getCommi(4,1);
}])
和/或batch_size
。您还可以考虑降低transaction_size
,因为线程可能会竞争网络带宽。
HTH!