是否可以将任何外部或第三方存储系统用于人工制品?

时间:2019-06-04 06:32:11

标签: artifactory jfrog-cli artifactory-query-lang

我们一直在寻找将jFrog Artifactory配置为与其他对象存储系统一起使用的可能性...

有可能吗?如果可以,请您指导吗?

2 个答案:

答案 0 :(得分:3)

Artifactory支持大量外部文件存储,包括所有大型云对象存储:

  • 与Amazon S3兼容的存储
  • Google云存储
  • Azure Blob存储
  • 任何一种本地坐骑
  • NFS
  • 数据库(完整DB)

文件存储可以通过多个层进行配置,例如缓存和分片。

请阅读:https://www.jfrog.com/confluence/display/RTF/Configuring+the+Filestore

答案 1 :(得分:1)

目前,我们使用 Artifactory 7.x 的两节点 HA 集群,它指向符合 S3 的 Hitachi Content Platform (HCP)。效果很好!我们在本地缓存了 500GB,然后剩下的在我们的 HCP 上。

在实施此之前,我们就其文档的措辞与支持人员进行了双重检查。事实上,它们将支持任何 S3 兼容系统用作 Artifactory 的后端存储提供商。

我们通过以下说明对其进行了配置: https://www.jfrog.com/confluence/display/JFROG/S3+Object+Storage

我们的 binarystore.xml 看起来像这样:

<?xml version="1.0" encoding="UTF-8" standalone="yes"?>
<config version="2">
    <chain>
        <provider type="cache-fs" id="cache-fs-eventual-s3">
            <provider type="sharding-cluster" id="sharding-cluster-eventual-s3">
                <dynamic-provider type="remote" id="remote-s3"/>
                <sub-provider type="eventual-cluster" id="eventual-cluster-s3">
                    <provider type="retry" id="retry-s3">
                        <provider type="s3" id="s3"/>
                    </provider>
                </sub-provider>
            </provider>
        </provider>
    </chain>
    <provider type="cache-fs" id="cache-fs-eventual-s3">
        <maxCacheSize>500000000000</maxCacheSize>
        <cacheProviderDir>cache</cacheProviderDir>
    </provider>
    <provider type="sharding-cluster" id="sharding-cluster-eventual-s3">
        <writeBehavior>crossNetworkStrategy</writeBehavior>
        <readBehavior>crossNetworkStrategy</readBehavior>
        <redundancy>1</redundancy>
        <property name="zones" value="local,remote"/>
    </provider>
    <provider type="eventual-cluster" id="eventual-cluster-s3">
        <zone>local</zone>
    </provider>
    <provider type="retry" id="retry-s3">
        <maxTrys>10</maxTrys>
    </provider>
    <provider type="s3" id="s3">
        <bucketName>Artifactory</bucketName>
        <endpoint>http://namespace.tenant.cluster.com</endpoint>
        <credential>REMOVED</credential>
        <port>80</port>
        <identity>REMOVED</identity>
        <httpsOnly>false</httpsOnly>
        <s3AwsVersion>AWS4-HMAC-SHA256</s3AwsVersion>
        <property name="httpclient.max-connections" value="300"/>
        <property name="s3service.disable-dns-buckets" value="true"/>
    </provider>
    <provider type="remote" id="remote-s3">
        <checkPeriod>15000</checkPeriod>
        <connectionTimeout>5000</connectionTimeout>
        <socketTimeout>30000</socketTimeout>
        <maxConnections>300</maxConnections>
        <connectionRetry>2</connectionRetry>
        <zone>remote</zone>
    </provider>
</config>

当我们第一次使用 Artifactory 6.x 进行设置时,我还在我的个人博客上发布了一份指南。你可以在这里找到: https://www.tyler-wright.com/using-hitachi-content-platform-as-backend-storage-for-jfrogs-artifactory/