加载时缓存模型

时间:2020-04-28 00:45:55

标签: caching tensorflow.js

我目前使用以下代码在tfjs中加载模型。我正在尝试通过使用CloudFlare的Cache API将文件缓存到更接近调用模型的位置来优化模型。我是否可以在加载操作中拦截fetch调用以缓存模型数据并将从缓存中获取的数据加载到模型中?

当前代码:

const model = await tf.loadLayersModel("model_url_from_gcp")

试图实现:

// Will load data from cache if data is cached, else will fetch from URL and cache
const load_data = cache.get("model_url_from_gcp")

// Will load cached data into Model instead of using a URL 
const model = await tf.loadLayersModel(load_data)

是否还可以通过TFHub实现GraphModel的相同功能?

const model = await tf.loadGraphModel("some_tfhub_url", { fromTFHub: true })

1 个答案:

答案 0 :(得分:0)

有关针对TensorFlow.js使用LocalStorage或IndexDB,请参阅以下文档:

IndexDB:https://www.tensorflow.org/js/guide/save_load#indexeddb_browser_only

LocalStorage:https://www.tensorflow.org/js/guide/save_load#local_storage_browser_only