我目前使用以下代码在tfjs
中加载模型。我正在尝试通过使用CloudFlare的Cache API将文件缓存到更接近调用模型的位置来优化模型。我是否可以在加载操作中拦截fetch调用以缓存模型数据并将从缓存中获取的数据加载到模型中?
当前代码:
const model = await tf.loadLayersModel("model_url_from_gcp")
试图实现:
// Will load data from cache if data is cached, else will fetch from URL and cache
const load_data = cache.get("model_url_from_gcp")
// Will load cached data into Model instead of using a URL
const model = await tf.loadLayersModel(load_data)
是否还可以通过TFHub实现GraphModel的相同功能?
const model = await tf.loadGraphModel("some_tfhub_url", { fromTFHub: true })
答案 0 :(得分:0)
有关针对TensorFlow.js使用LocalStorage或IndexDB,请参阅以下文档:
IndexDB:https://www.tensorflow.org/js/guide/save_load#indexeddb_browser_only
LocalStorage:https://www.tensorflow.org/js/guide/save_load#local_storage_browser_only