docker:如何检索文件(由scrapy-splash创建)

时间:2017-12-18 15:05:11

标签: docker scrapy docker-compose scrapy-splash

我使用scager-splash和docker。 在Dockerfile中,我有这一行将结果导出到.jl

CMD ["scrapy", "crawl", "quotesjs", "-o", "quote.jl"]

当我运行docker-compose builddocker-compose up时,日志通知我:

scrapy1      | 2017-12-18 00:00:00 [scrapy.extensions.feedexport] INFO: Stored jl feed (10 items) in: quote.jl

我在本地文件夹(Dockerfile和scrapy项目所在的位置)中没有看到任何quote.jl,所以我猜它应该在我的容器中。 我使用此命令尝试cp容器的内容,但没有成功。

docker cp containerID:. ./copy_of_container

如何检索quote.jl文件。

我在Windows10上使用Docker for Windows

我的dockerfile

FROM python:alpine
RUN apk --update add libxml2-dev libxslt-dev libffi-dev gcc musl-dev libgcc openssl-dev curl bash
RUN pip install scrapy scrapy-splash scrapy-fake-useragent
ADD . /scraper
WORKDIR /scraper

CMD ["scrapy", "crawl", "apkmirror", "-o", "apkmirror.jl"]

0 个答案:

没有答案