我正在尝试将特定网址列入白名单。 wiki.squid-cache.org文档说可以使用此方法
set.seed(4321)
g <- sample_gnp(500, .25)
plot(g, vertex.label = '', vertex.size = 5)
wc <- cluster_walktrap(g)
V(g)$community <- membership(wc)
E(g)$weight = 1
g_grouped = g
for(i in unique(V(g)$community)){
groupV = which(V(g)$community == i)
g_grouped = add_edges(g_grouped, combn(groupV, 2), attr=list(weight = 2))
}
l <- layout_nicely(g_grouped)
plot( wc,g, layout = l, vertex.label = '', vertex.size = 5, edge.width = .1)
我正在尝试将此网址列入白名单,但是它不起作用。
acl special_url url_regex ^http://www.squid-cache.org/Doc/FAQ/$
将其拖放到其域中可以使其正确列入白名单。
acl special_url url_regex ^https://script.google.com/macros/s/someverylongstring/exec$
尝试过其他正则表达式
acl special_url url_regex script.google.com
根据mail-archive,https://script.google.com/macros/s/someverylongstring/exec
^https:\/\/script.google.com\/macros\/s\/someverylongstring\/exec$
https:\/\/script.google.com\/macros\/s\/someverylongstring\/exec
可用于测试表达式,并且可以与顶部的原始表达式一起使用。
egrep
我还跟踪了$ echo 'https://script.google.com/macros/s/someverylongstring/exec' | egrep '^https://script.google.com/macros/s/someverylongstring/exec$'
https://script.google.com/macros/s/someverylongstring/exec
,以确认它拒绝了该url,但无法获得比此更详细的信息。有没有办法查看为什么网址未能通过/var/log/squid3/access.log
检查?
我的鱿鱼版本是3.3.8,这是Ubuntu 14.04 xenial上的最新版本。我唯一能想到的就是从源代码进行升级。