我正在尝试使用xss-finder工具来自动执行将负载复制和粘贴到URL中的任务,我想使用shell脚本/ bash脚本,我已经阅读过Linux中的“ curl”功能,但是我不知道不知道如何获取URL并将文件中的有效载荷逐一检查到URL中,请帮助我!
我已经制作了一个脚本,该脚本以URL和文件路径“ pyload.txt”作为参数,但是我只是被困在如何从payload.txt逐行读取并将其注入URL中(如果找到结果的话)之间。应该显示。!
#!/bin/bash
URL=$1 FILE_PATH=$2
while IFS= read -r var do echo "$var" done < $FILE_PATH
function file_check() {
if [ -f "$FILE_PATH" ];then
echo "$FILE_PATH found."
else
echo "$FILE_PATH not found."
fi
}
function url_check() {
regex='(https?|ftp|file)://[-A-Za-z0-9\+&@#/%?=~_|!:,.;]*[-A-Za-z0-9\+&@#/%=~_|]'
if [[ $URL =~ $regex ]]; then
echo "url correct"
else
echo "Please Check the link and make sure it's in the following format: 'http://www.url.com/' "
fi
}
file_check url_check
仅一个简单的代码就没有编写任何URL处理和有效载荷注入逻辑,我也不知道该怎么做。
仅使用正则表达式检查URL,就实现了文件路径检查,因为我无法理解有关如何检查有效载荷的每一行并将其放入URL并检查XSS的逻辑,需要帮助。