这是我的C代码,它从文件中读取URL列表,并尝试分离URL的各个部分。这只是粗略的解析,我对特殊情况并不感到困扰。我猜sscanf()语句有一些错误;当我运行它时,我得到“分段故障”。而且,完整的URL被分配给“proto”字符串。
#include<stdio.h>
#include<string.h>
#include<stdlib.h>
# define BAG_SIZE 14
char bag[117][30];
void initbag()
{
strcpy(bag[0],"account");
strcpy(bag[1],"audit");
strcpy(bag[2],"ad");
strcpy(bag[3],"advertising");
strcpy(bag[4],"marketing");
strcpy(bag[5],"application");
strcpy(bag[6],"banking");
strcpy(bag[7],"barter");
strcpy(bag[8],"business");
strcpy(bag[9],"econo");
strcpy(bag[10],"commerce");
strcpy(bag[11],"communication");
strcpy(bag[12],"computer");
strcpy(bag[13],"processing");
}
/*
other bag[] values will be later copied
*/
void substr(char dest[10],char src[200],int start,int len)
{
int i,j;
for(i=start,j=0;i<start+len;i++,j++)
dest[j]=src[i];
dest[j]='\0';
}
int found(char* word)
{
int i;
for(i=0;i<BAG_SIZE;i++)
if((!strcmp(word,bag[i]))||(strstr(bag[i],word)!=NULL)) return 1;
return 0;
}
void main()
{
int i,j,k;
char buff[10],fullurl[100];
char proto[5],www[4],host[100],tokens[200],tld[4];
float feature[11];for(i=0;i<11;i++) feature[i]=0;
FILE *furl,*fop;
furl=fopen("bizurls.txt","r");
fop=fopen("urlsvm.txt","w");
initbag();
printf("\nbag initialised");fflush(stdout);
while(!feof(furl))
{
fscanf(furl,"%s",fullurl);
printf("%s",fullurl);
sscanf(fullurl,"%s://%s.%s.%s/%s\n",proto,www,host,tld,tokens);// this line isnt working properly
printf("2hi");fflush(stdout);
printf("proto : %s\nwww:%s\nhost :%s\ntld:%s\ntokens:%s\n",proto,www,host,tld,tokens);fflush(stdout);
for( i=4;i<=8;i++)
{
for(j=0;j<strlen(host)-i+1;j++)
{
substr(buff,host,j,i);
if(found(buff)) feature[i-3]++;
}
}
if((!strcmp(tld,"biz"))||(!strcmp(tld,"org"))||(!strcmp(tld,"com"))||(!strcmp(tld,"jobs")))
feature[0]=1;
else if((!strcmp(tld,"info"))||(!strcmp(tld,"coop"))||(!strcmp(tld,"net")))
feature[0]=0.5;
else
feature[0]=0;
for( i=4;i<=8;i++)
{
for(j=0;j<strlen(tokens)-i+1;j++)
{
substr(buff,tokens,j,i);
if(found(buff)) feature[i+2]++;
}
}
/*.biz · .com · .info · .name · .net · .org · .pro
.aero, .coop, .jobs, .travel */
for(i=0;i<11;i++) fprintf(fop," %d:%f",i,feature[i]);
fprintf(fop,"\n");
}
fflush(fop);
fclose(furl);
fclose(fop);
}
答案 0 :(得分:3)
%s只会在遇到第一个空格字符,字符串结尾或指定的最大长度时停止。看到URL没有空格,这就是proto变得完整的原因。
对于分段错误:因为proto只能容纳5个字节(包括尾随空,所以只有4个字节的数据不会覆盖例如https),将完整的URL放入其中会导致缓冲区溢出/分段错误。在这方面,sscanf相当成问题。文档请求接收%s的每个char缓冲区应足够大以容纳完整字符串(加上\ 0)。
答案 1 :(得分:2)
这里有很多答案:
Best ways of parsing a URL using C?
答案 2 :(得分:1)
它不起作用,因为proto
会与整个fullurl
匹配,其余的将无法比拟。您应该使用正确的URL解析函数或正则表达式。