我有这个函数“load”,我从字典中读取单词并将它们放在链表的哈希表中。当我尝试读取一行并将其保存在我的new_node->文本中时,编译器返回SEGMENTATION FAULT,我不知道为什么。当我使用strncpy时,错误会出现。
#define HASHTABLE_SIZE 76801
typedef struct node
{
char text[LENGTH+1];
//char* text;
//link to the next word
struct node* next_word;
}
node;
node* hashtable[HASHTABLE_SIZE];
bool load(const char* dictionary)
{
FILE* file = fopen(dictionary,"r");
unsigned long index = 0;
char str[LENGTH+1];
if(file == NULL)
{
printf("Error opening file!");
return false;
}
while(! feof(file))
{
node * new_node = malloc(sizeof(node)+1000);
while( fscanf(file,"%s",str) > 0)
{
printf("The word is %s",str);
strncpy(new_node->text,str,LENGTH+1);
//strcpy(new_node->text,str);
new_node->next_word = NULL;
index = hash( (unsigned char*)new_node->text);
if(hashtable[index] == NULL)
{
hashtable[index] = new_node;
}
else
{
new_node->next_word = hashtable[index];
hashtable[index] = new_node;
}
n_words++;
}
//free(new_node);
}
fclose(file);
loaded = true;
return true;
}
答案 0 :(得分:5)
让我们逐行查看您的代码,是吗?
while(! feof(file))
{
这不是使用feof
的正确方法 - 请在StackOverflow上查看帖子Why is “while ( !feof (file) )” always wrong?。
node * new_node = malloc(sizeof(node)+1000);
嗯,好的。我们为一个节点和1000个字节分配空间。这有点奇怪,但是嘿...... RAM很便宜。
while( fscanf(file,"%s",str) > 0)
{
嗯...... 另一个循环? OK ......
printf("The word is %s",str);
strncpy(new_node->text,str,LENGTH+1);
//strcpy(new_node->text,str);
new_node->next_word = NULL;
index = hash( (unsigned char*)new_node->text);
喂!等一下......在第二个循环中,我们会反复覆盖new_node
......
if(hashtable[index] == NULL)
{
hashtable[index] = new_node;
}
else
{
new_node->next_word = hashtable[index];
hashtable[index] = new_node;
}
假设两个单词都散列到同一个存储桶:
好的,所以第一次循环时,hashtable[index]
会指向NULL
并设置为指向new_node
。
第二次循环,hashtable[index]
不是NULL
所以new_node
将指向hashtable[index]
点{提示:{{ 1}})和new_node
将指向hashtable[index]
)。
你知道ouroboros是什么吗?
现在假设他们不会哈希到同一个存储桶:
其中一个存储桶现在包含错误的信息。如果你添加"你好"在第1桶中,再见"再见"首先,当您尝试遍历存储桶1时(仅因为链接代码被破坏)找到"再见"它根本不属于桶1。
您应该为添加的每个字分配一个 new 节点。不要重复使用相同的节点。