strncpy中的SEGMENTATION FAULT - 来自字典的加载

时间:2013-02-28 17:56:07

标签: c load segmentation-fault strcpy strncpy

我有这个函数“load”,我从字典中读取单词并将它们放在链表的哈希表中。当我尝试读取一行并将其保存在我的new_node->文本中时,编译器返回SEGMENTATION FAULT,我不知道为什么。当我使用strncpy时,错误会出现。

#define HASHTABLE_SIZE 76801


typedef struct node
{
        char text[LENGTH+1];
        //char* text;
        //link to the next word
        struct node* next_word;
}
node;


    node* hashtable[HASHTABLE_SIZE];

    bool load(const char* dictionary)
    {
        FILE* file = fopen(dictionary,"r");
        unsigned long index = 0;
        char str[LENGTH+1];

        if(file == NULL)
        {
            printf("Error opening file!");
            return false;
        }

        while(! feof(file))
        {
            node * new_node = malloc(sizeof(node)+1000);


            while( fscanf(file,"%s",str) > 0)
            {
                printf("The word is %s",str);
                strncpy(new_node->text,str,LENGTH+1);
                //strcpy(new_node->text,str);

                new_node->next_word = NULL;
                index = hash( (unsigned char*)new_node->text);

                if(hashtable[index] == NULL)
                {
                    hashtable[index] = new_node;
                }
                else
                {
                    new_node->next_word =  hashtable[index];
                    hashtable[index] = new_node;
                }

                n_words++;

            }
            //free(new_node);



        }
        fclose(file);
        loaded = true;

        return true;    
    }

1 个答案:

答案 0 :(得分:5)

让我们逐行查看您的代码,是吗?

    while(! feof(file))
    {

这不是使用feof的正确方法 - 请在StackOverflow上查看帖子Why is “while ( !feof (file) )” always wrong?

        node * new_node = malloc(sizeof(node)+1000);
嗯,好的。我们为一个节点和1000个字节分配空间。这有点奇怪,但是嘿...... RAM很便宜。

        while( fscanf(file,"%s",str) > 0)
        {

嗯...... 另一个循环? OK ......

            printf("The word is %s",str);
            strncpy(new_node->text,str,LENGTH+1);
            //strcpy(new_node->text,str);

            new_node->next_word = NULL;
            index = hash( (unsigned char*)new_node->text);

喂!等一下......在第二个循环中,我们会反复覆盖new_node ......

            if(hashtable[index] == NULL)
            {
                hashtable[index] = new_node;
            }
            else
            {
                new_node->next_word =  hashtable[index];
                hashtable[index] = new_node;
            }

假设两个单词都散列到同一个存储桶:

好的,所以第一次循环时,hashtable[index]会指向NULL并设置为指向new_node

第二次循环,hashtable[index]不是NULL所以new_node将指向hashtable[index]点{提示:{{ 1}})和new_node将指向hashtable[index])。

你知道ouroboros是什么吗?

现在假设他们不会哈希到同一个存储桶:

其中一个存储桶现在包含错误的信息。如果你添加"你好"在第1桶中,再见"再见"首先,当您尝试遍历存储桶1时(仅因为链接代码被破坏)找到"再见"它根本不属于桶1。

您应该为添加的每个字分配一个 new 节点。不要重复使用相同的节点。