如果在anaconda提示符下运行,则可以,但是ModuleNotFoundError:没有名为' keras'在Spyder

时间:2018-05-12 15:41:57

标签: python tensorflow keras spyder

我运行从GitHub下载的项目。 奇怪的是,如果我在anaconda提示符中运行它,它没关系,但如果我在Spyder中运行它,它会出现(我在win10中安装了anaconda和Sypder,并且还安装了keras):

  

RUNFILE(' E:/MySourceCode/neural_image_captioning-master-oarriaga/src/train.py' ;,   WDIR =' E:/ MySourceCode / neural_image_captioning-主oarriaga / SRC')   重装上阵的模块:评估器,生成器Traceback(最近的呼叫   最后):

     

文件"",第1行,in       RUNFILE(' E:/MySourceCode/neural_image_captioning-master-oarriaga/src/train.py' ;,   WDIR =' E:/ MySourceCode / neural_image_captioning-主oarriaga / SRC&#39)

     

文件   " d:\ ProgramData \ Anaconda3 \ lib中\站点包\ spyder的\ utils的\站点\ sitecustomize.py&#34 ;,   第710行,在runfile中       execfile(filename,namespace)

     

文件   " d:\ ProgramData \ Anaconda3 \ lib中\站点包\ spyder的\ utils的\站点\ sitecustomize.py&#34 ;,   第101行,在execfile中       exec(compile(f.read(),filename,' exec'),命名空间)

     

文件   " E:/MySourceCode/neural_image_captioning-master-oarriaga/src/train.py" ;,   第3行,在       来自keras.callbacks导入CSVLogger

     

ModuleNotFoundError:没有名为' keras'

的模块

train.py如下:

from evaluator import Evaluator
from generator import Generator
from keras.callbacks import CSVLogger
from keras.callbacks import ModelCheckpoint
from keras.callbacks import ReduceLROnPlateau
from models import NIC
from data_manager import DataManager

num_epochs = 50  
batch_size = 64 
root_path = '../datasets/IAPR_2012/'
captions_filename = root_path + 'IAPR_2012_captions.txt'
data_manager = DataManager(data_filename=captions_filename,
                            max_caption_length=30,
                            word_frequency_threshold=2,
                            extract_image_features=False,
                            cnn_extractor='inception',
                            image_directory=root_path + 'iaprtc12/',
                            split_data=True,
                            dump_path=root_path + 'preprocessed_data/')

data_manager.preprocess()
print(data_manager.captions[0])
print(data_manager.word_frequencies[0:20])

preprocessed_data_path = root_path + 'preprocessed_data/'
generator = Generator(data_path=preprocessed_data_path,
                      batch_size=batch_size)

num_training_samples =  generator.training_dataset.shape[0]
num_validation_samples = generator.validation_dataset.shape[0]
print('Number of training samples:', num_training_samples)
print('Number of validation samples:', num_validation_samples)

model = NIC(max_token_length=generator.MAX_TOKEN_LENGTH,
            vocabulary_size=generator.VOCABULARY_SIZE,
            rnn='gru',
            num_image_features=generator.IMG_FEATS,
            hidden_size=128,
            embedding_size=128)

model.compile(loss='categorical_crossentropy',
              optimizer = 'adam',
              metrics=['accuracy'])

print(model.summary())
print('Number of parameters:', model.count_params())

training_history_filename = preprocessed_data_path + 'training_history.log'
csv_logger = CSVLogger(training_history_filename, append=False) 
model_names = ('../trained_models/IAPR_2012/' +
               'iapr_weights.{epoch:02d}-{val_loss:.2f}.hdf5')
model_checkpoint = ModelCheckpoint(model_names,                 #Callback
                                   monitor='val_loss',
                                   verbose=1,
                                   save_best_only=False,
                                   save_weights_only=False)

reduce_learning_rate = ReduceLROnPlateau(monitor='val_loss', factor=0.1,  #Callback
                                         patience=5, verbose=1)

callbacks = [csv_logger, model_checkpoint, reduce_learning_rate]

model.fit_generator(generator=generator.flow(mode='train'), 
                    steps_per_epoch=int(num_training_samples / batch_size),
                    epochs=num_epochs,
                    verbose=1,
                    callbacks=callbacks,
                    validation_data=generator.flow(mode='validation'),
                    validation_steps=int(num_validation_samples / batch_size))

evaluator = Evaluator(model, data_path=preprocessed_data_path,
                      images_path=root_path + 'iaprtc12/')

evaluator.display_caption()

Spyder的设置有什么问题吗?并且在anoconda提示符中,在pip keras之前是否存在任何差异"激活tensorflow"之后"激活tensorflow"?非常感谢。

2 个答案:

答案 0 :(得分:1)

错误可能是您使用了错误的环境。在anaconda导航器中,启动spyder之前请确保您处于正确的环境中

答案 1 :(得分:0)

如果您正在使用conda,那么最好用conda安装所有内容,而不是将其与pip混合使用。

conda的目的是您可以创建多个环境,每个环境都安装了不同的软件包,或者同一软件包的不同版本,而不会引起冲突,因为一次只激活一个环境。这些包包括Python本身和Spyder。因此,要在Spyder中使用Python模块,您需要创建一个包含模块和Spyder的conda环境:

conda create -n mykerasenv keras spyder

然后要使用该环境,您需要在启动Spyder之前激活它:

activate mykerasenv # (or 'source activate mykerasenv' if that doesn't work)
spyder

根据您的conda / Anaconda安装,您可以通过Anaconda Navigator和/或Anaconda开始菜单快捷方式执行相同操作,但命令行版本应始终有效。

如果您确实需要使用pip来安装无法通过conda获得的软件包,则需要在创建和激活conda环境后执行此操作,以便pip将其安装在正确的位置。

如果你尝试在root conda环境中安装东西(即没有先创建一个conda create的新环境然后激活它),那么最好卸载Anaconda并从头开始。如果其中任何一个令人困惑,我建议您再读一次conda docs