我看到一些在线代码没有在输出层中使用softmax激活函数,而是在计算损失函数时使用了tf.nn.softmax_cross_entropy_with_logits_v2。问题是从最后一层出来的值之和不等于1。
https://towardsdatascience.com/cifar-10-image-classification-in-tensorflow-5b501f7dc77c
library IEEE;
use IEEE.std_logic_1164.all;
package run is
-- some package definitions
end run;
package body run is
-- the body
end run;
entity andfunc is
Port( A : in std_logic;
B : in std_logic;
C : out std_logic
);
end andfunc;
architecture Behavioral of andfunc is
begin
C <= A and B ;
end Behavioral;
我希望至少有几个值在0-1之间,但是当tf.nn.softmax不用作激活函数时,我会得到巨大的值