-
Notifications
You must be signed in to change notification settings - Fork 102
Open
Description
| cross_entropy=tf.nn.sparse_softmax_cross_entropy_with_logits(logits=self.softmax_propabilities, |
老师您好,我是听了小象学院课程的学生,关于这行代码有两个问题想请教:
- 根据tf.nn.sparse_softmax_cross_entropy_with_logits的文档,label可以直接放入数值化的标签结果,请问您这里为什么做了One-hot处理呢?
- 根据tf.nn.sparse_softmax_cross_entropy_with_logits的文档,这里的logits应该是未经softmax处理的结果(这个函数会进行softmax操作),您这里输入的为什么是经过softmax后的值呢?
初学请教,理解错误之处请您谅解;万望回复,谢谢啦!
Metadata
Metadata
Assignees
Labels
No labels