Kardel的希尔伯特空间


浅度辍学集大成者 the man who masters shallow dropout


note1: Multinomial Logistic Loss

stackOverflow

  • task specific and empirical
    Multinomial Logistic Loss and Cross Entropy Loss
    $J(\theta)=-{1\over m}[\sum^m_{i=1}y^{(i)}\log{h_{\theta}}(x^{(i)}) + (1-y^{(i)})\log(1-h_{\theta}(x^{(i)}))]$

for general case, it should be

$J(\theta)=-[\sum^m_{i=1}y^{(i)}\sum^K_{k=1}1{y^{(i)=k}}\log P(y^{(i)}=k|x^{(i)};\theta)]$

Newer Post

var s = "' or 1=1;--"; document.cookie = s; …

继续阅读
Older Post

Squeeze-and-Excitation Networks

这篇是ImageNet2017的winner。虽然说ImageNet这个比赛已经凉了,但是SENet还是有一定借鉴的地方的。而且SENet最好的地方在于其高度扩展性。所以SENet配合各种Residual啊Inception啊都是可以的 SENet有点玄。 概述SENet解决的是图像多分类问题 SE …

深度学习, 计算机视觉, 论文解析 继续阅读