Archives par mot-clé : gradient de descente stochastique

Que se passe-t-il vraiment dans un réseau neuronal ?

Ouvert aux commentaires.

C’est Naftali Tishby qui, à mon sens, comprend le mieux ce qui se passe dans un réseau neuronal (artificiel). Son image est parlante d’un réseau neuronal comme un pipeline fuyant abondamment à chacune de ses soudures, pour ne plus débiter qu’une seule goutte à l’arrivée. Le débit à l’entrée, ce sont tous les pixels d’une image, et la goutte à l’arrivée, c’est le bit qui dira si oui ou non, il s’agit bien de l’image d’un chien.

Dans ses vidéos, il fait allusion au fait que ses collègues sont très réservés quant à ses explications, voire tentent de le descendre en flammes. À mon avis, c’est parce ses explications les dépassent.

Ceci dit, bien qu’il ait défriché considérablement la question, il reste des choses à expliquer. Je voudrais constituer un petit groupe de scientifiques et autres mathématiciens appliqués pour qu’on aille de l’avant sur cette question. Vous pouvez m’écrire ici, mais nous pouvons aussi bien lancer le débat ici même, s’il y a suffisamment de lecteurs du blog que cela intéresse.

cf. mon billet Le deep learning en termes de théorie de l’information par Naftali Tishby, le 24 décembre 2017

et le billet de Marc Peltier De l’intelligence artificielle produite par des méthodes optiques (et quelques réflexions à ce sujet), le 6 août 2018

Partager :