Dans ce cours, vous apprendrez la "magie" qui permet l'efficacité de l’apprentissage profond. Plutôt que de voir le processus d’apprentissage profond comme une boîte noire, vous comprendrez ce qui commande la performance et vous pourrez ainsi obtenir systématiquement de bons résultats plus souvent. Vous apprendrez également TensorFlow.
Au bout de 3 semaines, vous:
- Pourrez comprendre les meilleures pratiques dans le secteur de construction des applications d’apprentissage profond.
- Serez en mesure d’utiliser avec efficacité des "astuces", communes des réseaux neuronaux, qui incluent l’initialisation, la régularisation L2 et la régularisation du décrochage, la normalisation par lots, la vérification de gradients,
- Pourrez mettre en œuvre et employer une variété d’algorithmes d’optimisation, comme par exemple la descente de gradients par mini-lots, le momentum, RMSprop et Adam, et contrôler leur convergence.
- Comprendrez, à l’ère de l’apprentissage profond, les nouvelles meilleures pratiques sur la configuration des ensembles train/dev/test et comment analyser les biais/variances
- Pourrez implémenter un réseau neuronal dans TensorFlow.
Ceci est le deuxième cours de spécialisation en apprentissage profond.
Overview
Syllabus
- Aspects pratiques de l’apprentissage profond
- Algorithmes d’optimisation
- Réglage des hyper-paramètres, normalisation des lots et cadres de programmation
Taught by
Andrew Ng, Kian Katanforoosh and Younes Bensouda Mourri