DEEP LEARNING NEURAL NETWORKS. DESIGN AND CASE STUDIES
FICHA
Foto Título:            DEEP LEARNING NEURAL NETWORKS. DESIGN AND CASE STUDIES
Autor:            Daniel Graupe
Editorial:       World Scientific
Idioma:         Inglés
Páginas:        280
Publicación:  2016
Lectura:         2016
COMENTARIO EDITORIAL
(Fuente: Traducción y ligera elaboración propia de la descripción en Amazon)

Las Redes Neuronales para Deep Learning constituyen el campo de más rápido crecimiento en Machine Learning. Sirven como un arma computacional poderosa para la resolución de problemas de predicción, diagnóstico, detección y decisión basadas en una arquitectura computacional bien definida. Han sido utilizadas con éxito en un amplio panorama de aplicaciones desde la seguridad en computadores, reconocimiento del habla, imagen y vídeo hasta la detección industrial de fallos, diagnóstico medico y finanzas.

Este abarcador libro de texto es el primero en este nuevo campo emergente. En él se muestran de manera sucinta numerosos casos de estudio. Está orientado al uso como texto para un curso de un semestre de a nivel de grado universitario o como libro de texto para unidades de investigación y desarrollo en industria, medicina y finanzas.
COMENTARIO PERSONAL

En 'Deep Learning Neural Networks' tenemos un austero y bastante conciso libro de texto sobre redes neuronales y su aplicación en deep learning. No se detiene el autor en florituras ni se adorna lo más mínimo. Simplemente, explica los conceptos de una manera en general breve y directa.

El libro nos habla básicamente de tres cosas: los mecanismos comunes en redes neuronales, la descripción de las topologías más comunes y una serie de casos de estudio sencillos realizados por estudiantes de un curso del que el autor, Daniel Graupe, es profesor. Y, para ello, se estructura en nueve capítulos:
  • 'Deep learning neural networks': donde define lo que es una red neuronal y hace un repaso histórico del desarrollo de esta disciplina.

  • 'Basic concepts of neural networks': donde explica una serie de conceptos/mecanismos comunes en redes neuronales: el principio de Hebb, el Perceptrón, la memoria asociativa, el principio de "todo para el ganador" y la Integral de Convolución.

  • 'Back Propagation': Explica las redes de back propagation, el algoritmo definido por Rumelhart, y algunas modificaciones posteriores como el sesgo.

  • 'The Cognitron and Neocognitrón': explica estas dos redes, la segunda una evolución de la primera, definidas por Fukushima y empleadas fundamentalmente en el reconocimiento de patrones.

  • 'Deep Learning Convolutional Neural Networks': nos habla de ConvNet, la red de convolución definida por Yann LeCun y su equipo en 1998, y que según el autor es la más popular en deep learning. A esta red dedica ya algo más de espacio que a las anteriores para hablarnos de su arquitectura y luego desarrollar el funcionamiento de los componentes como las capas de convolución, la retropropagación, la unidad de rectificación lineal, las capas de pooling, el dropout y la capa de salida.

  • 'LAMSTAR-1 and LAMSTAR-2 Neural Networks': el capítulo más extenso donde describe las redes LAMSTAR, diseñadas y patentadas por el autor, inspiradas en el funcionamiento del sistema nervioso central y utilizadas fundamentalmente como memoria a gran escala para el almacenamiento y recuperación de información. Nos detalla su estructura y paso a paso cómo se realiza el ajuste y aprendizaje

  • 'Other Neural Networks for Deep Learning': nos cuenta, de forma más resumida, las características de otras redes neuronales, en concreto, las Máquinas de Boltzman, las redes recurrentes (Deep Recurrent Learning Neural Networks) y las Wavelet.

  • 'Case Studies': Es una breve explicación de 20 casos de estudio realizados por estudiantes de cursos del autor. De estos casos de estudio se añade además, en un apéndice, el código fuente.

  • 'Concluding comments': Hace un resumen del libro y unos comentarios finales.

Lo mejor de 'Deep Learning Neural Networks' es, probablemente, lo ordenado y directo que es, cómo estructura y clasifica el material de un forma clara y precisa. A cambio, quizá le falta un poco de contexto, un poco más de explicación y, los más especialistas, probablemente echen de menos también algo más de profundidad en la explicación de las redes salvo, tal vez, en el caso de las redes LAMSTAR una brevedad que, sin embargo, agradecerán probablemente aquellos que se acerquen a este libro como una primera introducción.

En conjunto, nos hallamos ante un tratado sobre redes neuronales en deep learning breve y austero pero útil y creo que bastante eficaz.