Recurrent Neural Network (RNN)

Beschreibung

Recurrent Neural Network (RNN) Mapa mental
Luis Fernando Santuario Parra
Mindmap von Luis Fernando Santuario Parra, aktualisiert more than 1 year ago
Luis Fernando Santuario Parra
Erstellt von Luis Fernando Santuario Parra vor mehr als 5 Jahre
56
0

Zusammenfassung der Ressource

Recurrent Neural Network (RNN)
  1. ¿Qué es?
    1. Las RNN son un tipo de redes neuronales que poseen un ciclo que permite que la información persista, este tipo de redes neuronales a pesar de que parecen algo sorprendente no son tan diferentes de las redes neuronales comunes, de echo la arquitectura de una red neuronal recurrente (RNN) se puede considerar como múltiples copias de una misma red, de las cuales cada una pasa información a su sucesor, dicho en otras palabras es una red neuronal cuyas salidas están conectadas a sus entradas por lo cual tienen retroalimentación como se muestra en la figura siguiente:[1][3]
    2. Origenes
      1. Las redes neuronales recurrentes surgen en la década de los 80's y en 1982 Hopfield desarrolla las redes neuronales del mismo nombre que hacen uso de las RNN las cuales se usan como sistemas de memoria asociativa, estas redes neuronales fueron originalmente inspiradas en la física estadística en qué datos almacenados se recuperan por asociación con los datos de entrada, en lugar de por una dirección. [1][2][3]
      2. Principales Capacidades
        1. Clasificador
          1. Regresor
          2. Entre las principales aplicaciones de las RNN podemos encontrar [4]
            1. Time series anomaly detection
              1. Generating Sequences with recurrent neural networks
                1. Grammar learning
                  1. Protein Homology Detection
                    1. Time series prediction
                      1. Imagen Captioning
                        1. Procesamiento de lenguaje Natural
                        2. Las Redes neuronales recurrentes (RNN) poseen diversas variantes entre las que podemos destacar las siguientes: [2][4]
                          1. RNN totalmente Recurrente: Es una red de nodos organizados en capas sucesivas las cuales están conectadas a cada otro nodo de la siguiente capa.
                            1. Redes de Elman y Jordania: Este tipo de redes neuronales recurrentes se conocen también como "redes recurrentes simples" y esta organizada en tres capas dispuestas horizontalmente como X,Y y Z
                              1. RNN independiente: Este tipo de neuronas se caracteriza porque cada una de ellas es independiente de la historia de la otra evitando de esta manera los problemas de la RNN tradicional
                                1. RNN de segundo orden: Este tipo de RNN permite un mapeo directo a una maquina de estados finitos y un ejemplo de esto es la memoria a corto plazo, sin embargo no tiene pruebas de estabilidad ni asignaciones formales
                                  1. Larga memoria a corto plazo(LSTM): La unidad LSTM común se compone de una celda , una puerta de entrada , una puerta de salida y una puerta de olvido . La célula recuerda los valores en intervalos de tiempo arbitrarios y las tres puertas regulan el flujo de información dentro y fuera de la celda
                                  2. Algoritmos de aprendizaje que usa
                                    1. Gradient descent
                                      1. Simplemente se usa para encontrar los valores de los parámetros de una función (coeficientes) que minimizan una función de costo en la medida de lo posible. Mide el cambio en todos los pesos con respecto al cambio en el error. También puede pensar en un gradiente como la pendiente de una función. Cuanto más alto es el gradiente, más pronunciada es la pendiente y más rápido puede aprender un modelo. Pero si la pendiente es cero, el modelo deja de aprender.[5]
                                      2. Global optimization methods
                                        1. El entrenamiento de los pesos en una red neuronal se puede modelar como un problema de optimización global no lineal . Se puede formar una función objetivo para evaluar la aptitud o error de un vector de peso particular
                                      3. Lenguajes de programación en los que se ha usado
                                        1. Python
                                          1. https://github.com/dennybritz/rnn-tutorial-rnnlm/
                                            1. https://pythonprogramming.net/rnn-tensorflow-python-machine-learning-tutorial/?completed=/recurrent-neural-network-rnn-lstm-machine-learning-tutorial/
                                              1. https://leonardoaraujosantos.gitbooks.io/artificial-inteligence/content/recurrent_neural_networks.html
                                              2. Matlab
                                                1. https://github.com/yabata/pyrenn/archive/master.zip
                                              3. Referencias
                                                1. [1]"Understanding LSTM Networks -- colah's blog", Colah.github.io, 2018. [Online]. Available: https://colah.github.io/posts/2015-08-Understanding-LSTMs/. [Accessed: 09- Sep- 2018].
                                                  1. [2]"Recurrent neural network", En.wikipedia.org, 2018. [Online]. Available: https://en.wikipedia.org/wiki/Recurrent_neural_network#cite_note-schmidhuber1993-5. [Accessed: 09- Sep- 2018].
                                                    1. [3]M. Hagan, H. Demuth, M. Beale and O. De Jesús, Neural network design. [S. l.: s. n.], 2016.
                                                      1. [4]"RNN and its applications", Es.slideshare.net, 2018. [Online]. Available: https://es.slideshare.net/samchoi7/rnnerica. [Accessed: 09- Sep- 2018].
                                                        1. [5]"Gradient Descent in a Nutshell – Towards Data Science", Towards Data Science, 2018. [Online]. Available: https://towardsdatascience.com/gradient-descent-in-a-nutshell-eaf8c18212f0. [Accessed: 11- Sep- 2018].
                                                        2. Santuario Parra Luis Fernando 3CM1
                                                          Zusammenfassung anzeigen Zusammenfassung ausblenden

                                                          ähnlicher Inhalt

                                                          Wirtschaft
                                                          Céline Rüegg
                                                          Teil B, Kapitel 3, Entscheidungsgrundlagen bei der Wahl der Rechtsform
                                                          Stefan Kurtenbach
                                                          Vokabeln für Gesundheits- und Krankenpflege
                                                          julian.haeuserer
                                                          Deutsch Partizip Perfekt - unregelmäßige Verben
                                                          Claus Lenz
                                                          Qualitative und Quantitative Forschungsmethoden
                                                          Clarissa Müller-Stengel
                                                          Biwi 2.3 - Frau Vogel | Kommunikation und Interaktion
                                                          Madeleine Krier
                                                          Vetie Radiologie 2019
                                                          Anna Nie
                                                          vetie mibi Altfragen 2019
                                                          Anne Heyne
                                                          Vetie-Chirurgie 2017
                                                          Ju Pi
                                                          Vetie Geflügelkrankheiten altfragen teil 2
                                                          Taissa Fraga de Almeida
                                                          Vetie: Geflügelkrankheiten Der Graupapagei
                                                          Björn Sake