UNPKG

simple-tensorflow

Version:

Simplificación de la libreria tensorflow.js para que sea mas facil de usar.

108 lines (89 loc) 2.94 kB
Un npm que simplifica bastante la libreria tensorflow.js. ![Creador](https://raster.shields.io/static/v1?label=Creador&message=Seyron#5532&color=RED?style=flat&logo=appveyor) ## Instalación Antes de instalarlo, debe tener instalado [Node.js](https://nodejs.org/en/download/) y [Python 2.7](https://www.python.org/download/releases/2.7/) La instalación se realiza mediante el [comando de instalación npm](https://docs.npmjs.com/getting-started/installing-npm-packages-locally): ```bash $ npm install simple-tensorflow --save ``` ## Características * Reducción de dificultad para crear una red neuronal * Separación de las capas * User-Friendly * Entrenamiento Rapido ## Conceptos Basicos * Las capas son la estructura del cerebro de la red neuronal,la primera capa de los modelos siempre debe llevar la dimensión del input * Las perdidas son diferentes funciones para evaluar que tan bien/mal lo esta haciendo la red neuronal,la mejor depende para que se este utilizando. * Los optimizadores son la manera en la que la red neuronal se adapta a los datos. ## Opciones Modelo ### Perdida * meanSquaredError * meanAbsoluteError * meanAbsolutePercentageError * meanSquaredLogarithmicError * squaredHinge * hinge * categoricalHinge * logcosh * categoricalCrossentropy * sparseCategoricalCrossentropy * binaryCrossentropy * kullbackLeiblerDivergence * poisson * cosineProximity ### Optimizadores * sgd * momentum * adagrad * adadelta * adam * adamax * rmsprop ### Opciones * iteraciones: Numero de veces que la red aprendera los datos. * aleatorio: Esto indicara si se cambiara el orden de los datos. * logs: Numero del 0 al 2 que indicara cuanta información se dara en cada entrenamiento por medio de la consola. ## Capas * Dense * BatchNormalization * Reshape * Conv2D ### Configuración de las capas Cada capa puede tener una configuración diferente pero esta es la configuración que suelen tener todas * neuronas * activacion * entrada ## Activaciones Las capas necesitan una función de activación para funcionar correctamente * elu * hardSigmoid * linear * relu * relu6 * selu * sigmoid * softmax * softplus * softsign * tanh * swish * mish ## Ejemplos ### Ejemplo 1: XOR Basico ```js const neural = require('simple-tensorflow') let capa1 = new neural.Dense({neuronas:2,entrada:2}) let capa2 = new neural.Dense({neuronas:1}) const modelo = new neural.Modelo([capa1,capa2],'meanSquaredError','sgd') let datosx = [[1,1],[1,0],[0,1],[0,0]] let datosy = [0,1,1,0] modelo.entrenar(datosx,datosy,{ iteraciones:5, aleatorio:true }).then(() => { let entrada = [[1,1]] let resultado = modelo.predecir(entrada) console.log(resultado) //Si usaste [1,1] o [0,0] al ser un XOR debe darte un numero cercano a 0 pero si usaste [1,0] o [0,1] debe darte un numero cercano a 1 }) ``` ***Creado por: Discord Safe***