Anuncio

viernes, 3 de noviembre de 2017

Matematicas

“El 80% de lo que se aprende en la asignatura de matemáticas no sirve para nada”

Conrad Wolfram, físico que está cambiando la forma de enseñar matemáticas en Estonia, apuesta por eliminar el cálculo a mano




jueves, 26 de octubre de 2017

Instalar Apache2 y Tomcat en Ubuntu Amazon AWS


https://www.digitalocean.com/community/tutorials/como-instalar-java-con-apt-get-en-ubuntu-16-04-es

https://www.digitalocean.com/community/tutorials/how-to-install-apache-tomcat-8-on-ubuntu-14-04

https://examples.javacodegeeks.com/enterprise-java/tomcat/apache-tomcat-kali-linux-installation-tutorial/

https://www.digitalocean.com/community/tutorials/how-to-install-apache-tomcat-7-on-ubuntu-14-04-via-apt-get

https://askubuntu.com/questions/135824/what-is-the-tomcat-installation-directory

https://stackoverflow.com/questions/19648712/amazon-aws-filezilla-transfer-permission-denied

https://ayuda.guebs.com/instalar-tomcat7-apache2-mod_jk-ubuntu/

https://www.digitalocean.com/community/tutorials/how-to-install-apache-tomcat-8-on-ubuntu-16-04

https://www.digitalocean.com/community/tutorials/how-to-install-apache-tomcat-7-on-ubuntu-14-04-via-apt-get

https://www.mkyong.com/tomcat/tomcat-default-administrator-password/

https://stackoverflow.com/questions/19248512/how-to-deploy-war-file-in-tomcat7-ubuntu-12-0-4-server

https://www.digitalocean.com/community/tutorials/como-configurar-virtual-host-de-apache-en-ubuntu-14-04-lts-es

https://stackoverflow.com/questions/3365135/deploying-a-war-file-gives-me-a-404-status-code-on-tomcat

https://www.google.es/search?ei=IBrxWeGhIoWLavvopPAB&q=tomcat+manager+java.io.FileNotFoundException+permission+denied&oq=tomcat+manager+java.io.FileNotFoundException+permission+denied&gs_l=psy-ab.3...5721.6920.0.7555.14.12.0.0.0.0.156.1299.6j6.12.0....0...1.1.64.psy-ab..8.3.371...0i7i30k1j0i7i5i30k1j0i8i7i30k1j0i8i30k1j0i30k1.0.aYIh_TxYBi0

https://stackoverflow.com/questions/5109112/how-to-deploy-a-war-file-in-tomcat-7

https://www.ntu.edu.sg/home/ehchua/programming/howto/ApachePlusTomcat_HowTo.html


https://www.quora.com/How-do-I-deploy-a-WAR-file-in-tomcat-7-in-Ubuntu

https://www.mkyong.com/spring-boot/spring-boot-deploy-war-file-to-tomcat/

https://docs.spring.io/spring-boot/docs/current/reference/html/howto-traditional-deployment.html

https://stackoverflow.com/questions/5108019/how-to-make-war-file-in-eclipse

https://spring.io/guides/gs/convert-jar-to-war/

Elastic Beanstalk

lunes, 16 de octubre de 2017

Los 16 mejores bancos de imágenes gratis de 2017

http://epymeonline.com/mejores-bancos-de-imagenes-gratis/

pexels.com

pixabay.com

stokpic.com

Stocksnap.io

gratisography.com

lifeofpix.com

mmtstock.com

magdeleine.co

unplash.com

cupcake

jaymantri.com

picography.co

stockvault.net

startupstockphotos.com

splitshire.com

superfamous.com


OPTIMIZAR IMAGENES PARA WEB
http://optimizilla.com/


MEDIR RENDIMIENTO WEB
https://tools.pingdom.com/#!/bbDxEf/http://www.cirti.es/

https://developers.google.com/speed/pagespeed/insights/?url=http%3A%2F%2Fwww.cirti.es%2F

OPTIMIZAR SERVIDOR CACHE 
https://www.imaginanet.com/blog/como-optimizar-la-carga-de-imagenes-con-cache-mod-expires-apache.html

http://www.forosdelweb.com/f58/creacion-ubicacion-htaccess-443910/

https://stackoverflow.com/questions/4111682/why-doesnt-htaccess-have-any-effect


OPTIMIZAR RENDIMIENTO WEB
https://metricspot.com/rendimiento-web/

http://alfredohernandezdiaz.com/2015/09/29/como-medir-optimizar-velocidad-pagina-web/


MINIFY CSS
https://cssminifier.com/

UNMINIFY CSS, JS and HTML
http://unminify.com/

domingo, 15 de octubre de 2017

WinLockLess De los Santos Bloquear procesos permisos windows

Hispasec presenta WinLockLess: Herramienta para prevenir el arranque de programas en el inicio de Windows (y su potencial bloqueo)


http://unaaldia.hispasec.com/2012/04/hispasec-presenta-winlockless.html




Definir, ver, cambiar o quitar permisos de archivos y carpetas

https://technet.microsoft.com/es-es/library/cc754344(v=ws.11).aspx

Autenticaciones Web Basic Authentication


Make an HTTP POST authentication basic request using Javascript


https://stackoverflow.com/questions/31473420/make-an-http-post-authentication-basic-request-using-javascript


https://security.stackexchange.com/questions/988/is-basic-auth-secure-if-done-over-https

sábado, 14 de octubre de 2017

Radio Presencia

Mirar que impresionante !!!. En este link aparece un globo terráqueo como el de Google Earth, con infinidad de puntos verdes. Se puede hacer zoom igual que en Google Earth. Cada punto verde es una estación de radio local de cualquier parte del mundo. Al hacer click en el punto, se oye inmediatamente la estación de radio con buen sonido:

http://radio.garden/live/toulouse/radiopresence/

Es una joya!!!!
Disfrútalooooooo...

viernes, 13 de octubre de 2017

martes, 28 de marzo de 2017

Mapas Auto-organizados / Self Organizing Maps

Un modelo muy conocido de aprendizaje no supervisado.

1. Introduction
2. Architecture
3. Learning
4. Self organization
5. Conclusion


1. Introduction

MOTIVATION
Los mapas auto-organizados vienen de una inspiración biológica. En concreto algunas partes de la corteza visual del cerebro de los primates exhiben una estructura característica donde las neuronas que responden a una orientación en particular se agrupan juntas y los grupos juntos responden a orientaciones similares.

OVERVIEW
El mapa auto-organizado de Kohonen (SOM) está inspirado en los mapas computacionales que existen en la corteza visual de los primates. Dicho mapa consiste en una rejilla de neuronas de tal manera que las neuronas que son vecinas en la rejilla responden a patrones o entradas similares. El objetivo es encontrar la estructura de un conjunto de datos con cierta complejidad sin necesidad de ningún tipo de supervisión.


2. Architecture

NEURON STRUCTURE
Cada neurona i almacena un prototipo o centroide que notaremos w_i y que es un vector del espacio R^D,  es decir, el conjunto de todos los vectores de D componentes que son todos números reales.
Cuando se presenta al mapa un vector de entrada X también perteneciente a R^D, la salida es el prototipo que está más próximo a X.
La neurona asociada a ese prototipo se llama la neurona ganadora, y su índice se calcula mediante esta [ecuación].
El campo receptivo F_i de una neurona es el conjunto de vectores del espacio R^D para los cuales esa neurona es la ganadora. El prototipo es un vector representante o centroide de su campo receptivo asociado [ecuación].

TOPOLOGY
Un mapa auto-organizado (SOM) está formado por una rejilla de neuronas que están conectadas entre ellas mediante una topología o conectividad fija que determina que neuronas son vecinas de una neurona dada.
Las topologías más utilizadas son la rectangular y la hexagonal. También se pueden utilizar topologías sin bordes, como es el caso de la topología toroidal.
Se debe definir una distancia topológica entre parejas de neuronas. Si tenemos dos neuronas i y j en las ubicaciones r_i y r_j sobre la rejilla, es decir, que r_i y r_j son vectores de dos números naturales puesto que son parejas de índices sobre la rejilla, podemos definir la distancia topológica delta [ecuación].
También es preciso definir una función de vecindad que es una función decreciente de la distancia topológica que tiende a cero a medida que la distancia tiende a infinito.
Se suele usar un núcleo gaussiano con un parámetro p>0 que se llama radio de vecindad. Cuanto mayor sea p (ro), mayores serán los valores de la función de vecindad [ecuación]


3. Learning

LEARNING RULE
En cada instante de tiempo t, un patrón x(t) que es un vector de R^D se presenta al mapa auto-organizado.
La regla de aprendizaje mueve el prototipo de la neurona ganadora hacia el patrón, y sus vecinas también se mueven pero en un grado menor. La tasa de aprendizaje alfa controla cuando se mueven los prototipos, siendo esa tasa de aprendizaje entre 0 y 1 [ecuación].
La ecuación de actualización es la que se muestra donde i es el índice de la neurona ganadora y j es el índice de una neurona arbitraria del mapa.

LEARNING PARAMETERS
La tasa de aprendizaje normalmente decae siguiendo una regla lineal o exponencial y lo mismo ocurre con el radio de vecindad. Aquí damos unos posibles ejemplos para decidir la caída de la tasa de aprendizaje y el radio de vecindad donde T es el número total de pasos del proceso de entrenamiento [ecuación].
Esta elección de la caída de los parámetros de aprendizaje tiene la motivación de que se busca que la red sea plástica al principio del proceso de aprendizaje y converja al final del proceso de aprendizaje.
A veces se establece una fase de convergencia al final del aprendizaje con una tasa de aprendizaje y un radio de vecindad pequeños y constantes. Si esto se hace así, la primera fase se llama fase de ordenación.


4. Self Organization

CONCEPT
El resultado del proceso de aprendizaje es que las neuronas vecinas en la topología habitualmente tienen prototipos que están cerca en el espacio de datos R^D, es decir, que se forma un mapa computacional en el espacio de datos que refleja la topología de la red y la estructura del conjunto de datos.

EXAMPLES
Así pues, cada neurona representa una región de la distribución de entrada. Vamos a ver dos ejemplos sencillos en dos dimensiones y con una topología rectangular de 8x8 neuronas.
La distribución de entrada se muestra mediante niveles de gris entendiendo que el blanco es densidad de probabilidad cero y el negro es máxima densidad de probabilidad.
Como se puede ver, el mapa auto-organizado progresa desde un estado inicial desordenado a un estado final ordenado. Y la plasticidad de la fase de ordenación inicial viene seguida por un ajusta fino que se realiza en la fase de convergencia.
Aquí podemos observar como el mapa empieza en la fase de ordenación en la que existe una gran plasticidad, y luego en la fase de convergencia se produce un ajuste fino en el que los movimientos de los prototipos que están señalados en rojo no es tan intenso pero se produce una adaptación más estrecha a la distribución de entrada.
Además al principio, los prototipos están desordenados y después se van organizando o auto-organizando conforme a la topología, en este caso rectangular, que se ha impuesto a esas neuronas.
Así pues, podemos observar que las neuronas se adaptan a la distribución de entrada pero al mismo tiempo siguen la topología que se les ha impuesto.

Este otro ejemplo, es un ejemplo en el que no todas las regiones del espacio de entrada tienen la misma densidad. Y observamos que las zonas con mayor densidad de probabilidad, es decir, donde mayor cantidad de muestras aparecen se representan con más neuronas.
Se puede decir entonces que existe una relación entre la densidad de las neuronas y la densidad de la distribución de entrada, aunque esa densidad no es necesariamente lineal.
Observamos aquí de nuevo que al principio existe una gran plasticidad en la fase de ordenación y al final en la fase de convergencia se produce un ajuste fino de las neuronas a la distribución de entrada.


5. Conclusion

Los mapas auto-organizados son redes neuronales artificiales basadas en aprendizaje no supervisado.
Sus neuronas forman una rejilla que se adapta a la estructura de la distribución de entrada.
Auto-organización significa que emerge un orden global a partir de las interacciones locales entre las neuronas.
El proceso de aprendizaje se divide en dos fases:
1- Ordenación -> Fase de plasticidad.
2- Convergencia -> Fase de ajuste fino del mapa.

 Como colofón podemos indicar que los mapas auto-organizados son intensamente usados por toda clase de científicos e ingenieros que no son informáticos dada la facilidad de la interpretación de los resultados que produce.
Una aplicación típica de los mapas auto-organizados es la visualización de datos de alta dimensionalidad.

Cada neurona aprende un prototipo. Las neuronas cercanas tienden a tener prototipos similares.




lunes, 27 de marzo de 2017

Mixtures of Gaussians (Mixturas de Gausianas)

Modelo probabilístico muy conocido y utilizado.

Empezaremos por una introducción. Después hablaremos de las distribuciones gaussianas multivariable. Después veremos las mixturas de distribuciones gaussianas multivariable. En cuarto lugar veremos el algoritmo de la maximización de la esperanza, que es el que se utiliza para entrenar estas mixturas. En quinto lugar veremos como evaluar el rendimiento de ese aprendizaje. Por último extraeremos algunas conclusiones.


1. Introducción
Las mixturas de gaussianas son con toda probabilidad los modelos probabilísticos más utilizados para datos continuos. Es decir, por ejemplo vectores de números reales y tienen una gran cantidad de aplicaciones. Por ejemplo, predicción de las ganancias en finanzas (aplicación de regresión), diagnóstico médico (aplicación de clasificación), o segmentación de imágenes (aplicación de agrupamiento).

En este tema vamos a estudiar modelos probabilísticos para datos con valores continuos, es decir, por ejemplo vectores de números reales.
Una mixtura de gaussianas (MoG) proporciona una estimación suave de la densidad de probabilidad o verosimilitud de cada punto del espacio de datos o espacio de entrada.
Vamos a estudiar también un método para entrenar una mixtura de gaussianas que se denomina maximización de la esperanza / expectation-maximization (EM) que maximiza la verosimilitud de los datos observados.

2. Gaussianas Multivariable / Multivariate Gaussians
Siendo x un vector formado por D variables aleatorias, podemos suponer que x se distribuye mediante una distribución de probabilidad p(x).
Cada muestra será entonces un vector xi en el espacio R^D que es el espacio formado por todos los vectores de D componentes de números reales donde D es la dimensión del espacio de datos.
Dado un conjunto de datos formado por muchos vectores xi podemos usar una gausiana multivariable para modelar la densidad de probabilidad subyacente p(x) aunque también habría otras posibilidades que no consideraremos aquí.

CARACTERIZACIÓN
Una gaussiana multivariable viene definida por dos parámetros:
- El vector de medias / mean vector:
Que define el centro de la distribución.

- La matriz de covarianza:
Es una matriz cuadrada de dimensión D x D que define como se distribuyen los datos a alrededor de la media.


Dado un vector de medias u y una matriz de covarianza C, la densidad de probabilidad de la gaussiana decae exponencialmente con respecto a la distancia de mahalanobis al cuadrado.


ROL DE LA MATRIZ DE COVARIANZA
Las superficies de igual densidad de probabiblidad son hiperelipsoides de igual distancia de mahalanobis.
Por otro lado, la matriz de covarianzas define el tamaño y la orientación de esos hiperelipsoides.
Cuanto más grande sea el determinante de la matriz de covarianza C, más se despliegan los datos alrededor de la media, o dicho de otra forma, más lejos estarán de la media.
Por último si el determinante de la matriz de covarianza es 0, decimos entonces que esa matriz es degenerada y la densidad de probabilidad está sin definir. Por lo tanto, esa es una situación que procuraremos evitar a toda costa.

3. Mixturas de Gaussianas Multivariable / Mixtures of Multivariate Gaussians
Una distribución de mixtura es una media ponderada de k distribuciones, donde el peso de cada componente de mixtura i se llama subprobabilidad a priori. La densidad de probabilidad de la iesima componente de mixtura se nota p(x | i), donde la densidad de la mixtura se denomina p(x).
La suma de los pesos o probabilidades a priori debe ser 1.

Una mixtura de distribuciones gaussianas multivariable (MoG) es una distribución de mixtura donde cada componente de mixtura es una gaussiana multivariable con su propio vector de medias ui y su matriz de covarianza Ci.
Cuanto mayor sea el número de componentes de mixtura k, más complejos podrán ser los conjuntos de datos que la mixtura podrá modelar.

4. Algoritmo de Maximización de la Esperanza / Expectation Maximization Algorithm
Es un algoritmo que se puede utilizar para entrenar o aprender una mixtura de gaussianas de las que hemos estudiado anteriormente.
Para aprender los parámetros de una mixtura de gaussianas (MoG), es decir, probabilidad a priori, vector de medias (ui), y matriz de covarianzas (Ci) para cada una de los componentes de mixtura i, A partir de un conjunto de n muestras de entrenamiento, el algoritmo de maximización de la esperanza es con mucho el más conocido y utilizado.
Además de la matriz de datos observados X, se supone que existe un vector de datos no observados y, de tal manera que X e y conjuntamente forman los datos completos.
Para una mixtura de gaussianas tenemos que el vector y está formado por n componentes, una por cada muestra de entrenamiento donde cada componente yj indica cual de los componentes de mixtura generó el dato jesimo.
El algoritmo intenta maximizar la verosimilitud o densidad de probabilidad de los datos observados con respecto a los parámetros del modelo que hemos mencionado anteriormente.

El algoritmo aplica iterativamente los siguientes dos pasos:
- Paso E (esperanza)
Calcula la esperanza Q de la verosimilitud logarítmica de los datos completos, dados los valores actuales de los parámetros y de los datos observados.

- Paso M (maximización)
Maximiza la esperanza de la verosimilitud con respecto a los parámetros para obtener los nuevos valores de esos parámetros.

CASO MoG
Paso E -> Se calculan las responsabilidades que son las probabilidades a posteriori de que cada una de las componentes de mixtura haya generado uno de los datos de entrenamiento.
Esas responsabilidades las denominaremos Rij. Y lo que quieren decir es que Rij es la probabilidad de que la componente de mixtura i se asocie al dato de entrenamiento j.
Paso M-> Actualizamos los parámetros. Tenemos ecuaciones de actualización para los 3 parámetros de la mixtura de gaussianas. Probabilidad a priori, vector de medias y matriz de covarianzas. Y en todos los pasos se hace una ponderación por las responsabilidades.
Así pues, cada una de las muestras de entrenamiento interviene en la actualización de los parámetros de una determinada componente de mixtura en tanto en cuanto las responsabilidades para ese componente de mixtura sean mayores.


5. Evaluar el Rendimiento / Performance Evaluation
El número de parámetros libres de una mixtura de gaussianas cuenta cuantos números deben ser aprendidos de los datos. Y aquí tenemos la ecuación correspondiente.

En términos generales, el logarítmo de la verosimilitud l de los datos se va a incrementar a medida que añadamos más parámetros libres, es decir, cuanto mayor es el número de los parámetros libres mejor será la verosimilitud de los datos.
No obstante, se puede preferir un tipo de modelo más sencillo, con menos parámetros libres, porque sean más fáciles y rápidos de usar y porque tengan una capacidad de generalización frente a datos todavía no observados mejor. Así pues, tenemos un equilibrio entre la verosimilitud y el número de parámetros libres que tenemos que resolver.
Para ello tenemos varios criterios para elegir un determinado modelo de mixturas de gaussianas frente a otro, que son diferentes maneras de resolver este equilibrio entre la exactitud que viene dada por la verosimilitud y la complejidad que viene dada por el número de parámetros libres.

CRITERIO DE INFORMACIÓN BAYESIANA
Dados varios modelos candidatos Mk, el criterio de información bayesiana (BIC) puede emplearse para elegir el modelo con la mayor probabilidad a posterioi bayesiana dada la matriz de datos observados X.
Si hacemos esto, elegiremos el modelo que arroje el menor valor del criterio de información bayesiana considerándose diferencias de más de 10 una evidencia muy fuerte en contra de un modelo.
[ecuación]

CRITERIO DE INFORMACIÓN DE AKAIKE
El criterio de información de akaike (AIC) puede utilizarse para elegir el modelo con la mínima perdida de información cuando el proceso que genera los datos se representa mediante ese modelo de mixtura de gaussianas.
Este criterio de información de akaike penaliza los parámetros libres menos intensamente que el criterio de información bayesiana.
Y de nuevo el modelo que arroje el menor valor del criterio de información de akaike es el que debe ser elegido utilizando para calcular este criterio la [ecuación].

VALIDACIÓN CRUZADA
Otra manera de evaluar el rendimiento es mediante la validación cruzada. Existen 3 tipos:
1- Holdout cross-validation:
El conjunto de ejemplos se divide k veces en conjunto de entrenamiento, de validación y de tests que deben ser conjuntos disjuntos. Partición del conjunto de todos los ejemplos disponibles.
La mixtura de gaussianas que dé el mayor valor del promedio de la verosimilitud L calculada sobre los k conjuntos de validación es la mixtura que es elegida como la que da mejor rendimiento.
Pero a la hora de informar acerca de su rendimiento lo que haremos será calcular ese rendimiento por media de la verosimilitud sobre los k conjuntos de tests. De esta manera nos aseguraremos de que los resultados que estamos informando no son excesivamente optimistas ya que los datos del conjunto de tests no habrán sido utilizados para elegir una mixtura de gaussianas frente a otra.

2- k-fold cross-validation:
Dividimos los datos en k subconjuntos aproximadamente del mismo tamaño. A continuación, llevamos a cabo k rondas de entrenamiento de tal manera que en cada ronda de entrenamiento uno de los subconjuntos sirve como conjunto de validación y otro como conjunto de tests.
Y de nuevo elegimos la mejor mixtura de gaussianas de acuerdo con el rendimiento sobre los conjuntos de validación y informamos del rendimiento obtenido sobre los conjuntos de tests.

3- Leave-one-out cross-validation:
Es una forma extrema, o caso particular de la validación cruzada k-fold, donde k es igual al número de muestras disponibles.


6. Conclusiones
Si tenemos datos multivariable donde todas las componentes son variables continuas, podemos modelar ese conjunto de datos mediante una mixtura de gaussianas.

El algoritmo de maximización de la esperanza se usa comúnmente para aprender los parámetros de esas mixturas de gaussianas.

Hemos estudiado criterios de selección de modelos a fin de elegir entre diferentes mixturas de gaussianas ya entrenadas.

Como colofón podemos indicar que muchos sistemas de visión por computador actuales están basados en mixturas de gaussianas.
Por ejemplo, a fin de realizar el seguimiento de objetos móviles en una escena se puede asociar cada objeto a una componente de mixtura de una mixturas de gaussianas que modele los datos de color de los píxeles y posición de esos píxeles.

sábado, 18 de febrero de 2017

uglify browserify

https://github.com/mishoo/UglifyJS2

https://github.com/substack/node-browserify/issues/941

https://github.com/substack/bundle-collapser

https://github.com/hughsk/uglifyify

https://github.com/mishoo/UglifyJS2/issues/688

http://lisperator.net/uglifyjs/

viernes, 17 de febrero de 2017

R language IA


https://www.r-bloggers.com/deep-learning-in-r-2/?utm_source=feedburner&utm_medium=email&utm_campaign=Feed%3A+RBloggers+%28R+bloggers%29


https://www.xataka.com/robotica-e-ia/deep-learning-que-es-y-por-que-va-a-ser-una-tecnologia-clave-en-el-futuro-de-la-inteligencia-artificial


https://news.microsoft.com/es-es/2016/01/13/microsoft-anuncia-microsoft-r-server-su-plataforma-analitica-de-datos-basada-en-r/

GraphQL, REST


https://www.genbetadev.com/desarrollo-aplicaciones-moviles/por-que-deberiamos-abandonar-rest-y-empezar-a-usar-graphql-en-nuestras-apis

https://youtu.be/cUIhcgtMvGc

http://www.arquitecturajava.com/rest-y-anotaciones/

http://stackoverflow.com/questions/7112672/jquery-ajax-call-to-rest-service

miércoles, 25 de enero de 2017

domingo, 22 de enero de 2017

TensorFlow

http://jorditorres.org/research-teaching/tensorflow/libro-hello-world-en-tensorflow/#_ftn22

http://relopezbriega.github.io/blog/2016/06/05/tensorflow-y-redes-neuronales/

http://relopezbriega.github.io/blog/2016/08/02/redes-neuronales-convolucionales-con-tensorflow/

https://arxiv.org/pdf/1603.02339.pdf

http://jorditorres.org/introduccion-practica-al-deep-learning-con-tensorflow-de-google-parte-7/


https://www.quora.com/Is-TensorFlow-better-than-other-leading-libraries-such-as-Torch-Theano


https://github.com/node-tensorflow/node-tensorflow/blob/master/README.md


https://www.tensorflow.org/mobile/



LIBRERÍAS QUE ABSTRAEN MUCHO TENSORFLOW
KERAS
https://github.com/leriomaggio/deep-learning-keras-tensorflow



TENSORFLOW

https://www.youtube.com/watch?v=QfNvhPx5Px8

https://www.tensorflow.org/api_docs/java/reference/org/tensorflow/package-summary

https://www.kaggle.com/c/tensorflow-speech-recognition-challenge#Prizes

http://www.p.valienteverde.com/tensorflow-tutorial-basico/

http://jorditorres.org/research-teaching/tensorflow/libro-hello-world-en-tensorflow/

Docker


http://www.javiergarzas.com/2015/07/que-es-docker-sencillo.html

Arduino


http://computerhoy.com/noticias/software/como-instalar-windows-10-placa-arduino-28209

viernes, 20 de enero de 2017

Artificial Intelligence as a service - Inteligencia Artificial como Servicio


https://www.quora.com/Do-any-companies-offer-artificial-intelligence-as-a-service-AIaaS

http://www.ibm.com/watson/

https://orbit.ai/

http://infermedica.com/