viernes, 27 de diciembre de 2013

Feliz Navidad

Si, este es mi belén de este año y con el quiero felicitaros a todos la Navidad y que paseis una grandisimo 2014.
Como todos los años estos días de fiesta siempre encontramos un rincon en el tiempo para pensar en esos propositos para el nuevo año, ya sabeis los tópicos suelen ser: adelgazar, dejar de fumar, aprender idiomas...
Yo suelo hacer todos los años una lista con los propositos y objetivos que me pongo, el año pasado me pasé bastante así que la del próximo es mas cortita, para poder cumplirlos todos.
- Acabar con el curso universitario en el que me metí el año pasado.
- Seguir haciendo que Gr2Dest sera más grande y un grupo de referencia para quellos que queremos aprender seguridad.
- Más y más formación, ya me he apuntado a los dos primeros cursos de Java y programación Android.
- Presentaros a todos el proyecto que tengo entre manos (una pista, es un chico llamado Grode jeje).
- Y algun proyectillo personal más del os hablaré en otro momento.
Ya os contaré si lo consigo.
Lo dicho a todos aquellos que os pasais por aqui, a todos los del grupo y a todo los que por accidente leais esto: Feliz Navidad y prospero 2014.

martes, 10 de diciembre de 2013

Robots.txt escondiéndonos de los buscadores



Muchos de los que lean esto recordarán los viejos buscadores (ya desaparecidos en su mayoría) como era el de terra.es, ozu.com, ole.com... Cuando Internet comenzó a crecer fue de forma exponencial, las web pasaron a contarse por cientos de miles en un lapso de tiempo muy corto.
Esto planteó el problema de catalogarlas y, para los que vivimos esa época y conocimos esos buscadores recordareis que existían unas webs que te daban de alta la tuya en cientos y miles de buscadores a la web. Siempre fallaban y al final de cientos solo daban de alta en una docena de ellos y el resto, te tocaba a mano.
Era una locura poder insertar tu web en los miles de buscadores que existían. Creo que esos fueron los comienzos del SEO, dar de alta tu web en miles de buscadores.
Pero la cosa cambió cuando llegó Google, ya no era necesaria esa locura, solo tenías que darte de alta en uno y muy seguramente, para cuando fuera a hacerlo, el ya te había encontrado a ti.
Antes de que te dieras de alta ya figuraba tu web en su buscador pero el problema es que figuraba  ¡Toda tu web! ¿Y si no querías que ciertas partes salieran es sus búsquedas? La solución que se dio a este problema se llama robots.txt

¿Qué es robots.txt exactamente?

Es un archivo de texto que sigue una notación estándar mediante el cual indicamos a las arañas de los buscadores que partes de la web no han de incluir en sus directorios.
Una vez dicho esto has de tener en cuenta que:
- Que no lo incluyan no quiere decir que no lo puedan visitar, hay crawlers que sí lo visitan aunque no lo incluyen.
- Existen crawlers que no pertenecen a buscadores, son privados y, normalmente, sus intenciones no son nada buenas. Éstos no harán ni caso de tu archivo robots.
- Hay una notación estándar que la mayoría de crawlers siguen, pero también existen notaciones no estándar que muchos entienden, es tu responsabilidad usarla, luego no te quejes de que no te hacen caro las arañitas.

¿Cómo creo mi archivo robots?

El archivo robots es un txt que has de dejar en el directorio raíz de tu aplicación web, es ahí donde irán las arañas a buscarlo, si lo mueves no sabrán encontrarlo.
La dirección donde tendría que estar tu robots, por ejemplo:
http://www.miwebmaravillosa.com/robots.txt
Dejando ahí tu archivo los crawlers podrán acceder al mismo y leerlo. Los crawlers... y cualquiera que quiera verlo, por supuesto.
Y aquí es donde está la gracia o desgracia de el archivo robots y es que cualquiera puede acceder al mismo solo poniendo la dirección (como el ejemplo que te acabo de dar) en su navegador. Por si aún no eres consciente de porque esto puede ser peligroso, piensa que vas a crear una archivo de robots porque hay partes de tu web que no quieres que se indexen y visiten por lo que, si no lo haces con un poco de cuidado, puedes estar haciendo un detallado directorio de las partes sensibles de tu web a cualquiera que quiera visitarlo.
No nos asustemos aún, se pueden hacer algunas cosillas para que robots sea todo lo último que ha de ser.

Creando nuestro robots

El estándar definido para este archivo es muy sencillo. Veámoslo con algunos ejemplos:
---
User-agent: *
Disallow: /
----
User-agent indica sobre quien aplica el robots, en este caso el * dice que esto aplica para todos los crawlers que entren en tu web.
Disallow: / está diciendo que no visiten ni indexen nada de tu web. Les has prohibido el paso.
----
User-agent: *
Disallow:
-----
Este es el caso contrario, así se indica que todos los crawlers existentes, pueden acceder a toda la web.
Puede suceder que, en ocasiones, no queramos que unos buscadores indexen nuestra web pero otros si, por lo que se pueden indicar diferentes User-agent, veamos un ejemplo:
---
User-agent: Googlebot
Disallow: /lugar/
Disallow: /comunicar.php

User-agent: Slurp
Disallow: /lugar/
 
User-agent: Exabot
Disallow: /
 
User-agent: Speedy
Disallow: /
---

Este es más complejo, podemos ver diferentes casuísticas dependiendo de que crawler nos visite:
- GoogleBot tiene prohibido visitar la carpeta lugar, y todo lo que exista dentro de la misma. Al igual que tiene prohibido el archivo comunicar.php.
- Slurp solo tiene prohibido entrar en la carpeta lugar y todo lo que esta contiene.
- Mientras que Exabot y Speedy tienen prohibido entrar en toda la web.

Podéis ver se pueden definir según que crawlers el acceso de los mismos, no tiene ningún límite.
Existen infinidad de crawlers, os dejo aquí algunos listados que os pueden ayudar para cuando queráis definir vuestros robots:

Ya os habia comentado antes, que cualquiera puede acceder a vuestro archivo de robots por lo que un archivo de robots que contenga muchos archivos deshabilitados, en malas manos, se convertirá en un directorio de "sitios a visitar", por ejemplo, en el robots de http://www.senado.es/robots.txt podemos ver lo siguiente:
---
User-agent: *
Disallow: /web/wcm-contrib/
Disallow: /web/wcm-design/
Disallow: /web/wcm/support/login/wcm-login.jsp
Disallow: /web/wcm/support/login/j_security_check
Disallow: /cgi-bin/
Disallow: */detalleiniciativa/
Disallow: */expedientappendixblobservlet/
Disallow: */expedientdocblobservlet/
Disallow: */fichasenador/
Disallow: */resultadobuscador/
Disallow: */*senstream*
Disallow: /legis9/publicaciones/html/textos/CG_B015.html
Disallow: /legis9/publicaciones/pdf/cortes/bocg/CG_B015.PDF
Disallow: /legis9/publicaciones/html/textos/CG_B100.html
Disallow: /legis9/publicaciones/pdf/cortes/bocg/CG_B100.PDF
Disallow: /legis9/publicaciones/pdf/cortes/bocg/CG_B103.PDF
Disallow: /legis4/publicaciones/pdf/senado/bocg/I0019.PDF
Disallow: /legis4/publicaciones/pdf/congreso/bocg/E_017.PDF
Disallow: /legis4/publicaciones/pdf/cortes/bocg/CG_B019.PDF
Disallow: /legis3/publicaciones/pdf/congreso/bocg/E_210.PDF
Disallow: /legis3/publicaciones/pdf/senado/bocg/I0342.PDF
Disallow: /legis2/publicaciones/pdf/congreso/bocg/E_118.PDF
Disallow: /legis3/publicaciones/pdf/senado/bocg/I0347.PDF
Disallow: /legis2/publicaciones/pdf/senado/bocg/I0140.PDF
 ---

De este robots podemos sacar varias conclusiones:
- ¿Quien que haya entrado en este archivo no va acceder a visitar esos PDF de forma inmediata? Colocarlos ahí es como decir a alguien "Yujuuu entra a ver que tengo aquí escondido" La única forma de que el crawler y los ojos curiosos no vean esa información a través de nuestro robots sería unificar esos archivos dentro de una carpeta y deshabilitar la misma, algo así:
---
User-agent: *
Disallow: /web/wcm-contrib/
Disallow: /web/wcm-design/
Disallow: /web/wcm/support/login/wcm-login.jsp
Disallow: /web/wcm/support/login/j_security_check
Disallow: /cgi-bin/
Disallow: */detalleiniciativa/
Disallow: */expedientappendixblobservlet/
Disallow: */expedientdocblobservlet/
Disallow: */fichasenador/
Disallow: */resultadobuscador/
Disallow: */*senstream*
Disallow: /textos_aburridisimos
 ---

- Hay ordenes no estándar, una de ellas es ese * delante de las carpetas. El riesgo que supone no hacer los robots estandarizados es que no todos los crawler lo soportan por lo que esos directorios seguro podemos encontrarlos en algún buscador indexados y visitados.
Tened cuidado con vuestro robot, sed un poco pícaros.

Extensiones más habituales no estándar

En Wikipedia se recogen muy bien las extensiones que más os podeis encontrar no estandarizadas, veamoslas con un ejemplo muy simpatico el de http://blogs.lavozdegalicia.es/robots.txt es un poco extenso pero os gustará:
---
#
# robots.txt para tu blog en WordPress.
#
# Usar bajo propia responsabilidad, que nos conocemos }:)
# http://sigt.net/archivo/robotstxt-para-wordpress.xhtml
#
# Primero el contenido adjunto.
User-Agent: *
Allow: /wp-content/uploads/
Disallow: /wp-content/plugins/
Disallow: /wp-content/themes/
Disallow: /wp-includes/
Disallow: /wp-admin/
# Tambi�n podemos desindexar todo lo que empiece
# por wp-. Es lo mismo que los Disallow de arriba pero
# incluye cosas como wp-rss.php
Disallow: /wp-
#
# Sitemap permitido, b�squedas no.
#
Sitemap: http://tu-web/sitemap.xml
Disallow: /?s=
Disallow: /search
#
# Permitimos el feed general para Google Blogsearch.
#
# Impedimos que permalink/feed/ sea indexado ya que el
# feed con los comentarios suele posicionarse en lugar de
# la entrada y desorienta a los usuarios.
#
# Lo mismo con URLs terminadas en /trackback/ que s�lo
# sirven como Trackback URI (y son contenido duplicado).
#
Allow: /feed/$
Disallow: /feed
Disallow: /comments/feed
Disallow: /*/feed/$
Disallow: /*/feed/rss/$
Disallow: /*/trackback/$
Disallow: /*/*/feed/$
Disallow: /*/*/feed/rss/$
Disallow: /*/*/trackback/$
Disallow: /*/*/*/feed/$
Disallow: /*/*/*/feed/rss/$
Disallow: /*/*/*/trackback/$
#
# Lista de bots que suelen respetar el robots.txt pero rara
# vez hacen un buen uso del sitio y abusan bastante
#
User-agent: MSIECrawler
Disallow: /
User-agent: WebCopier
Disallow: /
User-agent: HTTrack
Disallow: /
User-agent: Microsoft.URL.Control
Disallow: /
User-agent: libwww
Disallow: /
User-agent: BLP_bbot
Disallow: /
#
# Slurp (Yahoo!), Noxtrum y el bot de MSN obligandoles
# a reducir la marcha. El valor es en segundos
#
User-agent: noxtrumbot
Crawl-delay: 50
User-agent: msnbot
Crawl-delay: 50
User-agent: Slurp
Crawl-delay: 50
User-agent: Googlebot
Crawl-delay: 30
# para evitar ataque desde http://www.80legs.com/webcrawler.html
User-agent: 008
Disallow: /
---

El archivo está perfectamente echo y muy simpáticamente comentado, os explico:
- Sitemap: Ya profundizaré mucho más sobre este tema en otro post. Es el mapa de la web, al contrario que robots.txt, sitemap.xml indica a los crawlers que SI quieres que visiten e indexen. Es esencial para SEO y con ello facilitas que las páginas que incluyas en ese archivo sean más rápidamente indexadas.
- Allow: Esta etiqueta habilita que pueda entrarse en una archivo o directorio. Se ha de situar encima de su correspondiente Disallow ya que la única utilidad que tiene esta orden es habilitar cierta parte de lo que has deshabilitado, observa el ejemplo:
---
Allow: /feed/$
Disallow: /feed
---
 
Deshabilita entrar en la carpeta feed pero ha habilitado correctamente que el contenido $ dentro de esa carpeta sí pueda ser visitado. Recuerda si pones Allow después de Disallow no tendrá mucho sentido.
- Crawl-delay: Los crawlers no descansan, es una de las ventajas de ser una máquina, trabajan tanto que, algunas veces, nos saturan a visitas. Con esta orden le indicamos cuantos segundos han de pasar, como mínimo, hasta que pueda volvernos a visitar. Cuando tu sitio crece agradeces esta etiqueta.

Os podéis divertir enormemente mirando los robots de las webs ahora que ya entendéis mejor que hacen.
Si queréis mas información sobre robots:
http://www.robotstxt.org
http://en.wikipedia.org/wiki/Robots.txt

Si queréis ver robots probad con esta orden en google: inurl:robots.txt filetype:txt

Casos curiosos

Antes de acabar y sabiendo que se ha alargado enormemente este documento sobre robots me gustaría compartir con vosotros algunos casis curiosos.
---
User-agent: *
Disallow: /us/heroes/ <<<¿Será el directorio de las tarjetas para super heroes?
Disallow: /us/rwd/
Allow:   << ¿Que habilitas, el vacío?
 ---

El conocidísimo robots de la SGAE, esto habla por sí mismo:

---
User-agent: *
Disallow:/portal/
Disallow:/portal/
Disallow:/wp-*
Disallow:/?SGAE=LADRONES=MONOPOLIO
Disallow:/?ladrones
Disallow:/?mafiosos
Disallow:/?
Disallow:/?*
Disallow:/author/
Disallow:/category/
Disallow:/portal/
Disallow:/search/
Disallow:/home2/
Disallow:/sg0-no-tocar/
Disallow:/sg1-no-tocar/
Disallow:/sg2-no-tocar/
Disallow:/sg3-no-tocar/
Disallow:/sg4-no-tocar/
Disallow:/sg5-no-tocar/
Disallow:/sg-5-no-tocar/
Disallow:/sg-4-no-tocar/
Disallow:/sg-3-no-tocar/
Disallow:/sg-2-no-tocar/
Disallow:/sg-1-no-tocar/
Disallow:/sg*
Disallow:/search/search-es.jsp?texto=<a href="">ladrones</a>
Disallow:/search/search-es.jsp?texto=%3Cscript%3Ealert(%22efectivamente,%20somos%20unos%20ladrones%22);%3C/script%3E
Disallow:/search/search-es.jsp?texto=%3Ch1%3ESomos%20unos%20ladrones%20salgamos%20primeros%20en%20google%20o%20no%3C/h1%3E
Disallow:/search/search-es.jsp?texto=%3Ca%20href=%22%22%3Eladrones%3C/a%3E
Disallow:/?utm_source=lasindias.info/blog
---

El archivo robots de http://www.fuerteventura2000.com/robots.txt, por dios no lo uséis para estas cosas¡¡¡ (Lo he copiado parcialmente)

# Google
User-agent: Googlebot
# Bloquear Directorios
Disallow: /Aplicacion/
Disallow: /Conections/
Disallow: /picts/
Disallow: /includes/
Disallow: /privado/
Disallow: /noticias/
Disallow: /flash/
Disallow: /cursos/catalogo/
Disallow: /cursos/cursos_para trabajadores/fichas_cursos/
# Bloquear archivos
Disallow: /LEEME_MUY_IMPORTANTE.txt << Te haremos caso
Disallow: /accesibilidad.php
Disallow: /aviso_legal.php
Disallow: /*.swf$
Disallow: /*.gif$
Disallow: /*.png$
Disallow: /*.jpg$
Disallow: /blog/wp-login.php
Disallow: /*?
# Permitidos
Allow: /index.php
Allow: /sitemap.xml

Archivo http://www.fuerteventura2000.com/LEEME_MUY_IMPORTANTE.txt que tanto nos dice que leamos:

*******************************************************
¡¡¡¡MUY IMPORTANTE!!!!
*******************************************************
ES MUY IMPORTANTE POR EL BUEN FUNCIONAMIENTO DEL SITIO
QUE NO SE MODIFIQUEN NINGUNO DE LOS SIGUIENTES ARCHIVOS
Y CARPETAS CONTENIDOS EN ESTE DIRECTORIO:

-blog
-contacto
-css
-css
-cursos
-documentacion
-error
-flash
-includes
-newsletter
-noticias
-picts
-privado
-scripts
-sobre_nosotros

accesibilidad.php
aviso_legal.php
contacto.php
empleo.php
index.php
mapaweb.php
servicios_a_empresas.php
robots.txt
sitemap.xml

*******************************************************
SI NECESITAN SUBIR ARCHIVOS AL SERVIDOR PÓNGANSE EN
CONTACTO OBLIGATORIAMENTE CON XXXX@fuerteventura2000.com

¡¡¡¡OBLIGATORIAMENTE!!!!
------------------------

*******************************************************
ESTO NO ES NINGÚN JUEGO Y LOS CAMBIOS DE ARCHIVOS QUE
ESTÁN OCURRIENDO ÚLTIMAMENTE POR PARTE DE TERCERAS
PERSONAS NO IDENTIFICADAS ESTÁ AFECTANDO NEGATIVAMENTE
A LA IMAGEN DE LA EMPRESA. A PARTIR DE HOY TODAS LAS
INCURSIONES EN EL SITIO DE TERCERAS PERSONAS NO
INFORMADAS A CARLOS SERÁN PUESTAS EN CONOCIMIENTO DE
LA DIRECCIÓN.
*******************************************************
*******************************************************

Ok, seremos buenos e informaremos a Carlos si tocamos algo. Por cierto, seguro que esto no afecta negativamente a la imagen de la empresa. Borrad eso por dios¡

viernes, 6 de diciembre de 2013

Sesiones y más sesiones de Gr2Dest

El grupo de estudio va viento en popa, cada día crecemos más en miembros y contenidos.
Hoy os traigo todos los videos de las últimas sesiones que no he subido 9,10,11 y 12
Os invito nuevamente a uniros al grupo en Meetup, aquí leneis el link: http://www.meetup.com/Gr2Dest-Grupo-de-estudio-de-seguridad-informatica/
Así podreis acudir a las seisones y tener los videos en cuanto salen, os dejo con todos los que tenía pendiente subir:

domingo, 10 de noviembre de 2013

Madrid Games Week en resumen



Ayer estuve en la Madrid Games Week , en su estreno en España.
Antiguamente teníamos la Game Fest pero hace ya dos años que dejó de celebrarse, no había ninguna feria de videojuegos hasta que, por fin, llegó al esperada Madrid Games Week.
La afluencia de gente ha sido enorme, decidimos ir por la mañana a primera hora y, por lo visto, fue lo que habíamos decidido todo así que ya cuando logramos aparcar el coche la cola para poder entrar al pabellón era kilométrica.
 La feria estuvo bastante bien, Play Station 4 y Xbox ONE+360 tenían unos stands gigantescos a la entrada con decenas de consolas para probar eso sí previa cola de más de una hora.
Blizzard, que corría el rumor de que iba a estar presente, no estaba. Solo había en la parte de Play Station 4 una sección dedicada al juego nuevo de Diablo III para Play, eso es todo.
En el lateral del pabellón estaban todos los de "retro" con unas colecciones de juegos y consolas en venta geniales ¿problema? En pleno siglo XXI y ¡Ninguno tenía para pagar con tarjeta de crédito! Así que... no pude hacer crecer mi pequeña colección de viejas consolas.

Hubo otros muchos más stands pero.. Yo me quedo con dos de ellos:
- WiiU, sencillamente brutal, había leído malos comentarios sobre ella pero son todos inciertos, la consola es una pasada, la plantilla de juegos es divertidísima y los gráficos extraordinariamente mejorados respecto a su antecesora. Justo lo que los jugadores de Wii pedían. Me gustó tanto y me impresiono de tal manera que ya está la consola en casa. Fue un día de éxito para la consola, todo el mundo quería tenerla en su salón.
- Game Shop, la tienda de videojuegos y consolas fue a la feria a vender a lo grande con una cantidad de ofertas excelentes. Packs de consolas + Juegos a muy buenos precios, como ya os he dicho me compre la Wii U y a tan solo unos pasos del stand de la misma.
- La mesa futbolín, me encanto¡¡ echadla un ojo, si podéis permitírosla es una gozada para todo salón. www.soccertable.es
- LG nos puso los dientes largos con una muestra de pantallas de alta definición de tamaño descomunal. Qué bien quedaría esa pantalla de 50+ pulgadas y la mesa futbolín en mi salón.


Por el lado negativo:
- No se abrió ni uno solo de los parkings de pago de IFEMA, lo cual desembocó en coches rodeando todo el recinto y caminatas enormes cargados con bolsas, un rollo.
- !Targetas de credito¡ Por dios ¿cómo se puede uno gastar el dinero en estar presente en una feria y no tener un datafono? Espero, sinceramente, que aprendan de ello.
- Pequeña, la feria se quedaba pequeña respecto a la expectativa creada sobre la misma, faltaban mas tiendas con libros, miniaturas y material de todo tipo. Al igual que había en la Game Fest. Este año solo hubo una tienda, gigante, de camisetas y material, se echaba en falta más.
- Play Station 4 y Xbox ONE. Solo tengo una frase para ambas: Más de lo mismo, me aburroooooo.
En definitiva un buen festival que esperamos vuelva al año que viene siendo más grande.

miércoles, 6 de noviembre de 2013

Sesión 8 de Gr2Dest

Lo prometido es deuda, tal comoos dije ayer aquí os dejo el video de la sesión 8 de este pasado Lunes.
Disfrutadla :)
Sesión 8: SMTP, VRFY, Brute Forcing + Python/NMAP/Hydra: Enumeración de Usuarios y Passwords 

martes, 5 de noviembre de 2013

Sesión 7 del grupo de estudio. Videos

Ando muy contenta con el grupo de estudio, estamos tratando temas de gran interés y aprendiendo muchas cosas.
El grupo cada día crece más, ya somos en la sala unas 15-20 personas cada sesión así que quienes quieran unirse que no lo duden porque estamos creciendo.
Después de la ponencia de las sesiones pasadas volvemos a la normalidad de ser los miembros quienes hablan y de ahí salen estos dos excelentes videos resumiendo la sesión 7.
Pronto os subiré ya la sesión 8, que es la de este Lunes, voy con retraso, lo sé.
Os dejo con los videos y las diapositivas que SlideShare se niega a subir, hasta que lo solucione os dejo el link de descarga:
https://mega.co.nz/#!AURlBJIQ!SqJo_xJmNiXeScmzqNnRVTbOr5hq4Xo0kG3pVd-S8eg




miércoles, 23 de octubre de 2013

Ponencia de BladeH en las charlas del grupo Gr2Dest

Como ya os comenté ayer, teníamos algunos videos más pendientes de poder subirlos a la red y compartirlos. Lo prometido es deuda y ya estan disponibles.
En esta ocasión os traigo las dos partes de la ponencia que dio, para le grupo, BladeH.
 BladeH es uno de los veteranos de la comunidad Dragonjar y durante dos días nos dió una extensa charla sobre Linux (en concreto distribuciones como BackTrack), hacer tus propios scripts o como hacer aplicaciones de hacking propias.
No tienen desperdicio los videos. Disfrutadlos.

martes, 22 de octubre de 2013

Sesion 5 Parte 1: Footprinting Básico con FOCA - Gr2Dest

Se me acumula el trabajo y tengo el blog tiritando de soledad :P

Hoy os traigo uno de los videos de la sesión de hace dos semanas con el grupo de estudio.
Jorge, uno de los miembros, se curro una sesión (que no esta acabada así que queda la parte 2) de trastadas por la red con la FOCA, muy conocida por todos.
Os dejo con el video, disfrutadlo y estad atentos porque tenemos muchos más que subir :)


miércoles, 16 de octubre de 2013

Ya llega CodeMotion




Este fin de semana estaré por CodeMotion, para quienes vayan a asistir al evento os dejo las charlas a las que, tengo pensado ir.
Las del Viernes dependerán del trabajo pero el Sábado espero no perderme ninguna.
Twitteare desde allí a cada charla que asisto y las mejores frases de los ponentes, si alguno coincide que va, avisadme por Twiter así os conozco a los lectores que pasan por aquí.
Estas son las charlas a las que acudiré:

Viernes 18/10/2013
17:45-18:30 NOSQL: Primeros pasos con MongoDB - Víctor Cuervo Palencia
Dónde: Track 3
18:45-19:30  Feliz 15 aniversario SAQ Injection - Chema Alonso
Dónde: Track Principal

Sábado 19/10/2013
09:00 -09:45 Estrategia para desarrollo móvil: Web o aplicación nativa - José Ignacio Herranz
Dónde: Track 2
10:00 - 10:45 They live! - Fernando Rodríguez Romero
Donde: Track 2
11:30 - 12:15 Cloud Gaming usando el protocolo Q4S - Jose Javier García Aranda
Dónde: Track 8
12:30 - 13:15 What’s wrong with php? - Ole Michaelis
Dónde Track 1
15:15 - 16:00 De perdidos a Titanium  - Ariel Ferrandini
Donde: Track 2
16:15 - 17:00 Taller de GitLab - Óscar García Amor
Dónde: Track 6
17:45 - 18:30
Desarrollo de juegos con tecnologías web: HTML5 y JavaScript - Carlos Benítez, Sergio Ruiz
Donde: Track 8
Lo dicho, nos vemos por las aulas de la UPM.