Si, este es mi belén de este año y con el quiero felicitaros a todos la Navidad y que paseis una grandisimo 2014.
Como
todos los años estos días de fiesta siempre encontramos un rincon en el
tiempo para pensar en esos propositos para el nuevo año, ya sabeis los
tópicos suelen ser: adelgazar, dejar de fumar, aprender idiomas...
Yo
suelo hacer todos los años una lista con los propositos y objetivos que
me pongo, el año pasado me pasé bastante así que la del próximo es mas
cortita, para poder cumplirlos todos.
- Acabar con el curso universitario en el que me metí el año pasado.
- Seguir haciendo que Gr2Dest sera más grande y un grupo de referencia para quellos que queremos aprender seguridad.
- Más y más formación, ya me he apuntado a los dos primeros cursos de Java y programación Android.
- Presentaros a todos el proyecto que tengo entre manos (una pista, es un chico llamado Grode jeje).
- Y algun proyectillo personal más del os hablaré en otro momento.
Ya os contaré si lo consigo.
Lo
dicho a todos aquellos que os pasais por aqui, a todos los del grupo y a
todo los que por accidente leais esto: Feliz Navidad y prospero 2014.
viernes, 27 de diciembre de 2013
martes, 10 de diciembre de 2013
Robots.txt escondiéndonos de los buscadores
Muchos de
los que lean esto recordarán los viejos buscadores (ya desaparecidos en su
mayoría) como era el de terra.es, ozu.com, ole.com... Cuando Internet comenzó a
crecer fue de forma exponencial, las web pasaron a contarse por cientos de
miles en un lapso de tiempo muy corto.
Esto planteó
el problema de catalogarlas y, para los que vivimos esa época y conocimos esos
buscadores recordareis que existían unas webs que te daban de alta la tuya en
cientos y miles de buscadores a la web. Siempre fallaban y al final de cientos
solo daban de alta en una docena de ellos y el resto, te tocaba a mano.
Era una
locura poder insertar tu web en los miles de buscadores que existían. Creo que
esos fueron los comienzos del SEO, dar de alta tu web en miles de buscadores.
Pero la cosa
cambió cuando llegó Google, ya no era necesaria esa locura, solo tenías que
darte de alta en uno y muy seguramente, para cuando fuera a hacerlo, el ya te
había encontrado a ti.
Antes de que
te dieras de alta ya figuraba tu web en su buscador pero el problema es que figuraba
¡Toda tu web! ¿Y si no querías que
ciertas partes salieran es sus búsquedas? La solución que se dio a este
problema se llama robots.txt
¿Qué es robots.txt exactamente?
Es un
archivo de texto que sigue una notación estándar mediante el cual indicamos a
las arañas de los buscadores que partes de la web no han de incluir en sus
directorios.
Una vez
dicho esto has de tener en cuenta que:
- Que no lo
incluyan no quiere decir que no lo puedan visitar, hay crawlers que sí lo
visitan aunque no lo incluyen.
- Existen
crawlers que no pertenecen a buscadores, son privados y, normalmente, sus
intenciones no son nada buenas. Éstos no harán ni caso de tu archivo robots.
- Hay una
notación estándar que la mayoría de crawlers siguen, pero también existen
notaciones no estándar que muchos entienden, es tu responsabilidad usarla,
luego no te quejes de que no te hacen caro las arañitas.
¿Cómo creo mi archivo robots?
El archivo
robots es un txt que has de dejar en el directorio raíz de tu aplicación web,
es ahí donde irán las arañas a buscarlo, si lo mueves no sabrán encontrarlo.
La dirección
donde tendría que estar tu robots, por ejemplo:
http://www.miwebmaravillosa.com/robots.txt
Dejando ahí
tu archivo los crawlers podrán acceder al mismo y leerlo. Los crawlers... y
cualquiera que quiera verlo, por supuesto.
Y aquí es
donde está la gracia o desgracia de el archivo robots y es que cualquiera puede
acceder al mismo solo poniendo la dirección (como el ejemplo que te acabo de
dar) en su navegador. Por si aún no eres consciente de porque esto puede ser peligroso,
piensa que vas a crear una archivo de robots porque hay partes de tu web que no
quieres que se indexen y visiten por lo que, si no lo haces con un poco de
cuidado, puedes estar haciendo un detallado directorio de las partes sensibles
de tu web a cualquiera que quiera visitarlo.
No nos
asustemos aún, se pueden hacer algunas cosillas para que robots sea todo lo
último que ha de ser.
Creando nuestro robots
El estándar
definido para este archivo es muy sencillo. Veámoslo con algunos ejemplos:
---
User-agent:
*
Disallow: /
----
User-agent
indica sobre quien aplica el robots, en este caso el * dice que esto aplica
para todos los crawlers que entren en tu web.
Disallow: / está
diciendo que no visiten ni indexen nada de tu web. Les has prohibido el paso.
----
User-agent:
*
Disallow:
-----
Este es el
caso contrario, así se indica que todos los crawlers existentes, pueden acceder
a toda la web.
Puede
suceder que, en ocasiones, no queramos que unos buscadores indexen nuestra web
pero otros si, por lo que se pueden indicar diferentes User-agent, veamos un
ejemplo:
---
User-agent:
Googlebot
Disallow: /lugar/
Disallow: /comunicar.php
User-agent: Slurp
Disallow: /lugar/
User-agent: Exabot
Disallow: /
User-agent: Speedy
Disallow: /
---
Este es más complejo, podemos ver diferentes casuísticas dependiendo de que crawler nos visite:
- GoogleBot tiene prohibido visitar la carpeta lugar, y todo lo que exista dentro de la misma. Al igual que tiene prohibido el archivo comunicar.php.
- Slurp solo tiene prohibido entrar en la carpeta lugar y todo lo que esta contiene.
- Mientras
que Exabot y Speedy tienen prohibido entrar en toda la web.
Podéis
ver se pueden definir según que crawlers el acceso de los mismos, no tiene
ningún límite.
Existen
infinidad de crawlers, os dejo aquí algunos listados que os pueden ayudar para
cuando queráis definir vuestros robots:
Ya os
habia comentado antes, que cualquiera puede acceder a vuestro archivo de robots por lo que
un archivo de robots que contenga muchos archivos deshabilitados, en malas
manos, se convertirá en un directorio de "sitios a visitar", por
ejemplo, en el robots de http://www.senado.es/robots.txt podemos ver lo
siguiente:
---
User-agent: *Disallow: /web/wcm-contrib/
Disallow: /web/wcm-design/
Disallow: /web/wcm/support/login/wcm-login.jsp
Disallow: /web/wcm/support/login/j_security_check
Disallow: /cgi-bin/
Disallow: */detalleiniciativa/
Disallow: */expedientappendixblobservlet/
Disallow: */expedientdocblobservlet/
Disallow: */fichasenador/
Disallow: */resultadobuscador/
Disallow: */*senstream*
Disallow: /legis9/publicaciones/html/textos/CG_B015.html
Disallow: /legis9/publicaciones/pdf/cortes/bocg/CG_B015.PDF
Disallow: /legis9/publicaciones/html/textos/CG_B100.html
Disallow: /legis9/publicaciones/pdf/cortes/bocg/CG_B100.PDF
Disallow: /legis9/publicaciones/pdf/cortes/bocg/CG_B103.PDF
Disallow: /legis4/publicaciones/pdf/senado/bocg/I0019.PDF
Disallow: /legis4/publicaciones/pdf/congreso/bocg/E_017.PDF
Disallow: /legis4/publicaciones/pdf/cortes/bocg/CG_B019.PDF
Disallow: /legis3/publicaciones/pdf/congreso/bocg/E_210.PDF
Disallow: /legis3/publicaciones/pdf/senado/bocg/I0342.PDF
Disallow: /legis2/publicaciones/pdf/congreso/bocg/E_118.PDF
Disallow: /legis3/publicaciones/pdf/senado/bocg/I0347.PDF
Disallow: /legis2/publicaciones/pdf/senado/bocg/I0140.PDF
---
De este
robots podemos sacar varias conclusiones:
- ¿Quien que
haya entrado en este archivo no va acceder a visitar esos PDF de forma
inmediata? Colocarlos ahí es como decir a alguien "Yujuuu entra a ver que tengo
aquí escondido" La única forma de que el crawler y los ojos curiosos no
vean esa información a través de nuestro robots sería unificar esos archivos
dentro de una carpeta y deshabilitar la misma, algo así:
---
User-agent: *Disallow: /web/wcm-contrib/
Disallow: /web/wcm-design/
Disallow: /web/wcm/support/login/wcm-login.jsp
Disallow: /web/wcm/support/login/j_security_check
Disallow: /cgi-bin/
Disallow: */detalleiniciativa/
Disallow: */expedientappendixblobservlet/
Disallow: */expedientdocblobservlet/
Disallow: */fichasenador/
Disallow: */resultadobuscador/
Disallow: */*senstream*
Disallow: /textos_aburridisimos
---
- Hay ordenes no estándar, una de ellas es ese * delante de las
carpetas. El riesgo que supone no hacer los robots estandarizados es que no
todos los crawler lo soportan por lo que esos directorios seguro podemos
encontrarlos en algún buscador indexados y visitados.
Tened
cuidado con vuestro robot, sed un poco pícaros.
Extensiones más habituales no estándar
En Wikipedia
se recogen muy bien las extensiones que más os podeis encontrar no estandarizadas,
veamoslas con un ejemplo muy simpatico el de http://blogs.lavozdegalicia.es/robots.txt
es un poco extenso pero os gustará:
---
## robots.txt para tu blog en WordPress.
#
# Usar bajo propia responsabilidad, que nos conocemos }:)
# http://sigt.net/archivo/robotstxt-para-wordpress.xhtml
#
# Primero el contenido adjunto.
User-Agent: *
Allow: /wp-content/uploads/
Disallow: /wp-content/plugins/
Disallow: /wp-content/themes/
Disallow: /wp-includes/
Disallow: /wp-admin/
# Tambi�n podemos desindexar todo lo que empiece
# por wp-. Es lo mismo que los Disallow de arriba pero
# incluye cosas como wp-rss.php
Disallow: /wp-
#
# Sitemap permitido, b�squedas no.
#
Sitemap: http://tu-web/sitemap.xml
Disallow: /?s=
Disallow: /search
#
# Permitimos el feed general para Google Blogsearch.
#
# Impedimos que permalink/feed/ sea indexado ya que el
# feed con los comentarios suele posicionarse en lugar de
# la entrada y desorienta a los usuarios.
#
# Lo mismo con URLs terminadas en /trackback/ que s�lo
# sirven como Trackback URI (y son contenido duplicado).
#
Allow: /feed/$
Disallow: /feed
Disallow: /comments/feed
Disallow: /*/feed/$
Disallow: /*/feed/rss/$
Disallow: /*/trackback/$
Disallow: /*/*/feed/$
Disallow: /*/*/feed/rss/$
Disallow: /*/*/trackback/$
Disallow: /*/*/*/feed/$
Disallow: /*/*/*/feed/rss/$
Disallow: /*/*/*/trackback/$
#
# Lista de bots que suelen respetar el robots.txt pero rara
# vez hacen un buen uso del sitio y abusan bastante
#
User-agent: MSIECrawler
Disallow: /
User-agent: WebCopier
Disallow: /
User-agent: HTTrack
Disallow: /
User-agent: Microsoft.URL.Control
Disallow: /
User-agent: libwww
Disallow: /
User-agent: BLP_bbot
Disallow: /
#
# Slurp (Yahoo!), Noxtrum y el bot de MSN obligandoles
# a reducir la marcha. El valor es en segundos
#
User-agent: noxtrumbot
Crawl-delay: 50
User-agent: msnbot
Crawl-delay: 50
User-agent: Slurp
Crawl-delay: 50
User-agent: Googlebot
Crawl-delay: 30
# para evitar ataque desde http://www.80legs.com/webcrawler.html
User-agent: 008
Disallow: /
---
El archivo está
perfectamente echo y muy simpáticamente comentado, os explico:
- Sitemap:
Ya profundizaré mucho más sobre este tema en otro post. Es el mapa de la web,
al contrario que robots.txt, sitemap.xml indica a los crawlers que SI quieres
que visiten e indexen. Es esencial para SEO y con ello facilitas que las
páginas que incluyas en ese archivo sean más rápidamente indexadas.
- Allow:
Esta etiqueta habilita que pueda entrarse en una archivo o directorio. Se ha de
situar encima de su correspondiente Disallow ya que la única utilidad que tiene
esta orden es habilitar cierta parte de lo que has deshabilitado, observa el
ejemplo:
---
Allow: /feed/$
Disallow: /feed
---
Deshabilita
entrar en la carpeta feed pero ha habilitado correctamente que el contenido $
dentro de esa carpeta sí pueda ser visitado. Recuerda si pones Allow después de
Disallow no tendrá mucho sentido.
- Crawl-delay: Los crawlers no descansan, es una de las ventajas de ser una máquina, trabajan tanto que, algunas veces, nos saturan a visitas. Con esta orden le indicamos cuantos segundos han de pasar, como mínimo, hasta que pueda volvernos a visitar. Cuando tu sitio crece agradeces esta etiqueta.Os podéis divertir enormemente mirando los robots de las webs ahora que ya entendéis mejor que hacen.
Si queréis mas información sobre robots:
http://www.robotstxt.org
http://en.wikipedia.org/wiki/Robots.txt
Si queréis ver robots probad con esta orden en google: inurl:robots.txt filetype:txt
Casos curiosos
Antes de
acabar y sabiendo que se ha alargado enormemente este documento sobre robots me
gustaría compartir con vosotros algunos casis curiosos.
---
User-agent: *Disallow: /us/heroes/ <<<¿Será el directorio de las tarjetas para super heroes?
Disallow: /us/rwd/
Allow: << ¿Que habilitas, el vacío?
---
---
User-agent: *Disallow:/portal/
Disallow:/portal/
Disallow:/wp-*
Disallow:/?SGAE=LADRONES=MONOPOLIO
Disallow:/?ladrones
Disallow:/?mafiosos
Disallow:/?
Disallow:/?*
Disallow:/author/
Disallow:/category/
Disallow:/portal/
Disallow:/search/
Disallow:/home2/
Disallow:/sg0-no-tocar/
Disallow:/sg1-no-tocar/
Disallow:/sg2-no-tocar/
Disallow:/sg3-no-tocar/
Disallow:/sg4-no-tocar/
Disallow:/sg5-no-tocar/
Disallow:/sg-5-no-tocar/
Disallow:/sg-4-no-tocar/
Disallow:/sg-3-no-tocar/
Disallow:/sg-2-no-tocar/
Disallow:/sg-1-no-tocar/
Disallow:/sg*
Disallow:/search/search-es.jsp?texto=<a href="">ladrones</a>
Disallow:/search/search-es.jsp?texto=%3Cscript%3Ealert(%22efectivamente,%20somos%20unos%20ladrones%22);%3C/script%3E
Disallow:/search/search-es.jsp?texto=%3Ch1%3ESomos%20unos%20ladrones%20salgamos%20primeros%20en%20google%20o%20no%3C/h1%3E
Disallow:/search/search-es.jsp?texto=%3Ca%20href=%22%22%3Eladrones%3C/a%3E
Disallow:/?utm_source=lasindias.info/blog
---
El archivo
robots de http://www.fuerteventura2000.com/robots.txt, por dios no lo uséis
para estas cosas¡¡¡ (Lo he copiado parcialmente)
# GoogleUser-agent: Googlebot
# Bloquear Directorios
Disallow: /Aplicacion/
Disallow: /Conections/
Disallow: /picts/
Disallow: /includes/
Disallow: /privado/
Disallow: /noticias/
Disallow: /flash/
Disallow: /cursos/catalogo/
Disallow: /cursos/cursos_para trabajadores/fichas_cursos/
# Bloquear archivos
Disallow: /LEEME_MUY_IMPORTANTE.txt << Te haremos caso
Disallow: /accesibilidad.php
Disallow: /aviso_legal.php
Disallow: /*.swf$
Disallow: /*.gif$
Disallow: /*.png$
Disallow: /*.jpg$
Disallow: /blog/wp-login.php
Disallow: /*?
# Permitidos
Allow: /index.php
Allow: /sitemap.xml
Archivo http://www.fuerteventura2000.com/LEEME_MUY_IMPORTANTE.txt
que tanto nos dice que leamos:
¡¡¡¡MUY IMPORTANTE!!!!
*******************************************************
ES MUY IMPORTANTE POR EL BUEN FUNCIONAMIENTO DEL SITIO
QUE NO SE MODIFIQUEN NINGUNO DE LOS SIGUIENTES ARCHIVOS
Y CARPETAS CONTENIDOS EN ESTE DIRECTORIO:
-blog
-contacto
-css
-css
-cursos
-documentacion
-error
-flash
-includes
-newsletter
-noticias
-picts
-privado
-scripts
-sobre_nosotros
accesibilidad.php
aviso_legal.php
contacto.php
empleo.php
index.php
mapaweb.php
servicios_a_empresas.php
robots.txt
sitemap.xml
*******************************************************
SI NECESITAN SUBIR ARCHIVOS AL SERVIDOR PÓNGANSE EN
CONTACTO OBLIGATORIAMENTE CON XXXX@fuerteventura2000.com
¡¡¡¡OBLIGATORIAMENTE!!!!
------------------------
*******************************************************
ESTO NO ES NINGÚN JUEGO Y LOS CAMBIOS DE ARCHIVOS QUE
ESTÃN OCURRIENDO ÚLTIMAMENTE POR PARTE DE TERCERAS
PERSONAS NO IDENTIFICADAS ESTÃ AFECTANDO NEGATIVAMENTE
A LA IMAGEN DE LA EMPRESA. A PARTIR DE HOY TODAS LAS
INCURSIONES EN EL SITIO DE TERCERAS PERSONAS NO
INFORMADAS A CARLOS SERÃN PUESTAS EN CONOCIMIENTO DE
LA DIRECCIÓN.
*******************************************************
*******************************************************
Ok, seremos
buenos e informaremos a Carlos si tocamos algo. Por cierto, seguro que esto no
afecta negativamente a la imagen de la empresa. Borrad eso por dios¡
Etiquetas:
Grode,
Hacking Ético,
ingenieria social,
Phising
viernes, 6 de diciembre de 2013
Sesiones y más sesiones de Gr2Dest
El grupo de estudio va viento en popa, cada día crecemos más en miembros y contenidos.
Hoy os traigo todos los videos de las últimas sesiones que no he subido 9,10,11 y 12
Os invito nuevamente a uniros al grupo en Meetup, aquí leneis el link: http://www.meetup.com/Gr2Dest-Grupo-de-estudio-de-seguridad-informatica/
Así podreis acudir a las seisones y tener los videos en cuanto salen, os dejo con todos los que tenía pendiente subir:
Hoy os traigo todos los videos de las últimas sesiones que no he subido 9,10,11 y 12
Os invito nuevamente a uniros al grupo en Meetup, aquí leneis el link: http://www.meetup.com/Gr2Dest-Grupo-de-estudio-de-seguridad-informatica/
Así podreis acudir a las seisones y tener los videos en cuanto salen, os dejo con todos los que tenía pendiente subir:
Etiquetas:
Gr2Dest,
Grupo de estudio,
Hacking Ético
domingo, 10 de noviembre de 2013
Madrid Games Week en resumen
Ayer estuve en la Madrid Games Week , en su estreno en
España.
Antiguamente teníamos la Game Fest pero hace ya dos años que
dejó de celebrarse, no había ninguna feria de videojuegos hasta que, por fin,
llegó al esperada Madrid Games Week.
La afluencia de gente ha sido enorme, decidimos ir por la
mañana a primera hora y, por lo visto, fue lo que habíamos decidido todo así
que ya cuando logramos aparcar el coche la cola para poder entrar al pabellón
era kilométrica.
La feria estuvo bastante bien, Play Station 4 y Xbox ONE+360
tenían unos stands gigantescos a la entrada con decenas de consolas para probar
eso sí previa cola de más de una hora.
Blizzard, que corría el rumor de que iba a estar presente,
no estaba. Solo había en la parte de Play Station 4 una sección dedicada al
juego nuevo de Diablo III para Play, eso es todo.
En el lateral del pabellón estaban todos los de "retro"
con unas colecciones de juegos y consolas en venta geniales ¿problema? En pleno
siglo XXI y ¡Ninguno tenía para pagar con tarjeta de crédito! Así que... no
pude hacer crecer mi pequeña colección de viejas consolas.
Hubo otros muchos más stands pero.. Yo me quedo con dos de
ellos:
- WiiU, sencillamente brutal, había leído malos comentarios
sobre ella pero son todos inciertos, la consola es una pasada, la plantilla de
juegos es divertidísima y los gráficos extraordinariamente mejorados respecto a
su antecesora. Justo lo que los jugadores de Wii pedían. Me gustó tanto y me impresiono
de tal manera que ya está la consola en casa. Fue un día de éxito para la
consola, todo el mundo quería tenerla en su salón.
- La mesa futbolín, me encanto¡¡ echadla un ojo, si podéis permitírosla
es una gozada para todo salón. www.soccertable.es
- LG nos puso los dientes largos con una muestra de
pantallas de alta definición de tamaño descomunal. Qué bien quedaría esa
pantalla de 50+ pulgadas y la mesa futbolín en mi salón.
Por el lado negativo:
- No se abrió ni uno solo de los parkings de pago de IFEMA,
lo cual desembocó en coches rodeando todo el recinto y caminatas enormes
cargados con bolsas, un rollo.
- !Targetas de credito¡ Por dios ¿cómo se puede uno gastar
el dinero en estar presente en una feria y no tener un datafono? Espero,
sinceramente, que aprendan de ello.
- Pequeña, la feria se quedaba pequeña respecto a la expectativa
creada sobre la misma, faltaban mas tiendas con libros, miniaturas y material
de todo tipo. Al igual que había en la Game Fest. Este año solo hubo una tienda,
gigante, de camisetas y material, se echaba en falta más.
- Play Station 4 y Xbox ONE. Solo tengo una frase para
ambas: Más de lo mismo, me aburroooooo.
En definitiva un buen festival que esperamos vuelva al año
que viene siendo más grande.
miércoles, 6 de noviembre de 2013
Sesión 8 de Gr2Dest
Lo prometido es deuda, tal comoos dije ayer aquí os dejo el video de la sesión 8 de este pasado Lunes.
Disfrutadla :)
Disfrutadla :)
Sesión 8: SMTP, VRFY, Brute Forcing + Python/NMAP/Hydra: Enumeración de Usuarios y Passwords
martes, 5 de noviembre de 2013
Sesión 7 del grupo de estudio. Videos
Ando muy contenta con el grupo de estudio, estamos tratando
temas de gran interés y aprendiendo muchas cosas.
El grupo cada día crece más, ya somos en la sala unas 15-20
personas cada sesión así que quienes quieran unirse que no lo duden porque
estamos creciendo.
Después de la ponencia de las sesiones pasadas volvemos a la
normalidad de ser los miembros quienes hablan y de ahí salen estos dos
excelentes videos resumiendo la sesión 7.
Pronto os subiré ya la sesión 8, que es la de este Lunes,
voy con retraso, lo sé.
Os dejo con los videos y las diapositivas que SlideShare se niega a subir, hasta que lo solucione os dejo el link de descarga:
https://mega.co.nz/#!AURlBJIQ!SqJo_xJmNiXeScmzqNnRVTbOr5hq4Xo0kG3pVd-S8eg
https://mega.co.nz/#!AURlBJIQ!
miércoles, 23 de octubre de 2013
Ponencia de BladeH en las charlas del grupo Gr2Dest
Como ya os comenté ayer, teníamos algunos videos más pendientes de poder subirlos a la red y compartirlos.
Lo prometido es deuda y ya estan disponibles.
En esta ocasión os traigo las dos partes de la ponencia que dio, para le grupo, BladeH.
BladeH es uno de los veteranos de la comunidad Dragonjar y durante dos días nos dió una extensa charla sobre Linux (en concreto distribuciones como BackTrack), hacer tus propios scripts o como hacer aplicaciones de hacking propias.
No tienen desperdicio los videos. Disfrutadlos.
En esta ocasión os traigo las dos partes de la ponencia que dio, para le grupo, BladeH.
BladeH es uno de los veteranos de la comunidad Dragonjar y durante dos días nos dió una extensa charla sobre Linux (en concreto distribuciones como BackTrack), hacer tus propios scripts o como hacer aplicaciones de hacking propias.
No tienen desperdicio los videos. Disfrutadlos.
martes, 22 de octubre de 2013
Sesion 5 Parte 1: Footprinting Básico con FOCA - Gr2Dest
Se me acumula el trabajo y tengo el blog tiritando de soledad :P
Hoy os traigo uno de los videos de la sesión de hace dos semanas con el grupo de estudio.
Jorge, uno de los miembros, se curro una sesión (que no esta acabada así que queda la parte 2) de trastadas por la red con la FOCA, muy conocida por todos.
Os dejo con el video, disfrutadlo y estad atentos porque tenemos muchos más que subir :)
Hoy os traigo uno de los videos de la sesión de hace dos semanas con el grupo de estudio.
Jorge, uno de los miembros, se curro una sesión (que no esta acabada así que queda la parte 2) de trastadas por la red con la FOCA, muy conocida por todos.
Os dejo con el video, disfrutadlo y estad atentos porque tenemos muchos más que subir :)
miércoles, 16 de octubre de 2013
Ya llega CodeMotion
Este fin de semana estaré por CodeMotion, para quienes vayan
a asistir al evento os dejo las charlas a las que, tengo pensado ir.
Las del Viernes dependerán del trabajo pero el Sábado espero
no perderme ninguna.
Twitteare desde allí a cada charla que asisto y las mejores
frases de los ponentes, si alguno coincide que va, avisadme por Twiter así os
conozco a los lectores que pasan por aquí.
Estas son las charlas a las que acudiré:
Viernes 18/10/2013
17:45-18:30 NOSQL: Primeros pasos con MongoDB - Víctor Cuervo Palencia
Dónde: Track 3
18:45-19:30 Feliz 15 aniversario SAQ Injection - Chema Alonso
Dónde: Track Principal
Sábado 19/10/2013
09:00 -09:45 Estrategia para desarrollo móvil: Web o aplicación nativa - José Ignacio Herranz
Dónde: Track 2
10:00 - 10:45 They live! - Fernando Rodríguez Romero
Donde: Track 2
11:30 - 12:15 Cloud Gaming usando el protocolo Q4S - Jose Javier García Aranda
Dónde: Track 8
12:30 - 13:15 What’s wrong with php? - Ole Michaelis
Dónde Track 1
15:15 - 16:00 De perdidos a Titanium - Ariel Ferrandini
Donde: Track 2
16:15 - 17:00 Taller de GitLab - Óscar García Amor
Dónde: Track 6
17:45 - 18:30
Desarrollo de juegos con tecnologías web: HTML5 y JavaScript - Carlos Benítez, Sergio Ruiz
Donde: Track 8
17:45-18:30 NOSQL: Primeros pasos con MongoDB - Víctor Cuervo Palencia
Dónde: Track 3
18:45-19:30 Feliz 15 aniversario SAQ Injection - Chema Alonso
Dónde: Track Principal
Sábado 19/10/2013
09:00 -09:45 Estrategia para desarrollo móvil: Web o aplicación nativa - José Ignacio Herranz
Dónde: Track 2
10:00 - 10:45 They live! - Fernando Rodríguez Romero
Donde: Track 2
11:30 - 12:15 Cloud Gaming usando el protocolo Q4S - Jose Javier García Aranda
Dónde: Track 8
12:30 - 13:15 What’s wrong with php? - Ole Michaelis
Dónde Track 1
15:15 - 16:00 De perdidos a Titanium - Ariel Ferrandini
Donde: Track 2
16:15 - 17:00 Taller de GitLab - Óscar García Amor
Dónde: Track 6
17:45 - 18:30
Desarrollo de juegos con tecnologías web: HTML5 y JavaScript - Carlos Benítez, Sergio Ruiz
Donde: Track 8
Lo dicho, nos vemos por las aulas de la UPM.
Suscribirse a:
Entradas (Atom)