DesarrolloLibre

Desarrollo Web, Android, juegos y mucho más



23-08-2017

Recurso: Analizador del archivo robots.txt

Analizador del archivo robots.txt

El archivo robots.txt es una web sirve para indicar a las arañas sobre la organización de nuestro sitio, indicando donde está el sitemap.xml y para indicar que no analice ciertas URL o carpetas en especifico. Este recurso permite analizar el archivo robots.txt de tu sitio web y darte posibles errores y/o advertencias del mismo

Publicidad

Publicidad

Algunos artículos que te pueden interesar

Apache modulo mod_rewrite

Apache modulo mod_rewrite

MOD_REWRITE es un módulo del servidor Apache que permite crear URL alternativas a las URL dinámicas generadas por la forma en que están programadas nuestras aplicaciones web; de forma tal que sean más fáciles de recordar.

Andrés Cruz 25-07-2013

¿Qué es y para qué sirve el robots.txt?

¿Qué es y para qué sirve el robots.txt?

El archivo robots.txt no es más que un archivo de texto plano que permite evitar que ciertos robots que analizan los sitios web agreguen información innecesaria

Andrés Cruz 25-11-2013

Url_title() en CodeIgniter

Url_title() en CodeIgniter

url_title permite crear URLs amigables que nos favorece al momento del SEO.

Andrés Cruz 25-06-2013