El 14 de septiembre de 2017, publicamos una versión revisada de nuestra Política de privacidad. Tu uso continuado de video2brain.com significa que aceptas este documento revisado, por lo que te recomendamos que dediques unos minutos a leerlo y comprenderlo.

Auditorías SEO

Verificar el robots.txt

Prueba ahora LinkedIn Learning sin cargo y sin compromiso.

Prueba gratis Mostrar modalidades de suscripción
El robots.txt es un archivo que nos permite controlar, mediante reglas, qué páginas de tu sitio deberían ignorar los buscadores. De más está decir que un mal uso de este archivo puede desencadenar una tragedia en términos SEO.
02:59

Transcripción

Google otorga una cuota limitada de "crawling" o rastreo a cada sitio. Esta va a depender de las dimensiones del sitio, cuántas páginas tiene, la frecuencia de actualización y otros factores relacionados a cuestiones técnicas. Dado que esa energía es limitada, es una buena idea determinarle a Google, indicarle qué contenidos realmente no vale la pena ingresar, que no deseas que sean rastreados ni indexados. Para hacer eso, podemos utilizar el "robots.txt", que es un protocolo, es un documento que debemos cargar en nuestro dominio raíz que nos permite indicarle a Google a qué páginas no debería dar la atención. Parte de la auditoría consiste también en identificar ese tipo de documento, dado que, como mencionábamos anteriormente. se trata de un recurso limitado, deberíamos evitar indexar páginas con poco valor o páginas que tienen información sensible, que igual, de todos modos, no sería una buena idea publicarlas en Internet. Por ejemplo, en una tienda, páginas que no tienen mucho valor pueden ser: La página de "login", pasos en el proceso de compra, y otras páginas que tengan este tipo de características. Como vemos aquí, no hay contenido, no hay nada de valor, no hay nada que se pueda optimizar. ¿Vale la pena indexarlo? No. ¿Vale la pena rastrearlo? Menos. Entonces, estas páginas deberíamos bloquearlas. "Bloquear páginas de poco valor". ¿Qué debemos corroborar en el sitio? Que haya presencia de un "robots.txt" y estas páginas estén bloqueadas. ¿Cómo lo hacemos? El "robots.txt" se carga en el dominio raíz. Así que, ingresando "/Robots.txt" en la URL deberíamos poder ingresar página no disponible. Aquí estamos en almacén. Dominio raíz. Tampoco está cargado en el documento. Con lo cual, no estamos aprovechando al máximo esa cuota limitada de "crawling" que nos está ofreciendo Google. Es importante recordar que este protocolo, el "robots.txt", no solamente funciona para Google sino para todos los buscadores. Es un estándar soportado por los buscadores más populares. Así que tenlo en cuenta a la hora de desarrollarlo. Entonces, para dar a un cierre a este paso en la auditoría. Chequear páginas con poco valor. Primer paso. Segundo paso. Buscar formas de evitar su indexación. El protocolo, la forma más estándar de hacerlo es mediante el "robots.txt".

Auditorías SEO

Realiza una auditoría SEO de forma práctica. Siguiendo paso a paso las siguientes indicaciones podrás mejorar todos los aspectos de tu sitio web, contenidos, técnicos y reputación.

2:08 horas (29 Videos)
Actualmente no hay comentarios.
 
Temas:
Marketing
SEO
Fecha de publicación:4/04/2017

Este curso video2brain está disponible como descarga y para ser visualizado online. ¡Pero no hace falta que decidas entre las dos opciones! Al comprar el curso, disfrutarás de ambas posibilidades.

La descarga te permite ver las lecciones sin estar conectado/a a internet y supone una navegación fácil y ágil entre capítulo y capítulo. Si vas a trabajar en diferentes ordenadores o si no quieres descargarte el curso completo, entra en la web con tus datos de acceso y disfruta directamente de tus vídeos online. Te deseamos que disfrutes de este curso y te resulte de mucha utilidad.

Estamos a tu disposición si tienes cualquier tipo de duda o pregunta.