sábado, 9 de mayo de 2015

La mejor Guia de Scrapebox


Hay veces que conoces a personas dentro de tu profesión que son maestros dentro de una determinada disciplina. Eso es lo que me pasó a mi cuando comencé a hablar con Javier Marcilla de NinjaSEO hará unos pocos meses atrás. Era un crack en muchos temas de los que todavía no había demasiada información y además me cayó especialmente bien porque era sumamente comunicativo (una virtud muy poco común entre los SEOs).
seo-scraper
Cuando vi el post que me mandó para publicar pensé... "este tío está loco..." así que lo tenía que traer a Blogger3cero :)
Javier es un verdadero crack del SEO. No dudé en pedirle cierto consejo para montar mi PBN y los resultados por su parte fueron extraordinarios. Pero quiero que lo compruebes directamente tú... Hoy viene a enseñarnos todo acerca de Scrapebox. Una de las herramientas SEO más controvertidas de nuestra profesión.
###
Introduccion-Scrapebox
bienvenidos a esta Mega Guía de Scrapebox en Español!
La idea de crear este recurso surgió de una conversación con Dean, porque no es que Scrapebox sea un desconocido, pero en general sigue siendo una herramienta poco utilizada y conocida fuera de los círculos BlackHat.
Así que... NinjaSEO al rescate ;-)
Y muchas gracias Dean por ofrecerme amablemente tu blog para dar a conocer un poco más a esta máquina del SEO que es Scrapebox.
En este artículo aprenderás como usarlo para algunas tareas SEO WhiteHat, y también para hacer un poquito (porque es peligroso si no lo controlas) de BlackHat.
Pero antes de comenzar un par de comentarios para evitar malentendidos...
Siempre que ha sido posible (y si no lo indico) las instrucciones y capturas de pantalla se refieren a la versión 2.0 Beta de Scrapebox, que está muy avanzada y soporta 64 bits entre otras muchas mejoras respecto a la versión 1.
Scrapebox es una herramienta de pago, que no ofrece ninguna demo, si quieres utilizarla debes comprarla. Incluso para utilizar la versión Beta debes tener una licencia.
Y aunque esta guía es muy extensa (¡más de 7.000 palabras!) todavía queda mucho que contar sobre Scrapebox, ya que sólo estoy explicando las funciones que utilizo habitualmente, y que pienso que pueden ser más útiles para el público en general.
¿Estás sentado? Ve pidiéndote una pizza y prepara café y coca-cola… ¡vamos a empezar!

¿Qué es Scrapebox?

caja-2Es una herramienta que te permite rastrear, recopilar y procesar información de forma masiva en Internet. Un programa "de escritorio" sólo disponible para Windows.
Digamos que cualquier actividad que puedes hacer manualmente con un buscador, puedes hacerla mucho más rápidamente con Scrapebox, y además crear flujos de trabajo que puedes reutilizar.
Es muy posible que conozcas esta herramienta por su mala reputación, y por estar relacionada con “malas prácticas”, Spam o tácticas BlackHat.
Y sí, puede utilizarse para todo eso, de hecho uno de sus puntos fuertes es automatizar el envío masivo de comentarios en blogs, pero además puede utilizarse para muchas tareas que tienen poco que ver con el BlackHat, como verás más adelante.

¿Por qué hay que pagar por Scrapebox?

Como he comentado al principio, sí o sí hay que pagar para utilizarlo, no ofrece demos, periodos de prueba ni nada parecido.
¿Y cómo puede estar seguro de que funciona bien si no la puedes comprar primero?
Scrapebox funciona, y muy bien, pero debes aprender a usarlo antes de poder sacarle partido. Si tienes dudas de si puede serte útil para tu estrategia particular lee esta guía y toma una decisión. Si después tienes preguntas, para eso están los comentarios :-)
Aunque no todos lo admiten abiertamente, en parte debido su reputación, muchos SEOs la utilizan de forma habitual, principalmente como apoyo a sus tareas WhiteHat, pero también para ayudarse a posicionar con “otros métodos” ;-)
Scrapebox es una de esas pocas herramientas fantásticas que puede servir "para todo”, si la utilizas con un poco de imaginación. Y viene muy bien para aprenden algunos conceptos importantes del posicionamiento web.
Y un detalle muy importante sobre Scrapebox: no tiene programa de afiliación, es decir que nadie gana dinero por aconsejarla, por lo que las recomendaciones suelen ser bien intencionadas.
Afortunadamente es una herramienta económica comparada con otras, se paga 197 USD y listo, sin cuotas mensuales ni pagar por actualizaciones
TRUCO NINJA: no pagues el precio oficial de $197, puedes conseguir Scrapebox por $57pinchando aquí
(Como ya sabes NO es un enlace de afiliado, es un descuento exclusivo del desarrollador)

Interface de Scrapebox

Si ya has utilizado Scrapebox, tal vez desees saltarte esta sección, aunque por otra parte quizá descubras algo que no sabías ;-)
Este es el aspecto de Scrapebox v2 (beta) y para alguien que no lo ha visto nunca, sé que puede intimidar un poco.
Interface-Scrapebox-2
Pero te preocupes, con el uso y la ayuda de esta guía aprenderás a realizar la mayoría de las acciones muy rápidamente.
Estas son las 5 grandes secciones en las que se divide la interface de Scrapebox:
Scrapebox-secciones
Aunque me gusta utilizar el español siempre que puedo, he decidido conservar la terminología en Inglés a través de esta guía para no confundirte cuando utilices el programa.

FOOTPRINTS

En esta sección introduces los Footprints que deseas utilizar para delimitar tus búsquedas.
Por si no conoces lo que es un footprint: se trata de una “huella” reconocible que podemos utilizar para encontrar algo en internet.
Por ejemplo: seguro que has visto la frase "Proudly powered by WordPress” en el pié de muchas páginas. Ese texto común es una “huella" que te permitiría buscar webs que están construidas con WordPress.

KEYWORDS

Al igual que utilizas palabras o frases para buscar algo en Google, utilizarás esta sección para introducir las Keywords que quieres encontrar mediante un Footprint.
Un ejemplo sencillo: para encontrar artículos publicados en Universidades que hablen de varias dietas para adelgazar podrías poner como Footprint "site:.edu" y como Keywords “dieta para adelgazar, dieta dukan, dieta de la piña, etc.” (cada keyword en una línea)
Scrapebox-Footprints-Keywords
Con ello Scrapebox haría una búsqueda separada para cada una de estas Keywords en todos los sitios alojados en un domino ".edu", es decir Universidades.

PROXIES

Proxy
En esta sección eliges el tipo de recolección ("harvest") que vas a utilizar, y también, muy importante, gestionarás tus proxies o buscarás nuevos si no tienes.
Scrapebox-Proxies
Pronto descubrirás que para utilizar Scrapebox eficientemente necesitas unos buenos proxies, ya sea para recolectar búsquedas masivas, utilizar varios de los Addons de Scrapebox, o los comentarios automatizados. Pero por ahora no te preocupes, veremos este tema de los proxies en el siguiente bloque.

HARVESTER

En esta sección aparecerán los resultados de tus búsquedas, y podrás gestionarlos mediante los botones de la derecha, que te permiten eliminar duplicados, comprobar el estado de indexación, filtrar los resultados por Page o Domain Authority, MozRank, etc.
Scrapebox-Harvester

COMMENT POSTER

La principal utilidad de esta sección es el envío de comentarios automatizados, pero también la emplearás para indexar tus Backlinks, comprobar si siguen estando vivos, etc.
Scrapebox-Comment-Poster

ADDONS Y PLUGINS

Aunque no forman parte de la interface Principal de Scrapebox, uno de los puntos fuertes de esta herramienta es la cantidad de plugins que tiene (unos pocos son de pago) y que te permiten realizar muchas más tareas.
Scrapebox-Addons

SETTINGS (AJUSTES)

No voy a explicar aquí los ajustes de Scrapebox 2, porque en principio no necesitarías tocarlos, y la explicación de todos ellos llevaría mucho tiempo.
Pero sí que hay un ajuste que es importante que conozcas.
En el menú superior pincha en “Settings” y luego en "Harvester Engine Configuration”.
Ahí puedes editar los ajustes para varios motores de búsqueda que soporta Scrapebox, y también crear nuevos ajustes.
Por defecto Scrapebox utiliza Google Global "Google.com" para recolectar información, pero si deseas utilizar la versión de Google para tu país, puedes hacerlo editando el ajuste por defecto o creando uno nuevo.
Por ejemplo para utilizar Google España puedes duplicar el ajuste de Google y donde dice “&hl=en” pones “es”, o “mx” para México, etc.
Scrapebox-Harvester_Engine_Configuration
Para que quede claro, en el campo “Query String” donde dice:
"http://www.google.com/search?complete=0&hl=en&q={KEYWORD}&num=100&start={PAGENUM}&filter=0"
Quedaría así para buscar en Google España (.es)
"http://www.google.com/search?complete=0&hl=es&q={KEYWORD}&num=100&start={PAGENUM}&filter=0"

Proxies

Para sacar el máximo partido a Scrapebox necesitas usar proxies, y si vas a utilizar sus funciones más “oscuras” es muy recomendable ejecutar Scrapebox desde un Servidor Virtual Privado (VPS)
Como se suele decir en este mundillo, “no lleves a cabo ninguna actividad BlackHat desde tu servidor u ordenador principal"
Vas a necesitar proxies para realizar peticiones de búsqueda masiva, y también para comprobar el Pagerank, indexado, etc. sin que Google bloquee tu IP por abusar del servicio.
Tienes dos opciones, comprarlos o aprender a encontrarlos tu mismo.

Proxies de pago

No te voy a recomendar aquí ningún proveedor en concreto, puedes encontrar cientos de opciones buscando en Google “buy proxies for Scrapebox” o “comprar proxies”.
En realidad lo que haces es “alquilar” proxies durante un tiempo determinado, normalmente un mes, y al final de este periodo dejarán de funcionar. O si estableces un plan de pagos mensual te mandarán unos nuevos.
Básicamente puedes optar por comprar dos tipos de proxies:
Proxies Compartidos (“Shared” o “Semi Dedicated")
En esta variante los mismos proxies que te alquilan los ofrecen también a otros compradores, por lo que suelen ser bastante económicos (mínimo 1USD por proxy al mes)
Pueden funcionar bien si no utilizas Scrapebox a su máximo potencial, pero el ratio de éxito en comentarios no suele ser demasiado bueno.
Proxies Privados (“Private” o “Dedicated")
Estos proxies sólo los utilizarás tú por lo que son mucho más efectivos, pero también más caros, normalmente el doble (mínimo 2 USD/proxy/mes)
¿Cuantos proxies necesitas? Pues depende del uso que le des a Scrapebox
  • Si realizas consultas de poco volumen de vez en cuando, y no utilizas el módulo de comentarios automatizados, 10 proxies compartidos suelen ser suficientes.
  • Si utilizas Scrapebox intensivamente durante periodos de tiempo largos, o para comentar automáticamente, tendrás más éxito con proxies privados, comenzando con un mínimo de 20.

Proxies públicos

Son aquellos que puedes encontrar en blogs, foros o páginas que publican listas para todo aquel que quiera usarlas.
Lo genial de este método es que los proxies te salen gratis, pero suelen durar muy poco (unas pocas horas) porque muchos como tú los están utilizando a la vez y Google los detecta y bloquea rápidamente.
La forma más sencilla de encontrar y comprobar proxies públicos es precisamente utilizando Scrapebox.
Pincha en el botón “Manage” y luego en “Harvest Proxies” y “Start"
Scrapebox_Harvest-Proxies
Cuando el Proxy Harvester haya terminado debes comprobar tu lista de proxies.
Pincha en “Test Proxies” y “Test all Proxies"
ProxyManager
Scrapebox comprueba los proxies y te dices si son anónimos y si funcionarán con Google.
Para trabajar con Google necesitas proxies compatibles con Google (“Google passed”) y descubrirás que no son los más fáciles de encontrar.
Para otros motores de búsqueda, o para comentar, es suficiente con que sean anónimos.
Guarda los dos tipos de proxies en archivos de texto separados, para usarlos según la activad que vayas a realizar.
Scrapebox_ProxyManager-Guardar
Si no tienes experiencia encontrando buenas fuentes de proxies yo te recomendaría que no comenzases con proxies públicos, de lo contrario tendrás que recolectar proxies nuevos cada pocas horas y puedes hartarte muy rápidamente.
Para comenzar con lo mejor es comprar un paquete económico de 10 proxies compartidos, y cuando ya tengas más experiencia usando la herramienta es el momento de aprender a buscar proxies por tu cuenta y utilizarlos con el Proxy Harvester
Proxy_Harvester
El Proxy Harvester de Scrapebox busca en una lista de sitios que está disponible para todo el que utiliza esta herramienta (y somos muchos) por lo que no es el mejor método para encontrar proxies públicos.
RECURSO NINJA: visita la página de recursos para Scrapebox (al final de este artículo) para aprender cómo buscar y añadir tus propias fuentes de proxies.

Palabras clave

Scrapear” es posiblemente la función más utilizada de esta herramienta. Podríamos traducir este término como “arañar” o “rascar” la web, es decir rebuscar para encontrar lo que necesitamos.
A falta de una traducción mejor yo suelo llamarlo “recolectar" ("harvest" en inglés)
Casi cualquier tarea que puedes realizar en Scrapebox comienza con una recolección de datos, así que voy a seguir más o menos el proceso "normal" con un ejemplo ficticio.
Para el resto de este artículo vamos a suponer que estamos interesados en el nicho de “dietas para adelgazar”, y que no sabemos nada o muy poco sobre ese nicho particular.
El primer paso suele ser conseguir una buena lista de palabras clave para trabajar con ella.
Para ello pincha en el botón “Scrape” y “Keyword Scraper” en el menú que se despliega.
Scrapebox-Keyword-Scraper-1
A continuación introduce las palabras clave con las que desees comenzar y elige el método y el motor del que quieres recolectar las sugerencias.
Scapebox-Keyword-Scraper-2
Scrapebox puede explorar en segundos las sugerencias que ofrece Google Suggest, Youtube o Bing, entre otros.
En este ejemplo escribe simplemente “dietas para adelgazar”, marca sólo “Google Suggest” y pincha en “Start”. Casi inmediatamente verás que los resultados aparecen en la derecha.
Scapebox-Keyword-Scraper-3
En este ejemplo Scrapebox ha encontrado 11 frases clave únicas (después de eliminar los duplicados) que provienen de las “Búsquedas relacionadas” que muestra Google al final de la página de resultados.
Puedes crear una lista mucho más extensa pinchando en el botón “Append A-Z”. Al hacerlo Scrapebox recolectará todas las sugerencias que encuentre la función auto-completar de Google para todo el alfabeto.
Scapebox-Keyword-Scraper-4
Al hacerlo tu lista se amplía, en este caso a 271 palabras clave. Ahora podrías darte por satisfecho, o seguir expandiendo tu lista pinchando en el botón “Transfer Results to Left Side” y otra vez en “Start”.
Y puedes repetir este proceso tantas veces como quieras, o pedirle a Scrapebox que repita el ciclo automáticamente hasta cuatro veces con la opción “Level"
Scapebox-Keyword-Scraper-5
Si lo que te interesa es una lista de palabras clave con cierto volumen de tráfico (para crear un artículo por ejemplo) puedes analizarlas y filtrarlas con el Planificador de Palabras Clave de Google, de lo contrario continúa con toda la lista tal cual está.
Es una buena idea exportar la lista de Keywords para poderla recuperar más adelante.
Scapebox-Keyword-Scraper-6
Para trasladar la lista a Scrapebox pincha en "Save All keywords to Scrapebox Keywords"
Pero antes de dejar esta sección hay una opción muy interesante que te ofrece Scrapebox: la posibilidad de comprobar si hay disponibles dominios de palabra clave exacta (EMD) para la lista de palabras clave.
Para ello pincha en “Domain Lookup"
Scapebox-Keyword-Scraper-7
Elige las extensiones que deseas comprobar, pincha en “Start" y Scrapebox te dirá si el EMD está disponible.
Scrapebox-Domain-Lookup
¿Para qué puedes utilizar esta función?
Si sabes cómo manejarlo, un dominio exacto todavía puede ser muy efectivo para dominar algunos nichos.
TRUCO NINJA: utiliza el Domain Lookup para tener una percepción rápida de la competencia en un nicho. Si la mayoría de los EMD ya están registrados suele ser una señal de que hay SEOs intentando posicionarse y por lo tanto habrá mucha competencia.

Recolectar con Scrapebox

Ahora que ya tienes una lista de palabras clave, es el momento de que hagas algo con ellas.
Puedes optar, por ejemplo, por comenzar recolectando una lista de webs que publiquen artículos sobre estos temas, para comenzar a conocer el nicho. Y quizá filtrar una lista de esos artículos para destacar aquellos que se comparten más.
También podrías encontrar foros que trataran estos temas, para comenzar a integrarte en ellos y generar ideas, estudiar colaboraciones y publicitar tu web.
O tal vez quieras localizar webs que acepten artículos de invitado (Guest Posts) relacionados con tu temática.
Pero antes debes tener una noción mínima de qué son los Operadores de Búsqueda y cómo funcionan.
En Scrapebox utilizarás estos operadores a modo de Footprints (huellas) para buscar ciertos patrones que se repiten en la información que vas a buscar.
Por ejemplo: las páginas donde aparezca determinada palabra clave en el título, o que estén construidos con un sistema de publicación como WordPress, etc.

LOS OPERADORES BÁSICOS QUE DEBES DOMINAR

inurl

Encuentra las páginas que contienen una determinada keyword en su dirección (URL)
Ejemplo: "inurl:dieta" encontraría páginas que contengan "dieta" en la dirección, como "http://dieta.exur.netdna-cdn.com"

intitle

Encuentra las páginas que tienen la keyword buscada en el título.
Ejemplo: "intitle:dieta" encontraría páginas en cuyo título esté la keyword "dieta" como "SITIO OFICIAL de la Dieta Dukan | Dieta n° 1 en Francia …” como www.dietadukan.es

site

Encuentra páginas alojadas en dominios específicos.
Ejemplo: "site:.edu" encontraría todos los dominios alojados en el TLD "edu"
Y por supuesto es posible combinar varios operadores, como por ejemplo: "inurl:dieta site:.edu".
Puedes aprender más sobre este tema en esta guía de Google en español.
Sigamos con nuestro ejemplo.
Carga la lista de palabras clave que has creado en el campo "Keywords" del "Harvester"
Y busca los primeros 20 resultados de Google (2 primeras páginas) para cada una de ellas.
ScrapeBox_64-Bit_V2_0_0_29_public_beta___C_2009-2015_Scrapebox_com
Scrapebox te devuelve 4.960 resultados, es decir 20 resultados de cada una de las 248 keywords que ves a la izquierda.
Verás que no he utilizado proxies (no están marcados), porque el volumen de la "recolección" no era demasiado grande, pero los necesitarás para obtener grandes volúmenes de datos, de lo contrario Google bloqueará tu IP.
Una vez obtenidos los resultados debes eliminar los duplicados. Puedes hacerlo teniendo en cuenta la URL completa o sólo el dominio.
Para nuestro ejemplo elimina los duplicados por URL.
Scrapebox-Recolectar-2
Y te quedas con 2.369 url únicas.
Ahora sería interesante saber cuales de ellas son las que más se han compartido en Redes Sociales, porque teóricamente serán las que tienen contenidos más atractivos para este nicho.
Para ello vas a instalar tu primer Addon: "Scrapebox Social Checker"

Scrapebox Social Checker

El proceso de instalación es el mismo para todos ellos, pincha "Addons" en el menú superior, elige el que deseas instalar y pincha en "Install Addon"
Scrapebox-Instalar-Addon
Una vez instalado podrás acceder al Addon desde el menú.
Scrapebox-Instalar-Addon-2
Abre "Scrapebox Social Checker", pincha en "Import urls from Scrapebox harvester" y luego en “Start”.
Enseguida comenzarás a ver el número de veces que las URLs se han compartido en Facebook, G+, Twitter, LinkedIn y Pinterest.
Scrapebox-Social-Checker-1
Para analizar los datos con más facilidad, lo mejor es exportarlos a un fichero Excel donde podrás ordenarlos o filtrarlos.
En la mayoría de Addons tienes la opción de exporta los resultados para Excel o como texto simple.
¿Qué consigues con la información que te proporciona Social Checker?
Pues, por ejemplo, saber qué canales de comunicación suelen ser los más importantes para este nicho, o lo que es lo mismo, por dónde se mueven los usuarios.
Y esta información te ayudará a comprender qué tipo de contenido tiene mejor aceptación en tu nicho, y te será más fácil replicarlo.
TRUCO NINJA: si como sucede en este ejemplo ves que los contenidos se comparten mucho en Facebook, es una buena idea crear una Página allí y atraer al público a tu web.

Merge y vencerás (función Merge)

Para crear búsquedas avanzadas existe una potente función que poca gente utiliza: el botón “M” (“Merge”)
Scrapebox-Merge-1
Para usar Merge debes crear una lista de Keywords en un fichero de texto y añadir el operador "%KW%" que referenciará a las Keywords que tienes en Scrapebox.
¿Vaya lío no? Tranquilo, con un ejemplo lo entenderás enseguida.
Digamos que para tu nicho de dietas se te ocurre buscar todos los blogs que escriban sobre tu lista de keywords y que funcionen en WordPress o Drupal porque planeas comentar en ellos.
Y sabes que puedes encontrar webs que funcionen con estos motores buscando "powered by wordpress” o "powered by Drupal"
¿Pero como puedes combinar estos dos Footprints con tu lista de Keywords?
Pues con la función Merge, claro.
Crea un fichero de texto que contenga estas dos líneas y guárdalo.
“powered by WordPress” %KW%
"powered by Drupal" %KW%
Pincha en el botón "M" y elige este fichero. Automáticamente Scrapebox combinará los dos footprints con las keywords de esta forma:
“powered by WordPress” “dietas para adelgazar en 3 días”
"powered by Drupal" “dietas para adelgazar en 3 días”
“powered by WordPress” "dietas para adelgazar muy rápido”
"powered by Drupal" "dietas para adelgazar muy rápido”
... y así con todas las keywords
TRUCO NINJA: cuando tengas algo más de experiencia descubrirás que es muy útil crear una "librería" de Footprints que podrás reutilizar a menudo en todos tus nichos.

Comenta en blogs

Una de las estrategias SEO más conocidas es comentar en blogs para conseguir enlaces y visibilidad. Y Scrapebox está especialmente preparado para esto.
Imaginemos que decides probar esta estrategia con la lista de páginas que ya has encontrado para tus Keywords.
Naturalmente, no todas ellas serán blogs, ni todas las que lo sean admitirán comentarios.
Afortunadamente Scrapebox está preparado para esto y mucho más ;-)

Blog Analyzer

¿Quieres saber rápidamente en qué páginas puedes comentar? Utiliza el Addon “Blog Analyzer”.
NOTA: todavía no está disponible para la versión 2.0 beta, por lo que tendrás que utilizar la versión 1.
Este Addon te permite saber qué plataforma utiliza la página en cuestión (por ejemplo WordPress), si admite comentarios, tiene protección anti-spam o utiliza captchas.
Elige “Scrapebox Blog Analizer” del menú “Addons”, importa la lista a comprobar desde “URL’s Harvested” y pincha en “Start"
Scrapebox-Blog-Analyzer-1
A continuación puedes filtrar la lista por blogs que no acepten comentarios, o aquellos que pidan un código de verificación (“captcha”), y devolver la lista depurada a Scrapebox, o guardarla para utilizarla más adelante.
Y si lo deseas puedes continuar depurando tu lista de blogs “buenos”, centrándote únicamente en aquellos que tengan pocos comentarios, comprobando el número de enlaces salientes con el Addon “Outbound Link Checker”.

Outbound Link Checker

Carga la lista de URLs con el botón “Import urls”, elige “Import urls from Scrapebox harvester” y pincha en “Start"
Scrapebox-Outbound-Link-Checker
A continuación utilizar el botón “Filter” para seleccionar las URLs que dan error (“Remove failed/error entries”) y elimina aquellas que tengan más de un número de enlaces que consideres excesivo.
¿Porqué puedes querer no comentar en blogs con muchos enlaces salientes?
En primer lugar porque normalmente (aunque no siempre) los blogs que tienen una gran cantidad de comentarios suelen estar llenos de Spam, y Google se dará cuenta tarde o temprano y puede penalizar o disminuir la efectividad de los enlaces.
Y también porque a mayor cantidad de enlaces salientes, los beneficios que proporciona un backlink disminuyen. Aunque este punto es un poco controvertido y yo personalmente no me fijo un límite de enlaces, sino que observo lo que suele ser “normal” en cada nicho.
TRUCO NINJA: fíjate en el número de comentarios que suelen haber en los blogs moderados en tu nicho, y filtra de acuerdo a este número. Por ejemplo elimina los que tengan más de esa cantidad, o el doble, etc.
Una vez depurada tu lista puedes plantearte bombardearla con comentarios automatizados (lo veremos en un momento) o utilizarla para comentar manualmente.
¿Porqué te podría interesar perder el tiempo comentando de forma manual, cuando puedes hacerlo automáticamente con Scrapebox?
Te puede interesar si tu intención es crear una web “legal” y vas a apuntar los enlaces directamente a tu sitio.
A continuación te comento algunas formas en que Scrapebox te puede ayudar para comentar sin spamear blogs.

Alexa Rank Checker

Con los comentarios adecuados puedes conseguir tráfico y visibilidad en blogs de referencia en tu nicho, siempre que leas detenidamente cada artículo y aportes un comentario que contribuya a enriquecerlo.
Para ayudarte a invertir mejor tu tiempo carga tu lista en el Addon "Alexa Rank Checker” y conocerás rápidamente las estadísticas de tráfico de cada dominio.
Scrapebox-Alexa-Rank-Checker-1
Recuerda que cuanto más bajo el número más tráfico recibe la página, y que los datos de Alexa (excepto para dominios verificados) son sólo una estimación, pero en cualquier caso útil para comparar dominios entre sí.
TRUCO NINJA: este Addon te puede ser muy útil para hacer un seguimiento de tu Alexa Rank o el de tus clientes, y mantener un histórico (exporta los datos a Excel) muy efectivo para demostrar a tus clientes que estás haciendo bien tu trabajo, para verificar tus estrategias de tráfico, o para mantener controlada a la competencia.

Dofollow/Nofollow

Si te interesa conseguir algún enlace Dofollow en un blog de referencia en tu nicho, utiliza el Addon “DoFollow/NoFollow Check”.
NOTA: de momento sólo está disponible para la versión 1 de Scrapebox.
Scrapebox-Dofollow-Nofollow-Check
Dependiendo del nicho será complicado encontrar Blogs que permitan comentarios con enlaces Dofollow, pero si insistes puedes acabarás encontrando alguno.

Page Authority

Ya sé que hay mucha controversia al respecto, pero estoy convencido de que un comentario "bien puesto" puede ayudarte aunque sea Nofollow.
El Addon “Page Authority” te permite extraer las métricas Page Authority, Domain Authority y MozRank utilizando la API de Moz.
Scrapebox-Page-Authority
Primero debes dar de alta una API en Moz, utilizando el botón "Account Setup". Puedes utilizar una API gratuita, aunque si trabajas con listas grandes trabajarás mejor con una API de pago.

Comentarios automatizados

comment_please1
Scrapebox te permite comentar de forma automática en miles de páginas, para conseguir enlaces, tráfico, o las dos cosas.
ATENCIÓN: ¿Seguro que quieres hacer esto? Piénsatelo antes, porque puedes penalizar tu web si no tienes cuidado.
Esta técnica es puro BlackHat, y lleva tiempo perfeccionarla, así que no te apresures, y sobre todo no la utilices si no estás seguro de lo que estás haciendo.
Hasta que no tengas bastante experiencia, y aún así no lo aconsejo, no dirijas ningún enlace creado con Scrapebox o ninguna otra herramienta automática a tu sitio principal ("money site"), enlaza a otras Páginas Satélite (Tier 2 ó Tier 3)
Como ya te habrás dado cuenta la mayoría de los blogs que admiten comentarios están moderados, esto quiere decir que el editor o el dueño del blog revisan los comentarios antes de publicarlos.
Estos blogs que llamamos "moderados" no te interesan para esta estrategia, pero puedes guardarlos para analizarlos y de forma manual en los más interesantes, como te he explicado en el punto anterior.
Para la estrategia de comentarios automatizados te interesan los blogs no moderados, que aprueben los comentarios automáticamente, de lo contrario tu porcentaje de éxito será muy pequeño.
Si ya has creado una lista de blogs en los pasos anteriores puedes utilizarla ahora y si no tienes tiempo, y no te importa invertir algo de dinero, puedes comprar alguna lista de blogs no moderados. Seguro que te resulta fácil encontrar algún vendedor.
RECURSO NINJA: descarga gratis una lista de blogs no moderados al final del artículo.
Si decides utilizar tu propia lista el método más sencillo es probar a comentar y depurar los resultados.
¿Cómo? Te lo explico paso a paso.
  • En primer lugar elimina las URL duplicadas (Remove/Filter > Remove Duplicate URL's) porque no obtendrás ningún beneficio comentando varias veces en la misma página.
  • A continuación debes crear los archivos de datos que necesitarás para utilizar el módulo de comentarios. En realidad son los mismos datos que utilizas para comentar manualmente en cualquier blog, pero en cantidad.
  • Fíjate en el lateral derecho del módulo “Comment Poster”, y verás que en el apartado “Data Lists” te indica los ficheros que debes rellenar
Los botones son para limpiar cada lista de datos (C), abrir un fichero ya guardado en el disco (Open) o Editar las listas (E)
Scrapebox-Data-Lists-1

Nombres

En el momento de hacer un comentario siempre te piden un nombre, que se convierte en el texto ancla de tu enlace.
Puedes crear automáticamente una gran cantidad de nombres con el generador automático de Scrapebox, utilizar tus Keywords, o combinar ambos datos.
Personalmente me inclino por incluir diferentes porcentajes de nombres, Keywords, y textos ancla genéricos.
En la barra de menú de Scrapebox pincha en “Tools” y después “Name and Email Generator". Elige la cantidad de nombres que necesitas, pincha en “Generate” y guarda los resultados como "Names.txt"
Scrapebox-Name-Email-Generator-1

Emails

Al igual que el nombre es obligatorio introducir un email para comentar en la mayoría de los blogs, así que genera la misma cantidad de emails con el "Name and Email Generator“, y guarda la lista como "Emails.txt"
Scrapebox-Name-Email-Generator-2

Websites

Cuando comentas en un blog habitualmente te piden la dirección de tu sitio web, que se convertirá en un enlace cuyo texto ancla será el nombre que has proporcionado.
¿No me he explicado bien? Veamos un ejemplo tomado de este mismo blog:
Name-Website-Texto-Ancla
Si estás intentando posicionar o conseguir tráfico para una página concreta deberás poner únicamente esa dirección en el fichero. Si estás creando enlaces para varias páginas escribe las direcciones (una por línea) y Scrapebox las usará aleatoriamente.
Graba este fichero como "Websites.txt"

Comentarios

Ahora debes crear una lista de comentarios para que se envíen de forma automática.
Ten en cuenta que, aunque los comentarios se aprueben de forma automática, el editor puede revisarlos y borrar los comentarios más fuera de lugar.
El nivel de calidad de los comentarios que generes depende del tiempo de que dispongas, y de la calidad que suelen tener en tu nicho particular, aunque por regla general si inviertes un poco de tiempo en ellos los resultados suelen ser mejores.
Un enlace tiene que "aguantar" el tiempo suficiente para que sea plenamente efectivo. Si es borrado poco después de publicarlo no ha llegado a su máxima potencia, a menos que esté en un dominio con mucha autoridad.
TRUCO NINJA: si no tienes ni idea de qué comentar, simplemente toma comentarios de páginas en otros nichos y los adaptas al tuyo ;-)
Te pongo unos ejemplos relacionados con la temática de dietas, suponiendo que quieres enlazar a una de tus páginas que tratan sobre la "dieta Dukan"
“muchas gracias por el artículo, he venido buscando información sobre la dieta dukan para adelgazar, porque tengo entendido que es la mejor dieta de todas."
“estupendo artículo, la verdad es que la dieta que más que ha funcionado es la dukan"
“felicidades por tu web ¿qué sabes de la dieta dukan? estoy muy interesado en conocer más, mis amigas dicen que muy buena para adelgazar"
... y bueno ya te vas haciendo la idea, ¿verdad? Por supuesto tendrás que adaptar el tono y la expresión según tu nicho.
Graba este fichero como "Comments.txt"
RECURSO NINJA: en la página de recursos, al final del artículo, te enseño algunos trucos para crear comentarios.

Blogs

Y por último necesitas una lista de blogs en los cuales insertar tus comentarios.
Si todavía la tienes en el Harvester pincha en el botón “List” y luego en “Transfer URL’s to Blogs List for Commenter"
Scrapebox-Data-Lists-2
O crea tu propio fichero y guárdalo como "Blogs.txt"

Blogs con confirmación automática

Como ya sabes lo ideal es contar con una lista de blogs que confirmen automáticamente los comentarios ("autoapprove")
Por desgracia (a menos que hayas comprado una lista) la única forma de distinguirlos es probando.
Antes de continuar recuerda que para este paso necesitas proxies. De lo contrario los sistemas de protección tipo Askimet pueden bloquear la IP de tu ordenador y tu porcentaje de éxito será mínimo.
Además tu nivel de éxito en este proceso también dependerá de la calidad de tus proxies.

Fast Poster

Ahora carga todos los ficheros de datos (Names, Emails, Websites, Comments, Blogs) que has creado anteriormente, selecciona “Fast Poster” y Pincha en “Start Poster"
Scrapebox-Fast-Poster-1
En la pantalla siguiente pincha en el botón “Start” y al rato verás las páginas en las que Scrapebox ha tenido éxito comentando (“Success”) o no (“Failed”)
Scrapebox-Fast-Poster-2
Si dispones de un programa Anti-Captcha, o pagas por alguno de estos servicios online, puedes utilizarlo para comentar automáticamente en blogs que tengan esta protección.
Si es así pincha en el botón “Decaptcher Setup” y rellena tus datos.
Scrapebox-Decaptcher_Setup
De momento te aconsejo que no te preocupes por este tema, ya te ocuparás de los blogs con protección cuando domines Scrapebox y te merezca la pena invertir en uno de estos sistemas.
Cuando hayas finalizado esta ronda, regresa al interface principal de Scrapebox y exporta los blogs exitosos (“Export all successful entries”) y los que no (“Export all non successful entries”) en archivos separados.
Scrapebox-Fast-Poster-3
Y vuelve a seguir el mismo proceso con los que han fallado en la primera ronda.
Y haz una tercera, y…
Cuando en una de las rondas consigas muy pocos resultados positivos (“sucsessful”) es el momento de terminar.
TRUCO NINJA: en lugar de crear archivos nuevos en cada ronda, utiliza “Export all …. and add to existing list” para ir añadiendo los resultados en un único archivo de éxitos y otro de fallos.
Pero… todavía no cantes victoria :-)
Todo lo que sabes en este punto es que Scrapebox ha podido comentar en estos blogs, pero no si el comentario ha sido aprobado.

Link Checker

Coge tu lista de comentarios exitosos, métela en el archivo “Blogs List”, selecciona “Check Links” y pincha en “Start Link Checker"
Scrapebox-Link-Checker
Los enlaces que den éxito (“Success”) son los blogs en los que Scrapebox ha podido comentar automáticamente. Guarda esta lista para utilizarla más adelante.

¡Y por fin tienes tu propia lista de blogs con confirmación automática ("auto approve”)!
TRUCO NINJA: también puedes utilizar el Link Checker para verificar si siguen “vivos” otros Backlinks que hayas creados manualmente, con otra aplicación, hayas comprado, etc., siguen "vivos". Para ello introduce las páginas o dominios al que deben apuntar los Backlinks en el archivo "Websites.txt" y la lista de enlaces a comprobar en el "Comment Poster"
RECURSO NINJA: hay otras formas de encontrar blogs con confirmación automática, en la página de recursos al final donde te explico alguna más.
¿No ha sido tan complicado, verdad?

Indexa tus backlinks

Has conseguido crear una lista “auto approve” y has comentado en ella.
¡Buen trabajo!
Pero te falta una cosita más :-)
Si los enlaces que has creado no se indexan en los buscadores es como si no existiesen.
Puedes optar por esperar un tiempo para ver los buscadores los indexan de forma natural, o intentar forzar el indexado inmediatamente.
TRUCO NINJA: Puedes comprobar rápidamente si una lista URLs está indexada, pegándola/importándola en el Harvester y pinchando la opción "Check Indexed"
Scrapebox-Check-Indexed
Scrapebox ofrece la posibilidad de forzar el indexado masivo de URLs mediante varios métodos: RAPID INDEXER, PING MODE o RSS.
Sólo te voy a explicar el Rapid Indexer, que es sencillo y seguramente te será suficiente.
RECURSO NINJA: indexar con RSS suele ser más efectivo, pero es más complicado. Si estás interesado en aprenderlo visita la página de recursos al final del artículo.

Scrapebox Rapid Indexer

Abre el Addon “Scrapebox Rapid Indexer” (disponible sólo para versión 1)
Carga la lista de URLs que deseas indexar (en tu caso la lista de enlaces comprobados), la lista de sitios que quieres utilizar para indexar tus enlaces, y pincha en “Start
Scrapebox-Rapid-Indexer-1
Scrapebox ya viene con una lista de sitios que puedes utilizar para el indexado, y que puedes descargar directamente desde el menú de instalación del Addon.
Scrapebox-Rapid-Indexer-2
Si descargas el fichero y lo abres verás que contiene una lista de URLs como esta:
http://whois.domaintools.com/{website}
http://hosts-file.net/default.asp?s={website}
http://www.aboutus.org/{website}
Como habrás adivinado este Addon crea páginas temporales en webs de estadísticas, whois, etc. que "enlazan a tus enlaces"
Estas páginas se crean en sitios que son visitados e indexados muy a menudo por los buscadores ,y por ello hay muchas posibilidades que que sigan el enlace y lo indexen.

Análisis de Meta-Tags

Si estás familiarizado con el SEO On Page ya sabrás lo importante que es optimizar el título y la descripción de tus páginas.
Debes comprobar rutinariamente tus meta tags, verificar que los títulos no son demasiado largos, que no falte una descripción, etc. Y algo igual de importante, pero no tan explotado: además de verificar tus metas también es útil controlar los de tu competencia.
¿Porqué? Porque puedes aprender muchas cosas.
Puedes aprender qué es lo que están promocionando y mediante qué palabras clave, y conseguir ideas para crear tus propios artículos.
O analizar los metas de tu competencia para crear los tuyos.
Y si tienes experiencia con Excel puedes hacer maravillas con estos datos ;-)
Por ejemplo podrías exportarlos en una hoja de cálculo, borrar las “palabras vacías” y los duplicados, y utilizar Rank Tracker para ver cómo se está posicionando tu competencia.

Comprobación de Metata Tags

Si quieres comprobar tus metas utiliza el Footprint “site:tusitio.com” (por ejemplo “site:ninjaseo.es”)
Scrapebox-Meta-Tags-1
Y recolecta los meta de las páginas encontradas pinchando en el botón “Grab / Check” y luego en "Grab META info from harversted URL List"
Scrapebox-Meta-Tags-2
En pocos segundos tendrás los resultados:
Scrapebox-Meta-Tags-3
Y podrás exportar estos valiosos datos para analizarlos tranquilamente.

Enlaces rotos y "Broken Link Building"

El Addon “Broken Links Checker” te permite comprobar que no hayan enlaces rotos en tu sitio web, pero también te puede ayudar a conseguir enlaces con la técnica del “Broken Link Building”.
Este método consiste en informar al dueño/editor de una web de algún enlace roto y sugerir que lo sustituya con otro enlace a nuestras páginas.
Como siempre, comienza recolectando las páginas donde quieres utilizar el Addon.

Sitemap Scraper

Si las webs que deseas comprobar tienen un Sitemap puedes extraer todas sus páginas con el Addon “Sitemap Scraper”.
Carga una lista de URLs en el Addon, pincha en el botón “Trim to root and add sitemap.xml” y pincha en “Start"
Scrapebox-Sitemap-Scraper-1
También puedes hacerlo con el Footprint “site:”
Si utilizas diferentes métodos o varios buscadores elimina los duplicados antes de continuar.
Ahora utiliza el Addon “Broken Links Checker” y exporta en las páginas que devuelven un error 404 (no se encontró la página)
Scrapebox-Broken-Links-Checker
¿Qué puedes hacer con esta información?
Si se trata de tu propio sitio web o de tu cliente, repara los enlaces rotos.
Si estás haciendo “Broken Link Building” contacta al editor/webmaster de las webs donde hay enlaces rotos, comunícale el problema y aprovecha para insinuar (esto es todo un arte) que enlace a una de tus páginas.

Artículos de invitado (Guest Posting)

Escribir para otras páginas, lo que se conoce como “Guest Posting” puede ser muy efectivo, si eliges bien el tema y la web.
Esto que estás leyendo es un Guest Post, y además de enseñarte me estoy promocionando y estableciendo una relación contigo, así que puede ser útil, ¿verdad?
Para encontrar páginas que acepten publicar artículos de invitado puedes comenzar buscando con estos Footprints:
“guest post"
“guest blogger"
“post invitado"
“escribe para nosotros"
“envía tu post"
“contribuye"
Por ejemplo: inserta "intitle:"post invitado” en la casilla de “Custom Footprint”
Y las keywords "dieta” y “dietas” en el área de Keywords
Scrapebox-Guest-Posting
TRUCO NINJA: recuerda que puedes construir búsquedas avanzadas con la ayuda del botón “M” (Merge)
Una vez tengas tus resultados, extrae el dominio raíz con Trim to Root” y elimina los duplicados.
Scrapebox-Guest-Posting-2
Ahora podrías filtrar los dominios por tráfico con el Addon “Alexa Rank Checker” o por autoridad con "Page Authority” (o ambos) y centrarte en los mejores.
Una vez tengas claro para quien te interesaría escribir, puedes intentar encontrar emails de contacto pinchando en el botón “Grab/Check”, y después en “Grab emails from harvested URL list
Scrapebox-Guest-Posting-3
En la práctica verás que no siempre consigues encontrar emails con este método, pero como normalmente estás trabajando con miles de resultados suele ser suficiente.
Scrapebox-Guest-Posting-4
Ahora es cuestión de que exportes los resultados, contactes con los dueños de las páginas, y explores la posibilidad de escribir en su blog.

Dominios caducados (Expired Domains)

¿Sabías que Scrapebox también te puede ayudar a encontrar dominios caducados?
¿Que no sabes qué puedes hacer con un dominio caducado ("expired")?
Pues puedes hacer muchas cosas, entre ellas montar una PBN o comenzar un proyecto con un dominio "establecido" en lugar de hacerlo con uno "desde cero"
El Addon que vas a utilizar para esto es el "TDNam Scrapper", y funciona explorando los dominios expirados de Godaddy que no han sido adquiridos en una subasta.
TDNAM son las siglas de "The Domain Name Aftermarket”, y para acceder y registrar dominios en este "mercado" debes pagar una tarifa anual de $4,99.
No es habitual encontrar maravillas en el TDNAM, pero sí que es posible conseguir algún domino decente, a un precio muy interesante.
Lo primero es escribir en el Addon una o varias palabras clave, o puedes cargar tu lista desde la sección de Keywords.
Escribe por ejemplo “dietas” y “dieta” y pincha en "Start"
Scrapebox-TDNAM-Scraper
Enseguida verás los dominios caducados disponibles para tus palabras clave. Visita las subastas de Godaddy para registrarlos.
Además el Addon te muestra unos datos muy interesantes: tráfico (si lo tiene), edad y precio de venta.
Cuidado, no corras a registrar ningún dominio sin antes asegurarte de que está limpio de Spam, y que tiene por lo menos unas métricas decentes.
Si estás familiarizado con las subastas de Godaddy sabrás que puedes conseguir esta información directamente en su página. La ventaja de este Addon es que filtra rápidamente los dominios con compra directa para muchas keywords a la vez.
Y además puedes descargar estos datos para continuar analizando los dominios con Scrapebox u otras herramientas.
TRUCO NINJA: exporta la lista de dominios disponibles y compruébala con el Addon "Page Authority”. Verás rápidamente cuales de ellos pueden más interesantes.

¿Necesitas imágenes? Scrapebox al rescate

Scrapebox tiene algunos Addons que en principio pueden parecer una chorrada, pero que en realidad son muy útiles.
El Addon “Google Image Grabber” es uno de ellos.
Seguramente has realizado alguna búsqueda de imágenes en Google, para encontrar inspiración, utilizar alguna imagen en tus artículos, o ilustrar algún PDF, Powerpoint, etc.
Con este Addon puedes hacerlo mucho más rápidamente, y con más control.
Introduce tus Keywords, o cárgalas desde Scrapebox, elige la cantidad de imágenes que deseas encontrar para cada Keyword, su tamaño y el tipo de licencia.
Scrapebox-Google-Image-Grabber
Scrapebox recolectará las URLs de todas las imágenes, y hasta las puedes guardarlas en diferentes carpetas para cada Keyword.
¿No te convence?
Bueno, piensa por ejemplo que necesitas imágenes para crear un montón de artículos “basura” para un Tier 3… pues aquí las tienes, y lo mismo si necesitas crear Páginas Satélite con imágenes, tipo Tumblr.
Y por supuesto puedes utilizar estas imágenes para todas tus actividades creativas, aunque recuerda utiliza el filtro de licencia para evitar problemas.
TRUCO NINJA: ¿necesitas crear rápidamente un vídeo sencillo? Recolecta imágenes con este addon, súbelas al creador de vídeos de Youtube, añade su música libre de derechos y listo.

Escaneo de páginas

En mi opinión el Addon “Page Scanner” es uno de los más interesantes, y por ello me sorprende lo poco que se habla sobre él.
Este Addon analiza una lista de URLs y busca Footprints en el código fuente (HTML)
¿Para qué? Piensa un poco y luego te doy pistas.
Lo primero es tener una lista de URLs para escanear, y decidir que footprints te interesa localizar.
Carga el Addon, crea un nuevo archivo de Footprints y edítalo.
Scrapebox-Page-Scanner-2
Puedes crear una gran variedad de footprints y categorizarlos para separar distintas páginas según pertenezca a una u otra categoría.
Scrapebox-Page-Scanner-2A
Te voy a mostrar un ejemplo muy sencillo para que vayas comprendiendo sus posibilidades.
Imagina que te gustaría comprobar si todas las páginas de tu web (para este ejemplo la mía: ninjaseo.es) tienen el código de Google Analytics instalado.
En lugar de visualizar el código de todas las páginas y buscarlo, puedes recolectar todas las URLs de tu web (comando "site:")
Scrapebox-Page-Scanner-3
Cargar la lista en el Addon "Page Scanner"
Scrapebox-Page-Scanner-4
Crear una categoría, que podrías llamar  “GA” para abreviar, con el código de Analytics que debería estar presente en cada página.
Scrapebox-Page-Scanner-5
Pinchar en “Start”, y comprobación realizada:
Scrapebox-Page-Scanner-6
En este caso sólo has utilizado un grupo de footprints (GA), si tuvieras varios grupos el Addon los analizaría todos y te diría en qué páginas ha encontrado el footprint (Completed)
Venga, un par de ideas más.
Utilízalo para analizar grandes volúmenes de URLs, descubriendo pautas, plugins similares… tu imaginación es el límite ;-)
Por ejemplo puedes recolectar los dominios de un nicho concreto y averiguar si tus competidores están monetizando con Adsense.
TRUCO NINJA: Imagina que quieres vender un servicio concreto a usuarios de un CMS específico… o que quieres ofrecer un descuento competitivo a usuarios de un plugin de WordPress para que compren el tuyo… o que quieres ofrecer Google Analytics/Adsense a webs que no usen uno u otro...
¿A que te gusta este Addon?

Análisis rápido de la competencia en las SERPS

Si todavía estás leyendo (¡bravo!) te habrás dado cuenta de que Scrapebox es una especie de navaja suiza, que puedes utilizar para multitud de tareas.
Pero la utilidad de cualquier herramienta va ligada a la capacidad para usarla. Y una forma de aumentar tu capacidad es crear métodos para optimizar o automatizar algunas de tus tareas.
Para finalizar el artículo te voy a explicar cómo puedes hacer un análisis rápido de competencia, utilizando de forma creativa las diferentes funciones que te ofrece Scrapebox
  • Hazte con una lista de tus palabras clave, o las de tu cliente, o utiliza el Keyword Scraper como ya te he explicado al principio.
  • Recolecta sólo los primeros 10 resultados (primera página de Google) para cada Keyword.
  • Utiliza el Addon “Scrapebox Backlink Checker” con tu API de Moz para obtener la cantidad de Backlinks de tu competencia.
Scrapebox-Analisis-Rapido-1
  • Haz lo mismo para recolectar el “PA/DA” como ya sabes, gracias al Addon “Page Authority"
  • Igual con el Addon “Social Checker"
  • Recolecta emails de contacto con el Addon "Whois Scraper"
Scrapebox-Analisis-Rapido-2
  • Recolecta los meta tags de todas esas páginas como te acabo de explicar.
  • También el Alexa Rank como ya sabes.
  • Exporta y consolida toda esa información en un archivo Excel...
Y ya puedes analizar a tu competencia teniendo en cuenta sus backlinks, meta tags, métricas de cada dominio...
Ahora échale un poco de imaginación y comienza a crear tus propios sistemas con Scrapebox ;-)
TRUCO NINJA: te regalo una idea más para utilizar Scrapebox de forma creativa. Filtra las mejores páginas, las que tengan más Backlinks y se hayan compartido más en redes sociales. Utiliza el Addon “Backlink Checker” con la opción “Save Urls with backlinks” para ver quien enlaza a estos artículos, crea uno o varios mejores y pide (“Grab Emails” / “Whois Scraper”) que te enlacen.

Recursos Ninja para Scrapebox

Muchas gracias por haber llegado hasta aquí, has demostrado tener muchas ganas de aprender y mucha paciencia, felicidades :-)
Si no conocías Scrapebox espero que esta guía te haya descubierto algunas de las posibilidades de esta herramienta y te anime a investigar por tu cuenta y probar formas creativas de utilizarla.
Para ayudarte en esta tarea he preparado una página de recursos en NinjaSEO donde podrás encontrar entre otras cosas:
  • Una lista de blogs sin moderar ("auto approve")
  • Una lista de footprints
  • Una guía para encontrar proxies públicos
  • Ideas para encontrar blogs “auto approve"
  • Trucos para crear comentarios más efectivos
  • Una guía para indexar Backlinks usando RSS

One of the tools that are frowned upon in the world of SEO is ScrapeBox. This is a tool that is classified as SPAM, but in my opinion it is not. This tool may or may not be SPAM, it all depends on the person using it, the end of the day, it is a tool that collects data (among other features), and like any tool can be used to do "good" things or to do things "not so good".

As you know if you are in this world of SEO, recent months have changed many things about building links to our website, now we must focus more on the quality of each link in the quantity and with the passage of this month will become even more important and each link to place can benefit or harm our Link Building strategy.

In the following book I'll tell you to use ScrapeBox and that brings me benefits.

But first ... What is ScrapeBox?

ScrapeBox

Scrapebox is a tool to scrapear, to automate tasks and create you Google your own footprints (If you do not know what are the footprints here I leave a complete article about them). Many professionals think that Scrapebox is a tool for massive links and consider it a SPAM tool, not culp0 them because many people use this type of software to practice black hat that never recommend.

Scrapebox is not a spam tool, in fact Scrapebox the use in my day to day tasks now White hat along this guide you will see.

"Scrapebox NOT a tool designed to help EVERYDAY A SEO. Its method of use depends on the person who controls "

Walking around this tool interface

Interface ScrapeBox

Before starting to list all the possibilities and gives you this tool in your day to day, I'm going to show its interface and briefly explain what each one of them:

Section Harvester: You can put the footprints you want to use to purchase blogs, domains, and other resources. You may also choose the "Custom Footprint" option to further customize and get more out of this option.
Section Keywords: This is where the keyword is inserted on which we seek with the custom footprint. For example, if we want to find blogs related to SEO and they are working under wordpress.com just what we would do would be to place the following line: site: wordpress.com "SEO". This would return the results that we all find ScrapBox based on this footprint and this keyword.
Harvested URLs: In this window you will find all the results that you've got to get through your practice as I have mentioned in point 2.
Select Engines & Proxies: This is where you need to select the search engine and insert the proxies you want to use to start scrapear information. If you're using this tool for detoxification issues bonds or competitive analysis also recommend you select search engines like Bing and Yahoo later contrasted more information.
Coment Poster: This option allows you to post comments on sites that have obtained previously using the right footprint, but this will not recommend you to wear well, as it is black hat and such practices would end up penalizing your project. You can use it to ping your links and get it indexed faster.
Start your strategy with Keyword Link Building Scraper option

Keyword option Scraper

Receive my best tips and tricks to learn Internet marketing and SEO, directly to your email.

Sign Up
Let's start with the good, one of the features I like. This is the Keyword Scraper option, which will serve to acquire numerous related keywords, which you can then use to boost your list to scrapear and details. This option will suggest a host of related keywords in the purest style suggestive keywords Google.

To operate this wonderful option, simply select the option Scrape scrape >> keyword section 2 (Keywords), enter on the left side the keywords that you have designed and click the "scrape" button. Once this task you will see how ScrapeBox begin to show many related keywords.

To prevent duplicate keywords or unwanted find a button called Remove, here you can eliminate duplication, keywords that do not contain the word you want and other very últiles to finish outlining your list of options keywods.

IMPORTANT: As I said, this tool is used to good SEO practices, although many use it for other practices. Do not be fooled by the title of this section because you will not find a magic method to automate links. Simply you find a method to improve your link building strategy.
ScrapeBox. Complete Guide to Good Practice

ScrapeBox


Now we start with the complete guide of good practices ScrapeBox. Once you've seen some of the most important features of this software, now you will see the practical benefits that we reported daily use of this tool.

1. Scrapea URLs from ScrapeBox options


Definitely one of the best scrapeadores you can find on the Internet, but the best. So once you've got your list of selected keywords (remember to choose keywords related directly or indirectly to your niche with a volume of important searches), the you enter the section of keywords for which I have already spoken on the lines above and follow step 2.

2. Use the Footprints.


The footprints are commands that are inserted into google for more specific searches. To make you understand better see an example:

Imagine you want to find all URLs that Google has indexed in its search engine containing the keyword "SEO", for it empelearemos a code to facilitate this search, so specific in this case. Then he would read: "inurl: SEO".

You see the footprints are very useful in day to day SEO and a few people use them, I encourage you to start using it and make the most of your actions.

Here I leave the three search operators you should know:

Site: Displays lists of domain specific URLs or links to a specific domain.
Inurl: Displays URLs that contain a specific text fragment previously defined.
Intitle: Sample URLs that contenien a piece of text in the meta-tag title previously defined.
As additional information here I leave some advanced Google search operators recommended.

Now that you know are serving and search operators or footprints, sure you already know what to do if you have the following questions:

I need to get links from Blogs and Bloggers related to my subject.
I need to get my product and related sites where you can be mentioned links.
Platforms need to know that I can share my products.
3. Find good sites for Guest Posting by ScrapeBox.

looking urls with Scrapebox


Suppose you have a Web Analytics blog and want to present your professional services analyst and try to draw customers to your blog. Some of the actions you should take to try to achieve your goals are:

Publish specific content on Web Analytics in your blog regularly.
Publish specific articles and related Blogs have visibility to accept guest posts.
Be present in the best business platforms related to your niche.
I propose a strategy to three months where you will be able to get 30 reviews with many links (do-follow / no-follow) in authority sites related to your niche.

For this you have to do is use the following combination of footprints:

"Powered by WordPress" + "Google Analytics" and site: .com

I explain in detail the entered data:

"Powered by WordPress" footprint introduce this because I have found that most people who have a blog related to Online Marketing what are often under the WordPress platform.
"Google Analytics" This footprint use it because I want you to give me back only the specific sites where we talk about Google Analytics WordPress and are also low.
Site: .com: I use this advanced search operator to select domains ending in .com alone.
If you want to curl over the loop you can even put the following footprint:

"Powered by WordPress" + "Marketing" and intext: "guest post"

You see, here is a more generic search is made. With this results we make any WordPress Blog fact that talk of Marketing and surely has sections or articles have already been invited.

Now once you understand a little the operation of the footprints just open Scrapebox and enter everything you've learned.

4. Check the quality of links found.

Once you've done your keyword research and ScrapeBox has made you the first list of URLs you should start doing a check of some basic data of each of the links. In addition you must also use the APIs Moz.

STEP 1 >> Play with Domains: In the strategy I proposed I told you Guest items, relationships and authority pages. In this case you should forget to look out only in articles and focus on the entire domain. For this you must go to 0pción of "Trim to Root" is inside "Manage Lists" to cut all URLs and be alone with domains.

option "to root tim"

STEP 2 >> Eliminates duplication: Once the previous step, you must click "Remove / Filter" >> "Remove Duplicate URL" to remove duplicate domains.

remove duplicate domains

STEP 3 >> Check PageRank: You must check the PageRank of each URL to make sure that this indicator exceeds 2 or 3. This will mean that it is at least one domain that has a minimum of authority. This you can check in the section "Get Domain PageRank".

check pagerank

STEP 4 >> Check Domain Authority (DA): This should be done with the "Page Autority Addon" option. Besides domain authority, it also gives you information page authority, the Moz Rank and external links.

moz api Scrapebox


STEP 5 >> Get emails of your list of URLs: One option that I like about ScrapeBox. With the "Grab Emails locally from list" option, you'll get a list of all the emails at each of the owners of these domains so you can contact them to reach an agreement to get reviews, guest articles and synergies . Undoubtedly, an option that saves you hours of work.

get emails with Scrapebox

As you see, it takes about 10 minutes to take a few email list related to your topic that accept guest articles bloggers or those who can reach an agreement for the benefit of your dissemination strategy. Moreover you should know that some of the emails that show you ScrapeBox not valid and therefore have to go to page to find them.
5. Eliminate duplication thanks to this tool

Another feature of ScrapeBox quite useful. With this option you can detect duplication of URLs when you're doing a job detection of toxic bonds.

To make an audit of links, especially when you're doing it on a site penalized for links, you should do a thorough job and do this job Based on different sources:

You can do it with the Link Detox tool.
Combined with manual work with the help of Ahrefs.
Combined with manual labor also Based on data from Open Site Explorer.
You see, doing this job, you would link three separate files with interesting content. One of the main objectives would be to combine these 3 files at 1 alone and eliminate duplication of links or repeated domains.

To do this you will use the Addon "DupeRemove". Once installed and running you will get a window like this:

remove dupe of Scrapebox

Now you must go to the "Select source files to merge" and select the 3 files you want to combine into one. After selecting the files containing information of the links you must click on the "Merge Files" option to merge the files into one.

Finally to eliminate duplicate domains or URLs you must click on the "Select Source File" and choose where you want expoertar URLs or domains not duplicated.

6. Detects "META" tags for each URL of your list

ScrapeBox also allows you scrapear titles and descriptions from a list of URLs. To do this select situated within the option "Grab / Check" the "Grab meta info harvested from URL list" option.

With this you will have a quick view of the title, the description and the keywords of each of the URLs in the list that you imported goal.

meta tag information through ScrapeBox

This will be useful if you export this data to an Excel file and and you use it to check the number of pages that use exact match a key word in the title or some other over-optimization is not well seen by Google.

Once you detect these over-optimizations you have to do is change all those titles for over natural titles.

7. Check the validity of each of your internal and external links.

ScrapeBox Alive Checker

Another practice that should be done in a Web when you are conducting an audit or simply when you want to check different aspects of the web, is to check the status of links, both internal and external.

To perform this test you must use the addon "Scrapebox Alive Checker". This option failitará us this task.

To detect any problems with your links you just have to set this up properly. To do this simply adds response codes 200 and 301 as well and check the "Follow Relocation" box.

Check Status link

With this program you mark as erroneous all links that return a different response code 200 and 301.

8. Check if your changes in your project URLs are being indexed by Google.

If you're making major changes in your project related to the total amount of internal pages, want to make sure that Google again re-index all new URLs you entered and all the changes you've implemented.

To ensure all this I recommend combining the Screaming Frog ScrapeBox tool, now I tell you how ...

Before you begin, if you do not know which is Screaming Frog or do not know why I let you use a full article on this tool Eduardo Martinez here: http://www.eduardomartinezblog.com/screaming-frog/

STEP 1: The first thing to do is scrapear your project with Screaming Frog, setting the options that let you Basci following images:

Screaming Frog settings

STEP 2: Screaming Frog Once the process is over, you must save export data to a CSV file to open it later and copy it to ScrapeBox. Another option is valid also convert CSV said in a .txt and then import it as you see in the image below:

import-list-screaming-frog

STEP 3: After importing the list of URLs you just have to click on the button "Check indexed" and select the option "Google Indexed"

As a result of having done well these 3 steps, the tool will return a pop up where you have all the information indexed and non-indexed URLs.

I recommend to export the list of URLs not indexed to analyze in more detail.

Outbound links 9. Check your list of links obtained.

Scrapebox-outbound-link-checker

As a final option that I really like, I tell you that with ScrapeBox can also know outbound links or Outbound links of each of the URLs obtained result of having done a job search sites insert your reviews as I have spoken to in point 3 of this article.

For this there is an option in the list of Addons called "Outbound link checker". This option will show the outgoing links of each of the URLs obtained after making a search of sites where add your links or reviews.

Scrapebox-outbound-link-checker-2

As you see in the picture, you back some useful data. Once obtained this information you can also check the authority of these URLs and decide if they are valid for you or not.

ScrapeBox. My findings

You see, even though many professionals or "not so professional" ScrapeBox considered as a SPAM tool, it is actually a very powerful tool that lets you save time in your daily tasks and other advanced tasks. As I have discussed throughout the article you can use it to get it right or you can use it to make other practices, it all depends on the person who is the head of this tool.

I recommend that when eschuches or read to an industry professional talk bad about ScrapeBox think maybe you have not used this tool or unknown many of its features as I just show you throughout this article.

If you liked this article and want to know more information and advanced options for this software I recommend you consult a Chuiso, the only person I know who knows by heart this tool and who has helped me discover a host of advanced options.

Finally I would like to know what you use your ScrapeBox and benefits you reported in your daily life.

Bueno amigos, no me quiero andar por las ramas porque lo que la mayoría queréis es la información… Nutriros cuál vampiros sedientos de sangre… Arrffgghhh, jejeje 😉 Antes de comenzar dejaré varias cosas claras:

No me considero SEO profesional, ni nada de eso. Simplemente realizo SEO a mis proyectos, tengo experiencia… Pero nada más. Yo no me oferto como SEO ni ofrezco mis servicios, pese a que desde que “he despuntado” por así decirlo, me han contactado muchas empresas para hacerles SEO. Qué va, paso. Me he dado cuenta que la mayoría de los mejores SEO son gente anónima. En el sector profesional del SEO aún hay mucho charlatán (no todos) que se aprovecha de pequeñas y medianas empresas que no tienen ni idea de lo que es el SEO.
No me considero mejor ni peor que nadie en ésto, sigo siendo un noob en muchos aspectos. Tengo un blog y escribo sobre lo que me da la gana, no me corto un pelo a la hora de hablar y ofrecer mi opinión pero intento no meterme con nadie si él mismo no se lo busca. Sigo escribiendo igual ahora que hace 8 meses, no se me sube la fama a la cabeza ni voy a montar ahora un gurúblog. Nunca he intentado dármelas de sabiondo y nunca me he autoproclamado experto SEO. Mi éxito ha sido compartir todo lo que sé y darle un toque divertido, no tiene más. Ni siquiera he ganado este concurso por mi sólo y no me cuesta admitirlo, gané gracias a José M., a Luis M. Villanueva y, por supuesto, a toda la comunidad que me apoyó 😀
El concurso SEO me daba un poco igual pero José me animó para que participase, y desde luego era un reto. Él no podía, está misteriosamente baneado de Forobeta, así que me ayudó a mi a lo largo de todo el concurso con su experiencia y sus contactos. Hemos participado en mi nombre y con mi blog, pero José estaba ahí conmigo a diario apoyándome… Vamos, que íbamos a pachas, fifty fifty 😉 También recibí una ayuda más que clave de Luis M. Villanueva, buen amigo y compatriota español sin el cuál no hubiese ganado.
Sabiendo esto, pasemos a la acción. Como dije en el post del concurso, esto no es una victoria mía, es una victoria de todos los que me ayudaron altruístamente (sabéis quiénes soy y os lo agradezco con el corazón).

 

Los comienzos y la puesta a punto

El día que se anunció la keyword estábamos frente a la pantalla del ordenador para intentar coger todo lo que fuese posible con dicha keyword, y aquí cometimos un error: la puta tilde, me cago en sus muertos. Tomamos los dominios exactos en .com, .net, .es y .org, pero sin tilde. No era algo muy determinante, pero hubiese estado mejor haberlos pillado con tilde (algo muy poco común los dominios con tilde, jejeje). También alcanzamos a pillar el twitter exacto, página de Facebook, canal de Youtube y no sé cuántas cosas más. Una vez apuntamos todo lo dejamos guardado y nos olvidamos del concurso durante varios meses, para volver a retomar todo aproximadamente un mes antes de que terminase.

Desde un principio decidimos emplear Chuiso.com para concursar. Un blog que esta temporada 2013/2014 ha despuntado, que posiciona muy bien, con bastantes visitas, autoridad creciendo cada vez más y contenido fresco y con tendencia a compartirse mucho. Realizar un artículo podía no ser la mejor elección (un dominio con EMD tiene una ventaja abismal al tratarse de una keyword nueva que Google puede considerar como branding) pero era la más factible teniendo en cuenta que debía emplear mi blog (otra opción hubiese sido crear otro blog en un subdominio, algo rollo seovolucion.chuiso.com). Los handicaps eran que usar mi blog personal suponía afrontar el SEO negativo (solucionable), ataques DDoS (solucionables) y otro tipo de ataques (hablaremos de ellos más adelante). En definitiva, es mi blog y me lo follo cuando quiero.

 

El artículo-gancho para lograr más repercusión

Decidido esto teníamos que tener un plan de acción. ¿Como enfocar el artículo? ¿Incentivos? ¿Cómo hacer que despunte? La optimización interna de un artículo es algo sencillo y fácil de hacer, pero lograr que el artículo enganche, y en este caso siendo de una palabra inventada, no es fácil. Decidí ofrecer un incentivo (mi último ebook sobre cómo crear un blog de éxito) y también hacer un jugoso sorteo. Todo esto ayudó a mejorar la acción social, los comentarios, etc… Me curré una imagen muy chula de Dragon Ball al estilo Chuiso y un título que “retaba”: El Golpe Definitivo.

seovolución concurso de forobeta

El artículo que concursaba se publicó justo un mes antes de que acabase el concurso. Para ese entonces mi blog tenía graves problemas de optimización, sobrecarga, vulnerabilidades… Tuve que modificar el plugin de sitemap, optimizar todo e instalar y configurar un plugin de seguridad. No me atreví a cambiar el theme antes del concurso porque el que haya hecho esto varias veces sabes que a veces uno la puede “liar parda” cambiando el theme, así que preferí esperar a que acabase el concurso y realizar todo el lavado de cara después de ganar, por supuesto 😀 Al fin y al cabo la velocidad de carga y el código limpio y ordenador son dos factores más del SEO, de los cientos que hay. Con el linkbuilding bestial que se iba a realizar sobre esta URL esos factores quedaban en segundo plano.

Una vez publicado, era cuestión de esperar. Desde un principio sabíamos que los sorteos que ofrecí tenían una función clara: lograr reseñas muy variadas (y anchor text variados) en todo tipo de sitios variopintos. Una reseña, como todos sabéis, es un jugoso enlace contextual, así que mientras que con el sorteo lográbamos reseñas variadas hacia la URL, por nuestro lado ibamos consiguiendo enlaces en webs fuertes, sidebars, footers, donde fuese. Nivel de morralla máximo: era casi imposible que fuésemos penalizados a falta de 2-3 semanas, así que el SEO en un concurso como éste se debe hacer realmente mal y agresivo (debido a que la fecha de caducidad del concurso era inminente). También logramos mucha interación social artificial (Twitter y Facebook) y real (Google Plus). En un punto dado el spam en Twitter fue tan bestial que me convertí en tendencia en España jajaja (mi usuario, @chuisochuisez).

 

Creación de enlaces, juego sucio, SERPs…

Conforme iba pasando el tiempo logramos enlaces y más enlaces. José iba consiguiendo enlaces por donde podía, yo iba consiguiendo enlaces por debajo de las piedras, Luis Villanueva nos iba logrando enlaces por encima de ellas… Y así. Cada día me levantaba y tomaba nota de las nuevas reseñas que entraban a participar, charlaba con gente, y luego empezaba a gestionarlo todo… “José, como van las posiciones, consígueme enlaceeeees”, “Luis, que PR 8 me has conseguido hoy”… Jajaja, en realidad resultaba divertido.

De primeras nos colocamos, creo recordar, en 2ª/3ª página, y al cabo de 10 días ya estaba en primera página en todos los buscadores. Ojo, no os podéis imaginar, en serio, la cantidad de visitas que recibía/recibe ese artículo… Era bestial, muchísimas, miles, trillones, creo que en el contador de Analytics salía el símbolo de infinito 😀 Sin duda este artículo, de todos, era el que la gente más visitaba sobre Seovolución. Creó conflicto, fue novedad, fue algo que rompió los esquemas, al igual que la posterior entrada de Alex.

Lógicamente logramos enlaces de gran fuerza, no siempre de temática similar (digo lo mismo, corto plazo, y la palabra seovolución era una palabra inventada poco antes, sin una clara temática definida ante los ojos de Google), en sidebars, footers, contenido… Conforme pasaba el tiempo veíamos que nuestro porcentaje de anchor text de la keyword exacta era muy alto, pero gracias a los diversos ataques de SEO negativo que nos hicieron se niveló… Así que por eso le damos las gracias a los culpables jijiji.

Me encantaría poder citar a todos los que nos ayudaron altruístamente… Realmente con este concurso me di cuenta que eso del karma es cierto jeje 😎 En TeamPlatino gente me escribía diciéndome “Ey Chuiso te puedo colar un enlace en esta web que tiene mucha autoridad” y cosas similares. Se lo agradezco en el corazón :) Perdonadme este “momento Bisbal” jejeje.

Por otro lado un enlace que creo que fue clave fue el que conseguimos en el home de Webempresa, un hosting que siempre recomiendo y que me parece el mejor en nuestro querido idioma. Webempresa tiene una autoridad brutal (PR 7, PA 74 DA 69) y para conseguirme colocar el enlace incluso tuvieron que modificar el código del home de su web. Vale, yo promociono este hosting y lo podéis ver aquí, pero en serio, se lo pedí como favor y podían haberme dicho perfectamente que no se podía por cualquier motivo, tal y cuál… Pero no, me dijeron que sí. Desde aquí le mando un saludo a Gerard.

Y bueno, no hay mucho más que decir sobre el tiempo intermedio. Seguíamos manteniendo posiciones decentes (Top 5, top 3, a veces primeros durante unos días) y estábamos seguros de que acabaríamos subiendo. Pronto llegó la redirección del dominio exacto .com y todos creímos que la había hecho demasiado rápido, pero coño, a Google le gustó… Y si a Google se le pone que esa web es importante/oficial… Puff, difícil bajarla. Por otro lado estaba Antares, que visto lo visto estaba dispuesto a vender sus órganos vitales a cambio de enlaces en PR alto jejeje. Sin duda alguna su determinación y ganas para ganar este concurso fueron las más valorables de todos los participantes.

 

¡Una nueva incorporación sorprende!

En el proceso, a falta de 10-11 días, mi amigo Alex se apuntó al trenecito. Casualmente días antes le pedí un enlace de ayuda y me tuvo que mentir (lógicamente, no quería mostrar sus cartas), pero también me sacó algo de información sobre el SEO negativo que me estaban haciendo jeje.. Yo sé que el es buena gente, así que todo quedó en una mentirijilla que irremediablemente me tuvo que decir para poder competir en igualdad.

Sobre su participación, creo que vio la oportunidad de volver a sorprender, pero la cosa no salió bien (muchas veces el SEO es impredecible). Desde mi punto de vista, y desde el de José, jugó su gran baza, los periódicos, muy muy White para estar en un concurso a falta de 10 días de acabar, y en general su estrategia fue de 10 para un proyecto SEO común, pero no para un concurso como éste. Conseguía día a día enlaces en los periódicos más importantes de España, yo estaba flipando, ya solo le faltaba llamar a su coleguita Paco de la Nasa para que le pusiera un enlace en el home 😀 Pero bueno, finalmente (y afortunadamente para nosotros) no subió. Se me ocurren muchas teorías, pero todo sería especulación, así que diremos que fueron misterios inexplicables de Google.

Una ventaja que tuvo este año fue que todos los focos de atención (y de maldad) se centraron en Chuiso (porque entramos antes), así que no recibió apenas juego sucio, no como el que más abajo leerás que yo recibí. Una anécdota que me hizo mucha, mucha gracia (me meaba de risa) fue un forero de Forobeta que cuando faltaban menos de 30 minutos para dar los resultados dijo algo así como “Paciencia, que seguro que Alex aún guarda un as en la manga”. WTF, lo que hace la mitificación 😛

Pocos días después de que entrase Alex muchos de los participantes que estaban en los primeros puestos me contactaron para aliarnos (hacer una redirección 301), todo ello en un lapso de 3 días. Me hicieron todo tipo de ofertas, y alguno incluso me ofreció todo el dinero del premio, queriendo él únicamente el reconocimiento. Lo consulté con José y no aceptamos las ofertas. Por respeto no diré nombres, pero todos pensaban que Alex iba a subir rápido y… Fijaros, al final nanai de la China.

Otro traspiés que tuvimos fue el de un “SEO” que me puso un enlace en su web y luego me lo quitó y se puso a participar jajaja. En realidad más que darme miedo me resultó divertido. Su estrategia fue comprar un pack de trackbacks en Fiverr, lograr 15.000 RT con apps y algo de interacción social, subir rápido en un sólo buscador, bajar aún más rápido al inframundo, y luego decir que los enlaces eran seo negativo que le hicieron… Jajajaja, sin comentarios. No se nos puede engañar a los perros viejos 😉 Por supuesto tuvo el ego de hacer una captura de pantalla durante el poco tiempo que subió, y luego lo volvió a intentar repitiendo el proceso, pero no le sirvió de nada. Una anécdota que nadie recordará.

 

Comienza la marcha atrás… ¡Qué nervios!

El cronómetro de la desesperación se activó cuando quedaban 5-6 días para el final. La redirección no bajaba, me cago en todo… Y nosotros descendimos en puestos mediocres, así que durante el día 6, 5 y 4 empezamos a poner enlaces por nuestras redes de blogs y a pedir ayuda a todo quisqui… Y ya sin ningún tipo de contemplaciones… ¡Sidebars y footers a muerte, que el enlace esté en un sitio con potencia de antemano! Tal cuál pedíamos enlaces nos ocupábamos de que Google pasase por esa URL para que detectase el enlace rápido (ya ibamos a contrarreloj). El tiempo seguía pasando y a falta de 2 días ibamos perdiendo en todos los buscadores… Pero ey… ¿Por quién nos tomáis? Hasta ese momento todo el linkbuilding realizado era white y grey, así que si Google no nos quería subir a los primeros puestos, le obligaríamos: ¡¡BLACK HAT SEO madafakers!!

tecnica blackhat

El linkbuilding spammer bien seleccionado puede ser eficiente a muy corto plazo, así que mandamos algunos enlaces no muy spammers a la URL y blasteamos sin piedad los dominios que habíamos comprado. Hecho esto hicimos redirecciones de dichos dominios al artículo. Seguimos blasteando sin piedad gracias a Javi Muñoz 😉 y a la vez empecé a debatir con José los pros/contras de realizar el trick de “Google Freshness”, cambiar la fecha del post. Lo que hice fue borrar el post, publicar algo absurdo (ni recuerdo, era un post saludando a la gente) y volver a publicar el post de seovolución exactamente igual. Lo único que se perdió en el nuevo post fueron los comentarios de WordPress, pero eran realmente pocos. Toda la interacción social, linkbuilding, comentarios en Google Plus y demás permaneció. Luego indexé el artículo de nuevo a la velocidad de la luz gracias a un truco que mi socio José publicó y… ¡Tachán! Subimos en casi todos los buscadores (6) al primer puesto, y en los otros íbamos segundos. Un gif “Fuck Yeah” vale más que mil palabras:



Me imagino a mis rivales cuando revisaron posiciones… ¡Jajajajajajajajajajajajajaja! Menudo OWNED, solo me imagino frases como “la concha de su madre pero que hizo este Chuiso” “chuiso sos un putoooo” “pero que ha hecho coñooooooooooo”. No creáis que nosotros no nos sorprendimos, jejeje… Yo me tomé una birra tal cuál subimos a primera posición, y José un Bayleys (creo recordar). Quedaban 36 horas para terminar el concurso y nos habíamos puesto líderes, yeah. El resto del tiempo no hicimos mucho más, estar atentos de los ataques DDoS, evitar sorpresas y revisar las posiciones a cada rato. Bajamos en Google México a 2ª posición, y nos planteamos repetir la jugada del “Freshness”, pero yo no me atreví a reindexar la fecha de publicación del post nuevamente, y dudaba que tuviese algún resultado positivo (una vez acabó el concurso lo hice y continué en las mismas posiciones). José quería que lo hiciese, ¡pero le dije que ni de coña! Me dio canguele jejeje.

Y se acabó, el equipo de comprobadores de Forobeta (de varias partes del mundo) comprobaron las posiciones y por ahí se leía en todos lados CHUISO, jejeje. 5 victorias de 8 y en el resto de buscadores el 2º puesto. Algo curioso que me pasó fue que mi ordenador de sobremesa “petó” literalmente 5 minutos antes de decir los ganadores (y luego menuda guerra me dio el nuevo…), menos mal que tenía un netbook que me resolvió bien jeje.

Sobre mis rivales, si tengo que felicitar a alguien sería al argentino Leonardo, su victoria fue más que merecida y magistral, y también a mi colega Alex porque calentó el concurso e hizo que el tramo final fuese aún más épico. Aunque tengamos nuestras diferencias y no creo que le guste saber que José también gano la Seovolución, también felicito a Carlos Arreola por la organización del concurso y la gestión del mismo. Cobré el premio por otro medio ajeno a Paypal y se tomó muchas molestias para enviarme el dinero, todo hay que decirlo (y me banee o no mantendré esto). Cambiando de tema os dejo el archivo en el que se publicaron los resultados:

resultados

 

¡Vamos, todos a joder a Chuiso!

Algo que me sorprendió fue la cantidad de juego sucio que me hicieron prácticamente desde el principio… Parecía que supiesen que ibamos a ganar desde un principio. Es difícil citar del tirón, así que iré enumerando todo lo que me han hecho:

3 ataques de SEO negativo que sumaron más de 15.000 enlaces con anchors de lo más variopinto: “anal sex” “gore online” “buy drogs” “asian porn” y “chuiso estafador” entre otros. El primer ataque se realizó apenas entré en el concurso, y ni siquiera estaba en los 10 primeros puestos, y el segundo algo después. No es muy complicado imaginarse quién me mandó esta retahila de enlaces nocivos de ScrapeBox, jejeje, pero yo soy un caballero y además el ganador, así que no diré nada al respecto. También cayeron en lo más bajo del ser humano atacando directamente mi dominio con la keyword “ALVARO SAEZ ES ESTAFADOR”, ya con la victoria en mi poder 😀 Lo que hace la envidia jiji
Inclusión de mi web en la lista de web peligrosas y bloqueadas de Trend Micro. Si venís aquí http://global.sitesafety.trendmicro.com/ y ponéis Chuiso.com lo veréis (Spam y Disease Vector, que ofrezco software malicioso y virus jajaja). Tampoco es difícil saber quién hizo ésto porque lo ha hecho muchas veces en el pasado (tengo constancia de ello) e incluso nos lo han hecho en nuestra red de blogs. No es un factor relevante desde mi punto de vista, solo se pueden perder algunas visitas que tengan ese bloqueador instalado.
Intento de acceso a mi blog en repetidas ocasiones. Logueos continuos que gracias al plugin de seguridad que tenía instalado (Bullet Proof Security) se quedaron en otro intento de joderme 😉
¿Intentos de ataques DDoS? Ni lo dudéis, sería la única guarrada que quedaría por hacerme, pero estaba protegido ante el ataque 😀 (aunque un ataque DDoS bien hecho es casi imposible de parar). Realmente los doseos no tienen mucho sentido, tendrían que tirarte la página durante un par de días para que afectase al posicionamiento en Google.
Tráfico zombie, muuuucho tráfico zombie, seguramente consecuencia de los factores anteriores.
Más de mil suscriptores bots a mi lista de suscriptores de Jetpack. No entiendo muy bien si esto fue adrede, como consecuencia del linkbuilding spammer… Quizás simplemente por rabia e impotencia porque la victoria se la llevó Chuiso.com 😉
Y, con todo esto, nos llevamos 5 buscadores de 8, y 2º puesto en los otros 3, así que a la mente maestra que ideó todo esto le digo que su juego sucio me lo pasé por el beicon y le ganamos. ¡Jajaja!

 

Una dedicatoria final

No, no me voy a despedir con una bisbalada jejeje. Aquí mi nivel de agresividad aumentará durante el próximo párrafo 😀 Cabe decir que no tardé mucho en leer “Sí, pero ya veremos quién sigue ahí dentro de unos meses…”. “Eso no sirve, a ver si aguantan…”… “Gurú bla bla bla”, jejeje, chorradas. ¿Os pensáis que yo blackhateo indiscriminadamente mis proyectos serios? Hombre por favor… SEOvolución era un concurso cuyo objetivo era ponerse primero en Google el día 6 de Abril, punto. Eso lo sabía todo el que participaba. Es lógico que luego haya bailes: una redirección como la de Seonutz tiene fecha de caducidad limitada, y yo a las 12:01 del día 6 de Abril, tan pronto ganamos, ya estaba quitando todos los enlaces fuertes que tenía, de modo que se quedarán los 15.000 backlinks de SEO negativo que me hicieron… ¿Con eso me voy a mantener en las SERPs para esa keyword? Jajajaja, ni siquiera creo que me convenga mantener esa URL en mi blog… O quién sabe, quizás le haga una redirección a algún enemigo 😀 Lo que quiero decir con esto es que no hagáis caso a las gurúcharlas que intentan dar personas que se creen nuestros SEOpadres (y no tienen ni puta idea de la realidad y la practicidad del SEO, el trabajo de campo). Si son tan listos, que hubiesen concursado ellos y tengan cojones de ganarnos 😀 ¡Ah no, se me olvidaba! Que los gurús sólo ha-blablabla-n y únicamente traducen posts de SEOs ingleses… Jajaja.

 

Jejeje, en fin, para terminar este extensísimo artículo me gustaría recomendarte que pruebes mi curso online TeamPlatino… ¿Por qué? Sencillo, porque SEOvolución lo hemos ganado, precisamente, los que impartimos este curso, y creo que este proyecto al que tanta dedicación pongo merece la pena 😉

 

¿Me he gastado la pasta en cerveza?

Claro que no, afortunadamente mi amigo español Juan Carlos Navarro me trajo unas cervecitas en su breve paso por Santo Domingo 😎 Así que pude invertir mi parte del premio (1.250 dólares) en una buena acción, algo que tenía decidido desde hace mucho pero nunca dije. En este país he visto mucha pobreza, he visto cosas muy chungas, mucha miseria, y me ha dado mucha pena. Yo vengo de España y por la calle no se ven las cosas que he visto por aquí… Pero aquí también he visto ilusión, alegría (a pesar de la pobreza) y superación. También he comentado alguna vez que trabajo en una escuela de fútbol y colaboramos con la Fundación del Real Madrid, que opera en un colegio de escasos recursos. Gestioné con el profesor de educación física (un buen amigo) la donación y le pedí una lista con todo lo que necesitaban. No quería donar el dinero, quería comprar las cosas que necesitasen y entregárselas (es mejor así).

Luego le pedí ayuda a mi buen amigo Víctor de BajaleAlgo.net (que también publicó un artículo al respecto) y nos pasamos dos días completos dando vueltas por Santo Domingo para comprar todo lo necesario: zapatos, zapatillas (tenis aquí), botas de fútbol (ganchos aquí, lo que todos los niños querían jeje), ropa escolar, balones de fútbol, fundas de comida… Le agradezco a Víctor la paciencia que tuvo conmigo 😉 Sin duda este webmaster y blogger dominicano es uno de mis grandes amigos en esta bella isla. En definitiva gasté prácticamente el 85-90% del premio en la donación, y el otro 10-15% fue aproximadamente lo que se invirtió en dominios y demás gastos necesarios para ganar el concurso. Os dejo unas de fotos del día en cuestión:

donacion 3

Hablando de Black Hat SEO, por supuesto…

donacion 2

Las doñas de la escuela sirviendo una picadera que organizamos XD

0 comentarios:

Publicar un comentario en la entrada

Related Posts with Thumbnails

Para Aprender

 

Trucos Pc - Trucos para MSN, Trucos para Windows, Programas, Multimedia ..... Copyright 2008 All Rights Reserved -- Nota legal: El presente sitio web es un blog personal de divulgación de NOTICIAS publicas sacadas de otras fuentes de noticias y punto de encuentro de consumidores y usuarios,como este sin finalidades comerciales ni ánimo de lucro. El titular del sitio web no ofrece productos o servicios de ningún tipo ni mantiene relación comercial alguna con ninguna de las fuentes citadas que son los titulares de los derechos de propiedad industrial sobre la marca que cito en las fuentes Revolution Two Church theme by Brian Gardner Converted into Blogger Template by Bloganol dot com

type='text/javascript'/>