• Skip to primary navigation
  • Skip to main content
  • Skip to primary sidebar

Planeta M podcast

  • ✍️ Suscríbete
  • 😎 Sobre nosotros
  • 📕 Temas
    • SEO
    • Marketing de contenidos
    • Redes sociales
    • Ecommerce
    • Email marketing

Episodio 67: Combatir el SEO negativo

enero 10, 2020 by Pol Rodríguez 6 Comments

En el episodio 67 de Planeta M hablamos de SEO negativo con David Ayala, Marc Cruells y Pol Rodríguez ❌

  • El SEO negativo no es Black Hat
  • Qué es el SEO negativo
  • Sectores peligrosos
  • Cunde más invertir en crecer que gastar recursos en hundir a tu competencia
  • Cómo detectar el SEO negativo
  • Cómo defenderte del SEO negativo
  • SEO negativo por enlaces: sitios penalizados, volumen de enlaces, enlaces en sitios buenos con anchor sobreoptimizado,
  • El riesgo de hacer disavow de los enlaces equivocados
  • Herramientas para detectar enlaces negativos
  • Webs bloqueadas a herramientas de rastreo para que no detectes enlaces tóxicos
  • El uso de dominios gratuitos
  • PVNs negativas con dominios penalizados
  • Usar herramienta pequeñasde rastreo pequeñas que no bloquean
  • Ojo con cargarse enlaces por disavow que sí son buenos
  • Google dice que controla el SEO negativo
  • La importancia de revisar los proyectos por si a caso y reaccionar rápido
  • SEO negativo onpage y offpage
  • Hackeos, vulnerabilidades…
  • Perder el tiempo buscando quien es
  • Denegaciones D2
  • Tráfico fantasma con un alto rebote: simulación de mala experiencia de usuario
  • Simular pogo-sticking
  • SEO negativo escrapeando e indexando primero los contenidos
  • ¿Qué hacer en caso de ataque?
  • ¿Se pueden prevenir este tipo de ataques?
  • Hacer SEO negativo no es fácil
  • Redirección de dominios dañinos

Y además…

  • Mejor no explicar los ingredientes de la bomba
  • Pinguin abrió la caja de los truenos
  • Servicios de Fiverr que solo cambian el título
  • La estrategia de Ayala de la huida para adelante
  • Si Google entendiera los enlaces no existiría el SEO
  • Comida para perros peludos
  • Daños colaterales
  • Autoataques de SEO negativo
  • La web seonegativo
  • Redes tóxicas
  • Si recibes un ataque es que estás haciendo las cosas bien
  • Ir como pollo sin cabeza
  • El lado oscuro de la fuerza

Menciones para Chuiso y Rubén Alonso.

  • Este es el post de Rubén sobre el tema: ¿Qué hacer si te han copiado contenido? (caso real)
  • Este es el post de Chuiso sobre el tema: Blindando nuestro blog de copiotas a lo «Chuiso Style»

Este es el hilo donde Pol contó las cifras de Planeta M en 2019:

El año que hemos vivido en el #podcast @PlanetaM7 ha sido BRUTAL!!!! 🎉🙌👏

Empiezo un hilo con todos los datos del 2019 en detalle.

Espero que a alguien le puedan resultar útiles 😉 pic.twitter.com/9WVQ8fPjIH

— Pol Rodríguez (@polrodriguezriu) December 31, 2019

¡Saludos!

5 / 5 ( 3 votos )

Filed Under: SEO

Reader Interactions

Comments

  1. Óscar says

    enero 10, 2020 at 16:12

    Buenas, muy interesante el podcast, el seo negativo es algo que no pasa hasta que pasa.

    Tengo un pregunta:
    Cuando se generan muchas urls dinámicas no deseadas, por ejemplo, utilizando un buscador y google te indexa miles de resultados, ¿cuál sería el procedimiento para arreglarlo? ¿noindex en la página del buscador (en otros casos quizás enviar un 404) y esperar, o se puede hacer algo para acelerar el proceso?

    Gracias!

    Responder
    • Pol Rodríguez says

      enero 10, 2020 at 16:19

      ¡Buenas Óscar!

      Muchas gracias. Le cedo la respuesta a Marc o David que dominan el tema.

      Saludos,

      Pol

      Responder
  2. Marc says

    enero 10, 2020 at 16:56

    Hola Óscar
    Efectivamente, lo ideal es que estén en NOindex, para que no se indexen, si no lo tienes deberías ponerlo.
    También sería ideal bloquear esa zona a los robots de Google, para que los bots de Google, no pierdan el tiempo rastreando esas URLS.
    Pero si ya lo tienes indexado, no lo bloquees de momento porque va a tardar más en desindexar. Lo que puedes hacer es lo siguiente:

    1 Asegúrate de que tienes todas esas URLS en NOindex
    2 Crea un sitemap con todas las URLS y se lo mandas a google (Search Console).
    3 Espera a que desindexen (2 o 3 semanas, dependiendo de la cantidad de URLS)
    4 Cuando estén desindexadas, eliminas ese Sitemap can las URLS malas y las bloqueas por Robots.txt

    Así ya no deberían indexarse más, puesto que están en Noindex, y se deberían rastrear menos a menudo, puesto que las has bloqueado.

    Si esto no te sirve, también tienes una opción de borrar URLS de google, con el Search Console (Versión vieja). Puedes utilizarlo, aún que te recomiendo que primero intentes hacerlo con el protocolo que te he pasado.

    PD: Si tienes alguna duda, pregunta de nuevo, ok

    Responder
  3. Óscar says

    enero 13, 2020 at 09:14

    Muchas gracias, Marc, me has resuelto todas las dudas que tenía.

    Responder
  4. Mario says

    mayo 29, 2020 at 14:48

    Hola hacia el minuto 13 se mencionan dos herramientas, una como algo así «link the toxs» que no sé cómo se escribe porque no la encuentro, gracias

    Responder
    • Pol Rodríguez says

      mayo 30, 2020 at 04:46

      Hola Mario! Se trata de esta herramienta: https://www.linkdetox.com/

      ¡Saludos!

      Pol

      Responder

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

sidebar

sidebar-alt

Planeta M Podcast 2020 🌑 ·
  • Sobre nosotros
  • Ivoox
  • Spotify
  • Apple Podcast
  • TuneIn
  • Aviso legal