Cuando alguien busca «automatización de auditorías SEO con IA«, suele esperar una lista de herramientas caras o un agente mágico que lo resuelva todo solo. La realidad es que este proceso se podía automatizar desde hace bastantes años (a falta de un ojo humano que también tome algunas decisiones o personalice algunos aspectos).
En este artículo te muestro un flujo concreto para semiautomatizar una auditoría SEO técnica usando Python, Screaming Frog, Google Drive y Looker Studio. No hay IA en el núcleo del proceso, y eso es precisamente el punto.
Al final, sí verás algunas ideas para usar la IA en el proceso.
Qué significa realmente «automatizar» una auditoría SEO
Automatizar no significa que nadie haga nada. Significa eliminar las tareas repetitivas como abrir Screaming Frog manualmente, exportar doce pestañas de datos una por una, copiar y pegar en Excel, subirlo a Drive, actualizar el dashboard…
Esos pasos consumen bastante tiempo por proyecto que se puede aprovechar para otros pasos.
La semiautomatización apunta a ese tramo donde recogemos toda la información del dominio y la plasmamos en un documento de presentación. El análisis y las conclusiones siguen siendo propias, aunque en este paso a día de hoy podría ayudarnos la inteligencia artificial.
El flujo completo: Screaming Frog + Python + Drive + Looker Studio
El flujo que vamos a ver tiene tres pasos encadenados. Cada uno resuelve un problema concreto y, juntos, convierten una mañana de trabajo manual en algo que se ejecuta mientras puedes centrarte en otras tareas.
Paso 1 – Interfaz Python para lanzar Screaming Frog por consola
Screaming Frog tiene modo CLI (command line interface). Permite lanzar rastreos desde la terminal sin abrir la interfaz gráfica, pasando la URL, la profundidad de rastreo, las exportaciones a generar y la carpeta de destino como argumentos.
El problema es que la sintaxis es larga, poco intuitiva y propensa a errores si la escribes a mano cada vez. Para resolver eso, creé este script open source: github.com/queseo/Screaming-frog-with-Python-Interface.
Lo que hace es proporcionar una interfaz interactiva por consola: te pregunta la URL del sitio, las opciones de configuración y lanza el rastreo con el comando correcto. No tienes que recordar flags ni rutas. Escribes lo que quieres auditar y el script se encarga del resto.
Screaming Frog genera, dependiendo de la configuración, entre 8 y 15 ficheros CSV con datos distintos: URLs, redirecciones, imágenes, encabezados, hreflang, sitemaps, datos estructurados…
Debo decir que el script es antiguo y está sin actualizar a las nuevas versiones.
Sí que Screaming Frog permite subir ahora todos los ficheros a Drive, pero te sube (o subía) los ficheros separados y eso puede ser un poco problema si tienes que estar buscando la hoja concreta cada vez.
Paso 2 – Unificar todos los exports en un único Excel
Tener quince CSV sueltos no es un informe. El mismo script recoge todos esos ficheros de la carpeta de exports y los combina en un único Excel con una hoja por cada tipo de dato.
El resultado es un archivo estructurado listo para subir a Google Drive.
Este paso solo requiere pandas y openpyxl. El código itera sobre los CSV, los normaliza mínimamente (columnas en mayúsculas, tipos de datos básicos) y los vuelca en el Excel con una hoja por fichero.
Paso 3 – Looker Studio como dashboard conectado a Drive
Con el Excel en Drive, el último paso es la visualización. Looker Studio (antes Data Studio) permite conectarse a archivos de Google Sheets o a ficheros de Drive como fuente de datos.
La estrategia aquí es crear una plantilla de Looker Studio con cada hoja del Excel conectada a un origen de datos distinto. Una hoja para las URLs con errores 4xx, otra para las redirecciones, otra para los títulos duplicados, otra para los Core Web Vitals… Cada bloque del dashboard extrae datos de la hoja correspondiente.
Una vez montada la plantilla, se reutiliza para todos los proyectos. Solo hay que apuntar el origen de datos al Excel del cliente en cuestión. El dashboard entero se actualiza solo. No hay que construir nada desde cero para cada auditoría nueva, pero si existen campos personalizados, requiere retocarlos manualmente.
No necesitas IA para tener un proceso de auditoría automatizado
Es tentador pensar que sin IA no hay automatización, pero este no es el primer proceso ni el último que se automatiza antes de la IA.
Herramientas como Oncrawl, Semrush, Ahrefs y Se-Ranking tienen también sus propias herramientas de auditoría. Tienen limitaciones en la personalización, pero incluyen API’s para extraer la información y conectarla a herramientas para mostrar los datos y cruzarlos con nuestra auditoría.
Por ejemplo, para exportar los datos de proyectos de Semrush, es algo más complejo de lo que podemos ver en la documentación de su API (no se si lo actualizaron, pero en caso de que no, aquí explico cómo exportar información de los proyectos de Semrush por API).
Si todo esto lo juntamos con Python (que tiene un montón de recursos ya montados para SEO) y las API’s de Google, tenemos acceso a un montón de información sin necesidad de la IA para trabajar.
La IA tiene sentido en los pasos que implican interpretación, no en los que implican ejecución mecánica. Mover datos de un sitio a otro, renombrar columnas, generar un Excel con X hojas, eso ya lo hacen los lenguajes de programación.
Automatizar no es sinónimo de «con IA». Muchas veces es sinónimo de «con código». Y el código, en este caso, es más fiable, más barato y más fácil de auditar que cualquier agente.
Dicho esto, hay partes del flujo donde la IA sí puede aportar valor real. Y no son pocas.
Cómo mejorar este flujo con IA
Una vez que tienes los datos limpios y centralizados, la IA tiene mucho más contexto para trabajar. Aquí hay algunas ideas de formas concretas de incorporarla al flujo sin que todo dependa de ella.
Priorización inteligente de problemas técnicos
No todos los errores son iguales y cuando optimizamos un sitio web, nos encontramos con muchas cosas que necesitamos arreglar.
Un agente con acceso a los datos de rastreo y a métricas de tráfico (GSC, GA4) puede calcular automáticamente un score de prioridad para cada incidencia y hacernos sugerencias de por dónde empezar a optimizar, qué priorizar y tener una planificación sobre las tareas a realizar.
Keyword research
La clasificación del keyword research es algo que lleva tiempo y a pesar de que la IA no puede automatizar todo el proceso, si que nos puede ayudar con ciertas clasificaciones siempre que estas sean pequeñas.
Aquí viene bien apoyarse de herramientas de automatización como make o n8n, aunque también podemos crear nuestro propio sistema directamente con código o agentes.
Presentaciones a clientes mejoradas
Otro paso que podríamos hacer, en vez de crear la presentación desde un looker studio, a día de hoy ese excel, se podría entregar a una IA para que nos creara una presentación directamente con toda la información.
Aquí se me ocurre que una skill bien preparada en Claude podría funcionar muy bien en este proceso.
Automatizar auditorias con make / n8n / agentes de IA
Esto también se podría hacer, pero llevaría mucho tiempo montar el proceso, sabiendo que ya partimos de herramientas muy buenas que tiene el mercado y no paran de crecer.
Pero si queremos opciones más personalizadas y adaptadas a nuestros procesos, es un paso interesante, principalmente para aquellas agencias más grandes que tienen su propio sistema y quieren invertir en desarrollarlo, mejorarlo y optimizarlo.
Preguntas frecuentes
¿Necesito conocimientos de programación para usar este flujo?
Un nivel básico de Python es suficiente para instalar dependencias y ejecutar el script.
¿Screaming Frog CLI está disponible en todas las licencias?
El modo CLI requiere una licencia de pago de Screaming Frog. La versión gratuita no tiene acceso a la línea de comandos ni permite rastreos ilimitados.
¿Puedo usar este flujo para auditorías recurrentes de clientes?
Sí, es precisamente para lo que está pensado, pero el script está sin actualizar para las últimas versiones de Screaming Frog SEO Spider.
¿Qué pasa si el sitio tiene muchas URLs y el Excel se vuelve muy pesado?
Looker Studio gestiona bien archivos de hasta varios miles de filas por hoja. Para sitios muy grandes (cientos de miles de URLs), lo mejor sería conectar directamente a BigQuery o a una base de datos en lugar de pasar por Excel y tener algún sistema más personalizado para visualizar la información.
¿La IA puede cometer errores al analizar los datos del rastreo?
Sí. Los LLMs pueden malinterpretar datos numéricos o priorizar mal si el contexto no está bien estructurado. Por eso en el flujo propuesto la IA actúa como capa de análisis auxiliar, no como ejecutora principal. El SEO siempre debe validar las salidas antes de entregarlas.