agentes inteligentes para seo
TRANSCRIPT
Agentes de Información y Web Semántica Master IARFID
Agentes Inteligentes para SEO
David Calabuig López [email protected]
_______________________________________________________________________________________
Abstract Empezando con los códigos semánticos, contenidos de calidad, la personalización de la Web Semántica, la recopilación de datos y la ayuda de la Inteligencia Artificial, podríamos alcanzar la llamada World Wisdom Wide Web o wwww, posibilitando a los agentes inteligentes una mejora en el posicionamiento web.
___________________________________________________________________
1 INTRODUCCIÓN
El posicionamiento en buscadores
u optimización de motores de búsqueda
es el proceso de mejorar la visibilidad de
un sitio web en los resultados orgánicos
de los diferentes buscadores. También es
frecuente nombrarlo por su título inglés,
SEO (Search Engine Optimization). En
los últimos años, la generalización de las
estrategias de posicionamiento en
buscadores y su implementación en un
mayor número de websites, han logrado
generar la consciencia que ocupar los
primeros puestos en las páginas de
resultados puede ser crucial para un sitio.
En los últimos años, los motores
de búsqueda están incorporando nuevas
variables que es necesario tomar en
cuenta para la optimización de un sitio
web. Estas variables, o arquitecturas
web, y su repercusión para los
buscadores son las siguientes:
WEB STANDARDS
En 2006 se crea un conjunto de
directrices del W3C [4] que orientan a
los desarrolladores a la creación de
una web accesible a todos. Cuando
separamos el contenido de la
presentación, o sea, HTML, CSS y
JScript, obtenemos páginas con código
más limpio, de fácil manutención y más
semántico.
La relación con el SEO es que
al desarrollar un site accesible lo hace
más comprensible para el usuario, así
como para los mecanismos de búsqueda.
Un ejemplo de estas directrices son las
etiquetas <h>, si se compara la etiqueta
<h1> con
<p><strong>Título</p></strong>, la
etiqueta <h1> tiene más significado y
agrega más valor al contenido, aparte de
disminuir el tiempo en el que se carga
una página, que es uno de los factores de
posicionamiento web así como el uso de
la palabra clave en la etiqueta <h1>.
HTML5
Agentes de Información y Web Semántica Master IARFID
En 2009 nació HTML5,
arquitectura que llegó con nuevos
elementos que ayudan todavía más en la
estructuración de la página, tanto para
los desarrolladores como para los
buscadores. Algunos de estos nuevos
elementos son:
<header>, <article>, <section>, <nav>, <
details>, etc.
Estos elementos todavía no son
algo relevante para los algoritmos de
búsqueda, pero con toda seguridad que
lo serán para el futuro, pues con la
segmentación se conseguirá organizar
todavía más el contenido de nuestro site.
Con las páginas HTML5, los buscadores
empezaran a dar más atención a estas
páginas. Según JohnMu, de Google,
cuando los desarrolladores empiecen a
utilizar correctamente estos elementos,
entonces los buscadores percibirán que
el lenguaje trae información adicional y
así el algoritmo podrá ser cambiado [3],
dicho cambio afectaría directamente al
posicionamiento tal y como lo ha hecho
los algoritmos Panda y Penguin (ver
Apartado Análisis).
WEB SEMÁNTICA
La idea surgió en 2001, cuando
Tim Berners-Lee, James Hendler y Ora
Lassila publicaron un artículo en la
revista Scientific American titulado:
“Web Semántica: un nuevo formato de
contenido para la Web que tiene
significado para ordenadores va iniciar
una revolución de nuevas posibilidades.”
Un ejemplo interesante es
el Swoogle, un mecanismo de indexación
y búsqueda de documentos de Web
Semántica, desarrollado por la
Universidad de Maryland. El Swoogle
indexa documentos RDF y OWL y
extrae metadatos y computa relaciones
entre ellos, cosa que no sucede con el
HTML puro.
La relación con SEO de la Web
Semántica es que las búsquedas en
Google, por ejemplo, serían más
organizadas, los nichos de trabajo muy
mejorables y definidos, y los resultados
para los usuarios mejor personalizados y
con más sentido. Tenemos también la
aplicación de los Microformatos [5], que
ya son muy utilizados actualmente y que
poseen el objetivo de agregar semántica
a documentos XML y (X)HTML,
explicando de forma básica.
WEB INTELIGENTE
Por último, cuando se juntan los
puntos de semántica, personalización,
comprensión y previsión de
comportamiento del usuario,
encontramos un nuevo campo, todavía
menos explorado: la Web Inteligente.
La Web Inteligente puede ser
entendida como una dirección para la
búsqueda científica y el desarrollo que
explora los fundamentos y aplicaciones
prácticas de la inteligencia artificial y
tecnología de la información en la
próxima generación de productos,
servicios, sistemas y las diversas
actividades introducidas en la Web.
Básicamente, la Web Inteligente
podría ser resumida como:
Combinación de Inteligencia
Artificial con Tecnología de la
Información
Aplicaciones de Inteligencia
Artificial en la Web
Agentes de Información y Web Semántica
Master IARFID
Sistemas de información
inteligentes en la Web
El gran objetivo de la Web
Inteligente es poder identificar y
segmentar usuarios de manera única;
objetivo que sería la base de la
personalización.
La relación con el SEO sería
la personalización de las búsquedas. Esta
personalización se convierte entonces,
un factor principal para: presentar sites
en las búsquedas dependiendo del perfil
del usuario, hacer una recomendación
dinámica a un usuario; modificación
automática del contenido de un website y
su organización; combinación de datos
de la Web con datos de marketing para
mostrar informaciones sobre como los
visitantes utilizan el website y montar
estrategias, pero esto todavía está muy
lejos para el alcance de los webmaster.
2 DESCRIPCIÓN
En este apartado se explican las
posibles mejoras que podrían solucionar
el SEO de un site con ayuda de agentes
inteligentes, para ello comentaremos el
papel que tendría un agente inteligente
en las diferentes directrices que hoy en
dia se tienen que aplicar a un site para
mejorar el posicionamiento web:
i. Para realizar un buen SEO ON
PAGE; dicho en otras palabras
usar la palabra clave en el titulo,
descripción y url, se utiliza el
plugin de Yoast [6]. Es un plugin
muy exitoso para la configuración
SEO dentro de nuestro
WordPress, siendo considerado
como uno de los mejores y más
complejos. Una característica
interesante de este plugin frente a
otros de su mismo estilo, es que el
WordPress SEO by Yoast nos
provee un sistema de detección de
errores SEO dentro de cada
artículo. Dicho plugin utiliza un
sistema tipo semáforo que nos
indica la calidad de SEO que
estamos realizando dentro de
nuestro artículo, variando desde el
color rojo como una mala
configuración, hasta el color
verde mediante el cual podríamos
decir que hemos cumplido lo
básico dentro del posicionamiento
SEO de nuestro artículo. Aquí es
donde se podría utilizar un agente
inteligente para poder pasar del
semáforo rojo al verde.
ii. Si hablamos de mejorar la
posición en los buscadores, uno
de los puntos más importantes es
el conseguir backlinks a nuestro
sitio web. Pero hay que tener
cuidado con los enlaces que
apunten a nuestro site ya que
“gracias” a uno de los algoritmos
de Google conseguir enlaces
puede ser perjudicial. Este
algoritmo recibe el nombre de
Penguin [2], con dos versiones
2012 y 2013, este algoritmo odia
enlaces de poca calidad, enlaces
de otras web de diferente temática
y enlaces con el Anchor Text
sobreoptimizado; es decir cuando
todos los backlinks de nuestro
sitio tienen el mismo Anchor Text.
Por tanto un uso de agentes
inteligentes podría ser el poder
conseguir enlaces de calidad de
diferentes webs pero de la misma
Agentes de Información y Web Semántica Master IARFID
temática que la de la web para la
que queremos conseguir enlaces.
iii. Otra manera de mejora el SEO es
solucionar el problema de cuando
un usuario escribe o pega una
URL en la barra de direcciones, o
hace clic en un enlace que no
funciona y llega a una página
donde le sale el error del
navegador “Error 404 página no
encontrada”.
Desde el punto de vista SEO,
estas páginas se consideran
errores muy graves ya que afectan
negativamente al posicionamiento
SEO y ofrecen una mala
experiencia al usuario que está
navegando por la red. Las
diferentes causas que provocan el
error 404, son las siguientes:
Una URL mal escrita.
Un enlace caducado en una
página de resultados de búsqueda.
Un enlace interno que el
webmaster no había identificado.
Por tanto, un uso de agentes
inteligentes podría ser que cuando
encontrase una url mal escrita que
la reescribirá correctamente, o
para la segunda y tercera causa
cuando el enlace esta caducado o
es un enlace no identificado que
lo redireccione directamente al
index de la página web.
iv. Otro punto importante es la tasa
de rebote de nuestro portal, este
factor ha ganado importancia
gracias al algoritmo Panda que
salió en 2011 [2], dicho algoritmo
odia sites con contenido delgado,
sites con una tasa de rebote alta y
granjas de contenido. La tasa de
rebote de una Web es algo
bastante controvertido, pero hay
que entenderla como el usuario
que no hace nada cuando entra a
una Web y se va. La mejora
usando un agente inteligente para
disminuir nuestra tasa de rebote
seria que cuando nuestro usuario
no haya hecho nada o un artículo
tenga muchas salidas que el
agente inteligente advirtiera al
usuario si no quiere visitar otros
artículos o noticias de un tema
relacionado.
v. Otro punto muy importante es la
velocidad de carga de la web. Un
buen uso de un agente inteligente
podría realizar las siguientes
acciones para reducir el tiempo de
carga:
Limpiar el código: El código no
es lo que más ocupa, pero se abre
muchas veces. Limpiar los
archivos html, css y php de
anotaciones innecesarias.
Combinar los Javascript: Si hay
más de 3 o 4 javascript que se
cargan en todas las páginas, es
muy buena idea combinarlos en
un solo archivo y se ahorraría
peticiones y tiempo.
Reducir el número de consultas de
DNS: Tratar de no enlazar ni
cargar imágenes desde muchos
dominios diferentes. Tratar de
hacer todas las peticiones http a tu
mismo dominio. Si no tardaría
mucho en resolver las diferentes
peticiones y aumentaría mucho el
tiempo de carga.
Agentes de Información y Web Semántica
Master IARFID
3 CONCLUSIONES
La Web 3.0 se trata de pasar
adelante con Internet, sobre cómo
mejorar, o dicho de otro modo de cómo
tratar los datos, y lo que hacemos con
ellos… y lo que la máquina hace con
ellos. La parte más importante de la web
3.0 es la capacidad de la máquina para
manipular los datos. La trayectoria
general parece ser la de permitir que los
agentes inteligentes web entiendan el
contenido web.
Por tanto una posible definición de
la Web 3.0 es que un site utilice la
inteligencia artificial para permitir una
web con capacidades de razonamiento, y
así poder utilizar agentes inteligentes
para mejor mejorar el posicionamiento
web del site. Pero para esto todavía
queda mucho.
Referencias
[1] Web Intelligence Consortium
Chile Research Centre [Online]
http://wi.dii.uchile.cl
[2] Matt Cutts: Gadgets, Google, and
SEO [Online]
http://www.mattcutts.com/blog/
[3] Smashing Magazine [Online]
http://coding.smashingmagazine.c
om/2009/07/16/html5-and-the-
future-of-the-web/
[4] World Wide Web Consortium
http://www.w3c.es/
[5] Microformatos [Online]
http://es.wikipedia.org/wiki/Micro
formato
[6] Comunidad de recursos
educativos gratis
http://www.formaciononlinegratis
.net
[7] Cursos online
http://www.formaciononline.co
[8] Todo sobre el SEO
http://www.davidcalabuig.es