agentes inteligentes para seo

5

Click here to load reader

Upload: david-calabuig

Post on 13-Jun-2015

75 views

Category:

Technology


1 download

TRANSCRIPT

Page 1: Agentes inteligentes para seo

Agentes de Información y Web Semántica Master IARFID

Agentes Inteligentes para SEO

David Calabuig López [email protected]

_______________________________________________________________________________________

Abstract Empezando con los códigos semánticos, contenidos de calidad, la personalización de la Web Semántica, la recopilación de datos y la ayuda de la Inteligencia Artificial, podríamos alcanzar la llamada World Wisdom Wide Web o wwww, posibilitando a los agentes inteligentes una mejora en el posicionamiento web.

___________________________________________________________________

1 INTRODUCCIÓN

El posicionamiento en buscadores

u optimización de motores de búsqueda

es el proceso de mejorar la visibilidad de

un sitio web en los resultados orgánicos

de los diferentes buscadores. También es

frecuente nombrarlo por su título inglés,

SEO (Search Engine Optimization). En

los últimos años, la generalización de las

estrategias de posicionamiento en

buscadores y su implementación en un

mayor número de websites, han logrado

generar la consciencia que ocupar los

primeros puestos en las páginas de

resultados puede ser crucial para un sitio.

En los últimos años, los motores

de búsqueda están incorporando nuevas

variables que es necesario tomar en

cuenta para la optimización de un sitio

web. Estas variables, o arquitecturas

web, y su repercusión para los

buscadores son las siguientes:

WEB STANDARDS

En 2006 se crea un conjunto de

directrices del W3C [4] que orientan a

los desarrolladores a la creación de

una web accesible a todos. Cuando

separamos el contenido de la

presentación, o sea, HTML, CSS y

JScript, obtenemos páginas con código

más limpio, de fácil manutención y más

semántico.

La relación con el SEO es que

al desarrollar un site accesible lo hace

más comprensible para el usuario, así

como para los mecanismos de búsqueda.

Un ejemplo de estas directrices son las

etiquetas <h>, si se compara la etiqueta

<h1> con

<p><strong>Título</p></strong>, la

etiqueta <h1> tiene más significado y

agrega más valor al contenido, aparte de

disminuir el tiempo en el que se carga

una página, que es uno de los factores de

posicionamiento web así como el uso de

la palabra clave en la etiqueta <h1>.

HTML5

Page 2: Agentes inteligentes para seo

Agentes de Información y Web Semántica Master IARFID

En 2009 nació HTML5,

arquitectura que llegó con nuevos

elementos que ayudan todavía más en la

estructuración de la página, tanto para

los desarrolladores como para los

buscadores. Algunos de estos nuevos

elementos son:

<header>, <article>, <section>, <nav>, <

details>, etc.

Estos elementos todavía no son

algo relevante para los algoritmos de

búsqueda, pero con toda seguridad que

lo serán para el futuro, pues con la

segmentación se conseguirá organizar

todavía más el contenido de nuestro site.

Con las páginas HTML5, los buscadores

empezaran a dar más atención a estas

páginas. Según JohnMu, de Google,

cuando los desarrolladores empiecen a

utilizar correctamente estos elementos,

entonces los buscadores percibirán que

el lenguaje trae información adicional y

así el algoritmo podrá ser cambiado [3],

dicho cambio afectaría directamente al

posicionamiento tal y como lo ha hecho

los algoritmos Panda y Penguin (ver

Apartado Análisis).

WEB SEMÁNTICA

La idea surgió en 2001, cuando

Tim Berners-Lee, James Hendler y Ora

Lassila publicaron un artículo en la

revista Scientific American titulado:

“Web Semántica: un nuevo formato de

contenido para la Web que tiene

significado para ordenadores va iniciar

una revolución de nuevas posibilidades.”

Un ejemplo interesante es

el Swoogle, un mecanismo de indexación

y búsqueda de documentos de Web

Semántica, desarrollado por la

Universidad de Maryland. El Swoogle

indexa documentos RDF y OWL y

extrae metadatos y computa relaciones

entre ellos, cosa que no sucede con el

HTML puro.

La relación con SEO de la Web

Semántica es que las búsquedas en

Google, por ejemplo, serían más

organizadas, los nichos de trabajo muy

mejorables y definidos, y los resultados

para los usuarios mejor personalizados y

con más sentido. Tenemos también la

aplicación de los Microformatos [5], que

ya son muy utilizados actualmente y que

poseen el objetivo de agregar semántica

a documentos XML y (X)HTML,

explicando de forma básica.

WEB INTELIGENTE

Por último, cuando se juntan los

puntos de semántica, personalización,

comprensión y previsión de

comportamiento del usuario,

encontramos un nuevo campo, todavía

menos explorado: la Web Inteligente.

La Web Inteligente puede ser

entendida como una dirección para la

búsqueda científica y el desarrollo que

explora los fundamentos y aplicaciones

prácticas de la inteligencia artificial y

tecnología de la información en la

próxima generación de productos,

servicios, sistemas y las diversas

actividades introducidas en la Web.

Básicamente, la Web Inteligente

podría ser resumida como:

Combinación de Inteligencia

Artificial con Tecnología de la

Información

Aplicaciones de Inteligencia

Artificial en la Web

Page 3: Agentes inteligentes para seo

Agentes de Información y Web Semántica

Master IARFID

Sistemas de información

inteligentes en la Web

El gran objetivo de la Web

Inteligente es poder identificar y

segmentar usuarios de manera única;

objetivo que sería la base de la

personalización.

La relación con el SEO sería

la personalización de las búsquedas. Esta

personalización se convierte entonces,

un factor principal para: presentar sites

en las búsquedas dependiendo del perfil

del usuario, hacer una recomendación

dinámica a un usuario; modificación

automática del contenido de un website y

su organización; combinación de datos

de la Web con datos de marketing para

mostrar informaciones sobre como los

visitantes utilizan el website y montar

estrategias, pero esto todavía está muy

lejos para el alcance de los webmaster.

2 DESCRIPCIÓN

En este apartado se explican las

posibles mejoras que podrían solucionar

el SEO de un site con ayuda de agentes

inteligentes, para ello comentaremos el

papel que tendría un agente inteligente

en las diferentes directrices que hoy en

dia se tienen que aplicar a un site para

mejorar el posicionamiento web:

i. Para realizar un buen SEO ON

PAGE; dicho en otras palabras

usar la palabra clave en el titulo,

descripción y url, se utiliza el

plugin de Yoast [6]. Es un plugin

muy exitoso para la configuración

SEO dentro de nuestro

WordPress, siendo considerado

como uno de los mejores y más

complejos. Una característica

interesante de este plugin frente a

otros de su mismo estilo, es que el

WordPress SEO by Yoast nos

provee un sistema de detección de

errores SEO dentro de cada

artículo. Dicho plugin utiliza un

sistema tipo semáforo que nos

indica la calidad de SEO que

estamos realizando dentro de

nuestro artículo, variando desde el

color rojo como una mala

configuración, hasta el color

verde mediante el cual podríamos

decir que hemos cumplido lo

básico dentro del posicionamiento

SEO de nuestro artículo. Aquí es

donde se podría utilizar un agente

inteligente para poder pasar del

semáforo rojo al verde.

ii. Si hablamos de mejorar la

posición en los buscadores, uno

de los puntos más importantes es

el conseguir backlinks a nuestro

sitio web. Pero hay que tener

cuidado con los enlaces que

apunten a nuestro site ya que

“gracias” a uno de los algoritmos

de Google conseguir enlaces

puede ser perjudicial. Este

algoritmo recibe el nombre de

Penguin [2], con dos versiones

2012 y 2013, este algoritmo odia

enlaces de poca calidad, enlaces

de otras web de diferente temática

y enlaces con el Anchor Text

sobreoptimizado; es decir cuando

todos los backlinks de nuestro

sitio tienen el mismo Anchor Text.

Por tanto un uso de agentes

inteligentes podría ser el poder

conseguir enlaces de calidad de

diferentes webs pero de la misma

Page 4: Agentes inteligentes para seo

Agentes de Información y Web Semántica Master IARFID

temática que la de la web para la

que queremos conseguir enlaces.

iii. Otra manera de mejora el SEO es

solucionar el problema de cuando

un usuario escribe o pega una

URL en la barra de direcciones, o

hace clic en un enlace que no

funciona y llega a una página

donde le sale el error del

navegador “Error 404 página no

encontrada”.

Desde el punto de vista SEO,

estas páginas se consideran

errores muy graves ya que afectan

negativamente al posicionamiento

SEO y ofrecen una mala

experiencia al usuario que está

navegando por la red. Las

diferentes causas que provocan el

error 404, son las siguientes:

Una URL mal escrita.

Un enlace caducado en una

página de resultados de búsqueda.

Un enlace interno que el

webmaster no había identificado.

Por tanto, un uso de agentes

inteligentes podría ser que cuando

encontrase una url mal escrita que

la reescribirá correctamente, o

para la segunda y tercera causa

cuando el enlace esta caducado o

es un enlace no identificado que

lo redireccione directamente al

index de la página web.

iv. Otro punto importante es la tasa

de rebote de nuestro portal, este

factor ha ganado importancia

gracias al algoritmo Panda que

salió en 2011 [2], dicho algoritmo

odia sites con contenido delgado,

sites con una tasa de rebote alta y

granjas de contenido. La tasa de

rebote de una Web es algo

bastante controvertido, pero hay

que entenderla como el usuario

que no hace nada cuando entra a

una Web y se va. La mejora

usando un agente inteligente para

disminuir nuestra tasa de rebote

seria que cuando nuestro usuario

no haya hecho nada o un artículo

tenga muchas salidas que el

agente inteligente advirtiera al

usuario si no quiere visitar otros

artículos o noticias de un tema

relacionado.

v. Otro punto muy importante es la

velocidad de carga de la web. Un

buen uso de un agente inteligente

podría realizar las siguientes

acciones para reducir el tiempo de

carga:

Limpiar el código: El código no

es lo que más ocupa, pero se abre

muchas veces. Limpiar los

archivos html, css y php de

anotaciones innecesarias.

Combinar los Javascript: Si hay

más de 3 o 4 javascript que se

cargan en todas las páginas, es

muy buena idea combinarlos en

un solo archivo y se ahorraría

peticiones y tiempo.

Reducir el número de consultas de

DNS: Tratar de no enlazar ni

cargar imágenes desde muchos

dominios diferentes. Tratar de

hacer todas las peticiones http a tu

mismo dominio. Si no tardaría

mucho en resolver las diferentes

peticiones y aumentaría mucho el

tiempo de carga.

Page 5: Agentes inteligentes para seo

Agentes de Información y Web Semántica

Master IARFID

3 CONCLUSIONES

La Web 3.0 se trata de pasar

adelante con Internet, sobre cómo

mejorar, o dicho de otro modo de cómo

tratar los datos, y lo que hacemos con

ellos… y lo que la máquina hace con

ellos. La parte más importante de la web

3.0 es la capacidad de la máquina para

manipular los datos. La trayectoria

general parece ser la de permitir que los

agentes inteligentes web entiendan el

contenido web.

Por tanto una posible definición de

la Web 3.0 es que un site utilice la

inteligencia artificial para permitir una

web con capacidades de razonamiento, y

así poder utilizar agentes inteligentes

para mejor mejorar el posicionamiento

web del site. Pero para esto todavía

queda mucho.

Referencias

[1] Web Intelligence Consortium

Chile Research Centre [Online]

http://wi.dii.uchile.cl

[2] Matt Cutts: Gadgets, Google, and

SEO [Online]

http://www.mattcutts.com/blog/

[3] Smashing Magazine [Online]

http://coding.smashingmagazine.c

om/2009/07/16/html5-and-the-

future-of-the-web/

[4] World Wide Web Consortium

http://www.w3c.es/

[5] Microformatos [Online]

http://es.wikipedia.org/wiki/Micro

formato

[6] Comunidad de recursos

educativos gratis

http://www.formaciononlinegratis

.net

[7] Cursos online

http://www.formaciononline.co

[8] Todo sobre el SEO

http://www.davidcalabuig.es