La arquitectura de la Información (AI) es la disciplina y arte encargada del estudio, análisis, organización, disposición y estructuración de la información en espacios de información, y de la selección y presentación de los datos en los sistemas de información interactivos y no interactivos.
En relación con la World Wide Web, el Information Architecture Institute define la Arquitectura de la Información como:
1. El diseño estructural en entornos de información compartida.
2. El arte y la ciencia de organizar y rotular sitios web, intranets, comunidades en línea y software para promover la usabilidad y la ubicabilidad (la característica de ser encontrado a través de las búsquedas en Internet).
3. Una comunidad emergente orientada a aplicar al entorno digital los principios del diseño y la arquitectura.
Arquitectura de la Información como proceso
La "arquitectura de la información" es un proceso interactivo, transversal, que se da a lo largo de todo el diseño del sitio y en cada una de sus fases, para asegurarse de que los objetivos de su producción y del desarrollo de la interfaz se cumplen de manera efectiva.
La arquitectura de la información como disciplina no busca definir una metodología de diseño universal sino articular un conjunto de técnicas para ayudar al desarrollo y producción de espacios de información como los sitios web.
Con el fin de que la asimilación de contenidos por parte del usuario sea eficiente y efectiva, y para que el sitio sea accesible y usable, la Arquitectura de la Información como proceso en general se encarga, durante el desarrollo, de definir:
El objeto, propósito y fines del sistema de información o sitio
La definición del público objetivo y los estudios de la audiencia
La realización de análisis competitivos
El diseño de la interacción
El diseño de la navegación, esquemas de organización y facetación de los contenidos
El etiquetado o rotulado de los contenidos para acceder a la información
La planificación, gestión y desarrollo de contenidos
La facilidad de búsqueda y el diseño de la interfaz de búsqueda
La usabilidad
La accesibilidad
El feedback del resultado y los procesos de reingeniería del sitio
El Arquitecto de Información
Es la persona encargada de llevar a cabo y verificar el proceso de diseño del sitio; además, trabaja estrechamente con los diseñadores gráficos y los responsables del la parte de procesamiento y lógica (back-end) para definirla. Está integrado en un equipo y sus tareas abarcan desde la fundamentación del proyecto hasta el rediseño, verificación y testado del producto durante todas las fases de desarrollo hasta la obtención del resultado final.
La A.I. es una nueva profesión que surge en 1996 a raíz de la evolución y transformación de la World Wide Web en un canal y medio de comunicación. Su aparición en un contexto social, cultural, económico y político está fuertemente condicionada por las Nuevas Tecnologías de la Información, tecnologías que han modificado bruscamente y a todos los niveles las formas de comunicación entre los seres humanos, así como la manera en que perciben y asimilan información.
Estos avances en telecomunicaciones, ciencia, y tecnología en general han producido una cantidad ingente de conocimiento, de nuevos conceptos, ideas, métodos, procesos, visiones, problemas y soluciones sobre los que interviene la Arquitectura de la Información que, en concreto, busca:
Procesar y dosificar la enorme cantidad de información que se ha producido a causa de los descubrimientos y nuevas investigaciones en todos los nuevos campos surgidos a causa de la revolución de Internet, así como ponerla a disposición de una manera clara, relevante y significativa a disposición del usuario común. Se trata, entre otras cosas, de hacer comprensible lo abstracto de alguna forma.
Desarrollar y verificar procesos de producción o diseño de información con el fin de que el usuario pueda recuperar la información de un determinado espacio de manera clara, precisa y sin ambigüedades, en cualquier plataforma o soporte; en concreto, se refiere a soportes multimedia e interactivos, aunque, retomando a Shedroff, en la práctica no debemos omitir ningún soporte por plano que este sea y hablar de experiencias de usuario.
Organizar, estructurar, sistematizar (Tufte), rotular, distribuir, diseñar estructuralmente sistemas de información (Baeza, Rivera, Velasco, 2003) con el fin de que el usuario pueda hacer de su experiencia de recuperación algo simple, agradable, eficaz y productivo.
La experiencia de usuario
Se entiende por experiencia de usuario el conjunto de factores y elementos que determinan la interacción satisfactoria del usuario con un entorno o dispositivo concretos, siendo capaces de generar en él un conjunto de emociones positivas sobre el medio y su uso.
En la experiencia de usuario intervienen la arquitectura de la información, el diseño de interacción, la usabilidad, la accesibilidad, el diseño gráfico, la estética, la psicología cognitiva, y la extrapolación de principios del mundo del marketing, entre otras disciplinas. Nathan Shedroff extiende el concepto de experiencia del usuario más allá de la Web planteando su Teoría unificada del diseño que articula en torno a los conceptos clave de diseño de información, percepción e interactividad.
La arquitectura de la información es una parte específica del marco global más amplio que es la experiencia de usuario.
Autores y bibliografía
Richard Saul Wurman (creador del concepto "Arquitectura de Información")
Louise Rosenfeld y Peter Morville (AI) (los primeros divulgadores, autores del libro que da origen a la disciplina)
Donald Norman (precursor en estudios sobre Interacción Hombre-Ordenador)
Edward Tufte (pionero y referente mundial en Diseño de Información)
Nathan Shedroff (en su visión del Diseño de Información ofrece una perspectiva unificadora de las disciplicinas del ámbito)
Jesse James Garrett (articula por vez primera el concepto de Experiencia de usuario)
Jeff Raskin
Jakob Nielsen (el más reconocido experto a nivel mundial en materia de Usabilidad y precursor de buena parte de los principios de la Arquitectura de la Información)
Internet ha cambiado radicalmente nuestra vida en las últimas
décadas. Y uno de los aspectos que más ha variado es nuestra forma de
hacer negocios. Tanto es así, que ya se habla de “economía digital
globalizada”. ¿Qué tiene que ver esto con la historia del SEO como disciplina? Pues… ¡Mucho!
Existen
determinados modelos de negocio que tratan de indexar, ordenar,
jerarquizar y servir la información de la Red a los usuarios usando
tecnologías cada vez más avanzadas (es decir, los buscadores); y existimos los crackers que aprovechamos cualquier resquicio en esa tecnología para conseguir que nuestros clientes tengan la mejor presencia posible en Internet. Cuanto más avanzada es la tecnología de los buscadores, más ingenio tenemos que poner los SEO en nuestro trabajo.
¡Resumiendo, que es gerundio! La evolución del SEO guarda relación con los progresos tecnológicos de los buscadores.
Una historia del posicionamiento web debe comenzar describiendo, por
tanto, la evolución de los motores de búsqueda. ¡Vamos allá!
Evolución del SEO en los últimos 20 años
En
realidad son 20 años + 1, porque para 2015 los SEO ya hemos estado
haciendo nuestras cábalas y predicciones. Pero empecemos por el
principio.
1994
Nace WebCrawler, el primer bot o spider destinado a indexar información de la Web. Ese mismo año ha hecho su aparición Lycos,
que será el primer motor de búsqueda en utilizar el sistema de rastreo
de páginas. Por aquel entonces, Jerry Yang y David Filo están ocupados
desarrollando Yahoo!.
Si Internet es equiparable
al descubrimiento del fuego, 1994 equivale a la invención de la rueda: a
partir de aquí, todo va rodado Pero esta tecnología está en pañales todavía, y los motores de búsqueda son más bien directorios de páginas web
gestionados manualmente por los desarrolladores, y por los dueños de
los dominios, que deben enviar sus peticiones de indexación de sus
páginas.
1995
Yahoo! ya funciona como buscador (o más bien, como directorio), y aparece también Altavista, que incorpora algoritmos y crawlers bastante potentes para la época. MSN
empieza a ofrecer servicios de email, noticias, chats… si bien todavía
habrá que esperar para el lanzamiento de su propio buscador.
En
esta época, prácticamente la única optimización on page que se puede
hacer para mejorar la visibilidad de los buscadores, es trabajar sobre
el título: los buscadores, en su mayoría, todavía funcionan como
directorios o listas de páginas, atención, ¡ordenadas alfabéticamente!
Sin embargo, empiezan a aparecer los primeros modelos de negocio basados en la optimización, precursores claros del SEO on page.
1996
Los
avances en el software de Altavista benefician también a Yahoo!, que
empieza a consolidar su modelo como buscador, dejando atrás su carácter
de directorio de indexación manual.
En este año empieza a desarrollarse el SEO on page, aunque ni siquiera existe un término para nombrar estos servicios. Las palabras clave genéricas funcionan, y cuanta más densidad, ¡mejor!
1997
Atención, porque este es el año en que se usa por primera vez el término SEO (Search Engine Optimization) en su sentido actual.
Todo el SEO se basa en colocar las keywords en las páginas web, y los modelos de negocio de los optimizadores va consolidándose. Ask
hace su aparición en escena, con el firme propósito de aumentar la
rapidez, en un contexto en el que los procesos de consulta en los
buscadores son bastante lentos.
1998
¡Atención!, nace Google de la mano de Larry Page y Sergey Brin. Momento histórico donde los haya. Pero no solo eso… Con Google también nace Page Rank, y los buscadores evolucionan hacia un modelo basado en el ranking de resultados.
Es un año de novedades importantes: por un lado, MSN lanza su propio buscador (MSN Search); por otro, Goto desarrolla el primer modelo de publicidad basada en PPC (Pay Per Click) que, como sabes, es un importante campo del marketing digital del que también nos ocupamos los SEO profesionales.
1999
Aparecen los meta tags, o “meta etiquetas”,
que jugarán un importante papel en el SEO on page. Son elementos
fácilmente legibles y clasificables por los buscadores, y fácilmente
manipulables para los SEO (risilla maliciosa).
2000
El mundo no se acaba a pesar del efecto 2000 y el cambio de milenio.
Google
se consolida como buscador. Tanto es así que Yahoo! abandona la
tecnología de Altavista para abrazar la de Google. En consecuencia, sus
resultados para las consultas mejoran notablemente. El buscador
californiano lanza Google Tolbar.
2001
Si el SEO on page es ya algo cotidiano para muchas plataformas y páginas web, ahora despega el SEO off page. Los links empiezan a contar para obtener mejores resultados en los rankings y mejorar el Page Rank. De hecho, los external links ahora cuentan más que los factores on page. Eso sí, no importa la calidad ni la temática de los sitios que envían los enlaces. Solo cuenta el número. Un pasado glorioso que, por cierto, no se volverá a repetir. C’est la vie!
Como puedes imaginar, aparecen las primeras granjas de enlaces, que tantos quebraderos de cabeza le darán a los googlers.
2002
En
lo que respecta a las palabras clave, ya no importa únicamente su
densidad, sino también su colocación estratégica dentro de una página
web.
Empieza a proliferar el spam, y los buscadores se ven obligados a perseguir estas prácticas estableciendo sanciones. Google lanza Adwords, su servicio de publicidad basado en enlaces patrocinados.
2003
Ya existe un mercado de compraventa de enlaces,
y el spam se ha convertido en un serio problema. Google emprende
medidas y establece sanciones que hacen caer a muchas páginas web
(algunas de ellas injustificadamente). En este año hay nada menos que
cinco actualizaciones del algoritmo de Google. Una de ellas, denominada
“Florida”, hace auténticos estragos en noviembre.
Google lanza Adsense. También adquiere Blogger, la plataforma de blogs gratuita. Asimismo, nace WordPress, su competidor natural en el mundo del blogging.
Los blogs empiezan a ser un elemento común en las estrategias de SEO, y
rápidamente, las bitácoras se llenan de comentarios spam.
2004
Google se ha convertido en el motor de búsqueda por excelencia, aunque Yahoo! da un paso al frente y desarrolla su propio algoritmo de búsqueda. A principios de año, Google introduce un cambio en el algoritmo (Brandy) que incluye SEO local.
El SEO está cambiando, y ahora el protagonista es el PPC.
¡Atención! ¡Mark Zuckerberg lanza Facebook! Sobran las presentaciones…
2005
Aparece la etiqueta “nofollow” para luchar contra el spam en los comentarios de los blogs. Además, el anchor text o “texto ancla”, muy importante hasta ahora para el link building, ve ligeramente disminuida su eficacia.
Esto
ocurre en el contexto de un endurecimiento de la política antispam de
los buscadores. Google introduce tres cambios en su algoritmo este año.
Uno de ellos, “Bourbon”, incorpora el concepto de búsquedas
personalizadas.
Ah, por cierto, MSN Search pasa a llamarse Live Search.
2006
Lo más relevante en cuanto a posicionamiento web es, sin duda alguna, la adopción de XML Sitemaps, un protocolo destinado a ayudar a los bots a rastrear e indexar las páginas de los dominios.
En lo que concierne al Social Media, ¡nace Twitter!, la más importante red social de microblogging, imprescindible para todo tipo de marketers.
2007
Google introduce la “Búsqueda Universal“, un nuevo concepto para los SERP’s, que incluye, además de enlaces a páginas web, noticias, imágenes, vídeos, mapas, etc.
Los
blogs se consolidan como herramientas muy importantes para el SEO más
allá de colmar las bitácoras ajenas con comentarios spam. Y así han
seguido hasta hoy.
2008
Un año un poco
más tranquilo, sin tantas innovaciones en el sector. Google introduce
mejoras en la indexación de contenidos en Flash, y el link building
continúa creciendo. Poco más.
2009
El Social Media
se consolida definitivamente, y empieza la carrera por genera
contenidos para compartirlos en las principales redes sociales.
Bienvenidos al “link baiting”.
Los principales buscadores adoptan la nueva etiqueta rel=”canonical”
para solventar los problemas con el contenido duplicado (el ejemplo más
común es el de los dominios a los que se puede acceder con y sin www;
la etiqueta prioriza una versión sobre la otra).
Live Search adopta el nombre de Bing, e incluye nuevos servicios en su paquete de ofertas.
2010
Google
llevaba tiempo trabajando para priorizar el contenido de calidad en los
SERP’s, y se está volviendo muy eficiente en ello.
En junio Google implanta Caffeine.
Más que una actualización, un cambio del algoritmo con una parte
importante de su infraestructura. Caffeine había sido probado en 2010,
pero su lanzamiento se retrasó. Mayor velocidad y, sobre todo, mayor
eficiencia rastreando e indexando información.
El mes anterior al estreno de Caffeine, Google despliega MayDay, una actualización que golpeó con fuerza a aquellas páginas web que habían sobreoptimizado sus sitios con demasiadas keywords long tail.
2011
Si estás puesto en SEO, seguro que recuerdas ese año… ¡Efectivamente! Google lanza Panda,
¡y la lía! Fue en febrero, aunque a Europa no llegaría hasta abril. La
primera versión de Google Panda supone el mayor golpe a los sitios web
sospechosos de emplear técnicas que Google desaprueba. Nada menos que el 12% de resultados de búsqueda se ven afectados, un porcentaje verdaderamente alarmante. Un gran número de granjas de contenidos se vienen abajo
con todo el equipo. Contenido pobre, sobreoptimización de palabras
clave… Estas y otras prácticas son perseguidas ahora de forma eficaz.
Las reglas del SEO han cambiado para siempre.
Ese mismo año nace Google+ y su famoso botoncito +1. La red social se convierte en una herramienta de uso obligado para todos, y sus efectos se notan en el posicionamiento.
También introduce los atributos rel=”next” y rel=”prev” para evitar problemas con el contenido duplicado en la paginación.
2012
Por si Panda no fuera suficiente, Google lanza Penguin en abril. Se trata de una actualización del algoritmo orientada a perseguir el spam. Penaliza, entre otras cosas, el keyword stuffing, pero sobre todo, los links de baja calidad. Duro golpe al link building que se repetirá a cada nueva actualización de Penguin (y ya van unas cuantas).
Google lanza Knowledge Graph,
que ofrece información ampliada en la parte derecha de la página de
resultados, con entradas similares a las de una enciclopedia, cuando los
usuarios realizan consultas sobre determinadas cosas, personas o
lugares. Puede parecer mero atrezzo, pero Knowledge Graph
implica que el algoritmo se ha vuelto más inteligente, y es capaz de
distinguir semánticamente el significado de algunas palabras.
¡Sorprendente!
2013
Hablar de 2013 es hablar de Hummingbird,
un nuevo algoritmo que utiliza partes de Caffeine, pero que introduce
grandes novedades. Con Hummingbird, el algoritmo es todavía más
inteligente, y con él, Google supera el paradigma de los buscadores
basados en consultas, para pasar a uno que permite a los usuarios
establecer una relación de pregunta/respuesta con el motor de búsqueda.
Un
algoritmo más inteligente implica mayor independencia del buscador
respecto a las etiquetas meta y otros factores clásicos del SEO on page,
que siguen siendo importantes, pero pierden cierta relevancia. Nadie
duda ya de la importancia de usar keywords long tail, y de hacerlo de forma muy natural.
A finales de 2013, Google se carga el 15% de los snippets de Authorship (pero lo peor está por llegar…).
2014
No es cuestión de rememorar aquí todas las actualizaciones del algoritmo de Google en 2014, entre otras cosas, porque ya lo hicimos hace poco en otro post. Vayamos a lo esencial.
Lo
más sonado es, con toda probabilidad, ¡la muerte de Page Rank! Aunque,
por otro lado, era una muerte anunciada. Pero también fue importante la
desaparición definitiva del snippet de Authorship, un factor que atraía las visitas de los usuarios de forma notable.
Y una noticia reciente: Google News cierra el día 16 de diciembre,
debido a las presiones de AEDE (Asociación de Editores de Diarios
Españoles) materializadas en una Ley de Propiedad Intelectual que
trataba de cobrar a Google por enlazar artículos de prensa en su
servicio de noticias. La clausura del servicio provoca pérdidas inmediatas de entre un 10 y un 12% de las visitas a los diarios online españoles.
2015
Todavía
estamos en el umbral de 2015, pero podemos hacer algunos pronósticos.
¿Cuáles serán, con toda probabilidad, las novedades para este año en el
que entramos? El SEO semántico será la mejor respuesta on page ante un algoritmo de búsqueda cada vez más inteligente. Los enlaces para hacer link building
deben ser más discretos todavía, alternando palabras clave
(preferiblemente long tail) con palabras comodín. Google está tratando
de quitar relevancia al anchor text, y puede que las menciones de marca sin enlace, la co-citación y la co-ocurrencia empiecen a jugar un papel destacado en el SEO off page. La velocidad de carga de las webs en dispositivos móviles podría ganar peso a la hora de escalar posiciones en los rankings, según hemos visto anunciar por Mountain View en 2014.
Una
cosa es segura: Panda y Penguin volverán, junto con otras
actualizaciones, para seguir estimulando la creación de contenidos de
calidad. Y los SEO, como expertos crackers de los SERP’s que somos,
tendremos que ser más cautelosos a la hora de saltarnos a la torera el
manual de buenas prácticas de Google.
¿Qué nos enseña la historia?
Si
perteneces a este mundillo, las conclusiones generales ya las conoces, y
puede que hayas entrado aquí únicamente para consultar un dato
concreto. Si eres amateur, intuitivamente habrás notado que la historia
de los motores de búsqueda, que es la clave para entender la evolución
del SEO, acaba siendo la historia de Google. Así es, al menos en España.
Otra conclusión que puedes extraer es que, todo aquello que sea alterar artificialmente los resultados orgánicos
de los SERP’s, cuenta con la desaprobación del buscador californiano,
que trabajará para eliminar las fisuras en su algoritmo, de una
precisión matemática casi infalible. Quienes nos dedicamos a esto
estamos constantemente obligados a llevar nuestro ingenio un poco más
allá. Hemos hablado de evolución, y es que en cierto sentido, todo esto
parece una metáfora de la lucha del hombre contra la máquina, para
disputar el primer puesto en inteligencia. Y lo dejo aquí, ¡que me pongo
filosófico!
Son muchas las cuestiones que se han quedado en el
tintero, pero si profundizamos más, ¡escribiríamos un libro! (no lo
descarto… )
Si te ha gustado este mega post, sé bueno y compártelo