martes, 26 de mayo de 2015

Arquitectura de la información

Arquitectura de la información

La arquitectura de la Información (AI) es la disciplina y arte encargada del estudio, análisis, organización, disposición y estructuración de la información en espacios de información, y de la selección y presentación de los datos en los sistemas de información interactivos y no interactivos.

En relación con la World Wide Web, el Information Architecture Institute define la Arquitectura de la Información como:

1. El diseño estructural en entornos de información compartida.
2. El arte y la ciencia de organizar y rotular sitios web, intranets, comunidades en línea y software para promover la usabilidad y la ubicabilidad (la característica de ser encontrado a través de las búsquedas en Internet).
3. Una comunidad emergente orientada a aplicar al entorno digital los principios del diseño y la arquitectura.


Arquitectura de la Información como proceso

La "arquitectura de la información" es un proceso interactivo, transversal, que se da a lo largo de todo el diseño del sitio y en cada una de sus fases, para asegurarse de que los objetivos de su producción y del desarrollo de la interfaz se cumplen de manera efectiva.

La arquitectura de la información como disciplina no busca definir una metodología de diseño universal sino articular un conjunto de técnicas para ayudar al desarrollo y producción de espacios de información como los sitios web.

Con el fin de que la asimilación de contenidos por parte del usuario sea eficiente y efectiva, y para que el sitio sea accesible y usable, la Arquitectura de la Información como proceso en general se encarga, durante el desarrollo, de definir:

El objeto, propósito y fines del sistema de información o sitio
La definición del público objetivo y los estudios de la audiencia
La realización de análisis competitivos
El diseño de la interacción
El diseño de la navegación, esquemas de organización y facetación de los contenidos
El etiquetado o rotulado de los contenidos para acceder a la información
La planificación, gestión y desarrollo de contenidos
La facilidad de búsqueda y el diseño de la interfaz de búsqueda
La usabilidad
La accesibilidad
El feedback del resultado y los procesos de reingeniería del sitio
El Arquitecto de Información
Es la persona encargada de llevar a cabo y verificar el proceso de diseño del sitio; además, trabaja estrechamente con los diseñadores gráficos y los responsables del la parte de procesamiento y lógica (back-end) para definirla. Está integrado en un equipo y sus tareas abarcan desde la fundamentación del proyecto hasta el rediseño, verificación y testado del producto durante todas las fases de desarrollo hasta la obtención del resultado final.

La A.I. es una nueva profesión que surge en 1996 a raíz de la evolución y transformación de la World Wide Web en un canal y medio de comunicación. Su aparición en un contexto social, cultural, económico y político está fuertemente condicionada por las Nuevas Tecnologías de la Información, tecnologías que han modificado bruscamente y a todos los niveles las formas de comunicación entre los seres humanos, así como la manera en que perciben y asimilan información.

Estos avances en telecomunicaciones, ciencia, y tecnología en general han producido una cantidad ingente de conocimiento, de nuevos conceptos, ideas, métodos, procesos, visiones, problemas y soluciones sobre los que interviene la Arquitectura de la Información que, en concreto, busca:

Procesar y dosificar la enorme cantidad de información que se ha producido a causa de los descubrimientos y nuevas investigaciones en todos los nuevos campos surgidos a causa de la revolución de Internet, así como ponerla a disposición de una manera clara, relevante y significativa a disposición del usuario común. Se trata, entre otras cosas, de hacer comprensible lo abstracto de alguna forma.
Desarrollar y verificar procesos de producción o diseño de información con el fin de que el usuario pueda recuperar la información de un determinado espacio de manera clara, precisa y sin ambigüedades, en cualquier plataforma o soporte; en concreto, se refiere a soportes multimedia e interactivos, aunque, retomando a Shedroff, en la práctica no debemos omitir ningún soporte por plano que este sea y hablar de experiencias de usuario.
Organizar, estructurar, sistematizar (Tufte), rotular, distribuir, diseñar estructuralmente sistemas de información (Baeza, Rivera, Velasco, 2003) con el fin de que el usuario pueda hacer de su experiencia de recuperación algo simple, agradable, eficaz y productivo.
La experiencia de usuario

Se entiende por experiencia de usuario el conjunto de factores y elementos que determinan la interacción satisfactoria del usuario con un entorno o dispositivo concretos, siendo capaces de generar en él un conjunto de emociones positivas sobre el medio y su uso.

En la experiencia de usuario intervienen la arquitectura de la información, el diseño de interacción, la usabilidad, la accesibilidad, el diseño gráfico, la estética, la psicología cognitiva, y la extrapolación de principios del mundo del marketing, entre otras disciplinas. Nathan Shedroff extiende el concepto de experiencia del usuario más allá de la Web planteando su Teoría unificada del diseño que articula en torno a los conceptos clave de diseño de información, percepción e interactividad.

La arquitectura de la información es una parte específica del marco global más amplio que es la experiencia de usuario.

Autores y bibliografía

  • Richard Saul Wurman (creador del concepto "Arquitectura de Información")
  • Louise Rosenfeld y Peter Morville (AI) (los primeros divulgadores, autores del libro que da origen a la disciplina)
  • Donald Norman (precursor en estudios sobre Interacción Hombre-Ordenador)
  • Edward Tufte (pionero y referente mundial en Diseño de Información)
  • Nathan Shedroff (en su visión del Diseño de Información ofrece una perspectiva unificadora de las disciplicinas del ámbito)
  • Jesse James Garrett (articula por vez primera el concepto de Experiencia de usuario)
  • Jeff Raskin
  • Jakob Nielsen (el más reconocido experto a nivel mundial en materia de Usabilidad y precursor de buena parte de los principios de la Arquitectura de la Información)


http://es.wikipedia.org/wiki/Arquitectura_de_la_informaci%C3%B3n
Nota texto sintetisado
Editado por Christian Chavez

viernes, 22 de mayo de 2015

Evolucion de la WEB y el CEO


Internet ha cambiado radicalmente nuestra vida en las últimas décadas. Y uno de los aspectos que más ha variado es nuestra forma de hacer negocios. Tanto es así, que ya se habla de “economía digital globalizada”. ¿Qué tiene que ver esto con la historia del SEO como disciplina? Pues… ¡Mucho!
Existen determinados modelos de negocio que tratan de indexar, ordenar, jerarquizar y servir la información de la Red a los usuarios usando tecnologías cada vez más avanzadas (es decir, los buscadores); y existimos los crackers que aprovechamos cualquier resquicio en esa tecnología para conseguir que nuestros clientes tengan la mejor presencia posible en Internet. Cuanto más avanzada es la tecnología de los buscadores, más ingenio tenemos que poner los SEO en nuestro trabajo.
¡Resumiendo, que es gerundio! La evolución del SEO guarda relación con los progresos tecnológicos de los buscadores. Una historia del posicionamiento web debe comenzar describiendo, por tanto, la evolución de los motores de búsqueda. ¡Vamos allá!

Evolución del SEO en los últimos 20 años

En realidad son 20 años + 1, porque para 2015 los SEO ya hemos estado haciendo nuestras cábalas y predicciones. Pero empecemos por el principio.

1994

Nace WebCrawler, el primer bot o spider destinado a indexar información de la Web. Ese mismo año ha hecho su aparición Lycos, que será el primer motor de búsqueda en utilizar el sistema de rastreo de páginas. Por aquel entonces, Jerry Yang y David Filo están ocupados desarrollando Yahoo!.
Si Internet es equiparable al descubrimiento del fuego, 1994 equivale a la invención de la rueda: a partir de aquí, todo va rodado ;) Pero esta tecnología está en pañales todavía, y los motores de búsqueda son más bien directorios de páginas web gestionados manualmente por los desarrolladores, y por los dueños de los dominios, que deben enviar sus peticiones de indexación de sus páginas.

1995

Yahoo! ya funciona como buscador (o más bien, como directorio), y aparece también Altavista, que incorpora algoritmos y crawlers bastante potentes para la época. MSN empieza a ofrecer servicios de email, noticias, chats… si bien todavía habrá que esperar para el lanzamiento de su propio buscador.
En esta época, prácticamente la única optimización on page que se puede hacer para mejorar la visibilidad de los buscadores, es trabajar sobre el título: los buscadores, en su mayoría, todavía funcionan como directorios o listas de páginas, atención, ¡ordenadas alfabéticamente! Sin embargo, empiezan a aparecer los primeros modelos de negocio basados en la optimización, precursores claros del SEO on page.

1996

Los avances en el software de Altavista benefician también a Yahoo!, que empieza a consolidar su modelo como buscador, dejando atrás su carácter de directorio de indexación manual.
En este año empieza a desarrollarse el SEO on page, aunque ni siquiera existe un término para nombrar estos servicios. Las palabras clave genéricas funcionan, y cuanta más densidad, ¡mejor!

1997

Atención, porque este es el año en que se usa por primera vez el término SEO (Search Engine Optimization) en su sentido actual.
Todo el SEO se basa en colocar las keywords en las páginas web, y los modelos de negocio de los optimizadores va consolidándose.
Ask hace su aparición en escena, con el firme propósito de aumentar la rapidez, en un contexto en el que los procesos de consulta en los buscadores son bastante lentos.

1998

¡Atención!, nace Google de la mano de Larry Page y Sergey Brin. Momento histórico donde los haya. Pero no solo eso… Con Google también nace Page Rank, y los buscadores evolucionan hacia un modelo basado en el ranking de resultados.
Es un año de novedades importantes: por un lado, MSN lanza su propio buscador (MSN Search); por otro, Goto desarrolla el primer modelo de publicidad basada en PPC (Pay Per Click) que, como sabes, es un importante campo del marketing digital del que también nos ocupamos los SEO profesionales.

1999

Aparecen los meta tags, o “meta etiquetas”, que jugarán un importante papel en el SEO on page. Son elementos fácilmente legibles y clasificables por los buscadores, y fácilmente manipulables para los SEO (risilla maliciosa).

2000

El mundo no se acaba a pesar del efecto 2000 y el cambio de milenio.
Google se consolida como buscador. Tanto es así que Yahoo! abandona la tecnología de Altavista para abrazar la de Google. En consecuencia, sus resultados para las consultas mejoran notablemente. El buscador californiano lanza Google Tolbar.

2001

Si el SEO on page es ya algo cotidiano para muchas plataformas y páginas web, ahora despega el SEO off page. Los links empiezan a contar para obtener mejores resultados en los rankings y mejorar el Page Rank. De hecho, los external links ahora cuentan más que los factores on page. Eso sí, no importa la calidad ni la temática de los sitios que envían los enlaces. Solo cuenta el número. Un pasado glorioso que, por cierto, no se volverá a repetir. C’est la vie!
Como puedes imaginar, aparecen las primeras granjas de enlaces, que tantos quebraderos de cabeza le darán a los googlers.

2002

En lo que respecta a las palabras clave, ya no importa únicamente su densidad, sino también su colocación estratégica dentro de una página web.
Empieza a proliferar el spam, y los buscadores se ven obligados a perseguir estas prácticas estableciendo sanciones.
Google lanza Adwords, su servicio de publicidad basado en enlaces patrocinados.

2003

Ya existe un mercado de compraventa de enlaces, y el spam se ha convertido en un serio problema. Google emprende medidas y establece sanciones que hacen caer a muchas páginas web (algunas de ellas injustificadamente). En este año hay nada menos que cinco actualizaciones del algoritmo de Google. Una de ellas, denominada “Florida”, hace auténticos estragos en noviembre.
Google lanza Adsense. También adquiere Blogger, la plataforma de blogs gratuita. Asimismo, nace WordPress, su competidor natural en el mundo del blogging. Los blogs empiezan a ser un elemento común en las estrategias de SEO, y rápidamente, las bitácoras se llenan de  comentarios spam.

2004

Google se ha convertido en el motor de búsqueda por excelencia, aunque Yahoo! da un paso al frente y desarrolla su propio algoritmo de búsqueda. A principios de año, Google introduce un cambio en el algoritmo (Brandy) que incluye SEO local.
El SEO está cambiando, y ahora el protagonista es el PPC.
¡Atención! ¡Mark Zuckerberg lanza Facebook! Sobran las presentaciones…

2005

Aparece la etiqueta “nofollow” para luchar contra el spam en los comentarios de los blogs. Además, el anchor text o “texto ancla”, muy importante hasta ahora para el link building, ve ligeramente disminuida su eficacia.
Esto ocurre en el contexto de un endurecimiento de la política antispam de los buscadores. Google introduce tres cambios en su algoritmo este año. Uno de ellos, “Bourbon”, incorpora el concepto de búsquedas personalizadas.
Ah, por cierto, MSN Search pasa a llamarse Live Search.

2006

Lo más relevante en cuanto a posicionamiento web es, sin duda alguna, la adopción de XML Sitemaps, un protocolo destinado a ayudar a los bots a rastrear e indexar las páginas de los dominios.
En lo que concierne al Social Media, ¡nace Twitter!, la más importante red social de microblogging, imprescindible para todo tipo de marketers.

2007

Google introduce la “Búsqueda Universal“, un nuevo concepto para los SERP’s, que incluye, además de enlaces a páginas web, noticias, imágenes, vídeos, mapas, etc.
Los blogs se consolidan como herramientas muy importantes para el SEO más allá de colmar las bitácoras ajenas con comentarios spam. Y así han seguido hasta hoy.

2008

Un año un poco más tranquilo, sin tantas innovaciones en el sector. Google introduce mejoras en la indexación de contenidos en Flash, y el link building continúa creciendo. Poco más.

2009

El Social Media se consolida definitivamente, y empieza la carrera por genera contenidos para compartirlos en las principales redes sociales. Bienvenidos al “link baiting”.
Los principales buscadores adoptan la nueva etiqueta rel=”canonical” para solventar los problemas con el contenido duplicado (el ejemplo más común es el de los dominios a los que se puede acceder con y sin www; la etiqueta prioriza una versión sobre la otra).
Live Search adopta el nombre de Bing, e incluye nuevos servicios en su paquete de ofertas.

2010

Google llevaba tiempo trabajando para priorizar el contenido de calidad en los SERP’s, y se está volviendo muy eficiente en ello.
En junio Google implanta Caffeine. Más que una actualización, un cambio del algoritmo con una parte importante de su infraestructura. Caffeine había sido probado en 2010, pero su lanzamiento se retrasó. Mayor velocidad y, sobre todo, mayor eficiencia rastreando e indexando información.
El mes anterior al estreno de Caffeine, Google despliega MayDay, una actualización que golpeó con fuerza a aquellas páginas web que habían sobreoptimizado sus sitios con demasiadas keywords long tail.

2011

Si estás puesto en SEO, seguro que recuerdas ese año… ¡Efectivamente! Google lanza Panda, ¡y la lía! Fue en febrero, aunque a Europa no llegaría hasta abril. La primera versión de Google Panda supone el mayor golpe a los sitios web sospechosos de emplear técnicas que Google desaprueba. Nada menos que el 12% de resultados de búsqueda se ven afectados, un porcentaje verdaderamente alarmante. Un gran número de granjas de contenidos se vienen abajo con todo el equipo. Contenido pobre, sobreoptimización de palabras clave… Estas y otras prácticas son perseguidas ahora de forma eficaz. Las reglas del SEO han cambiado para siempre.
Ese mismo año nace Google+ y su famoso botoncito +1. La red social se convierte en una herramienta de uso obligado para todos, y sus efectos se notan en el posicionamiento.
También introduce los atributos rel=”next” y rel=”prev” para evitar problemas con el contenido duplicado en la paginación.

2012

Por si Panda no fuera suficiente, Google lanza Penguin en abril. Se trata de una actualización del algoritmo orientada a perseguir el spam. Penaliza, entre otras cosas, el keyword stuffing, pero sobre todo, los links de baja calidad. Duro golpe al link building que se repetirá a cada nueva actualización de Penguin (y ya van unas cuantas).
Google lanza Knowledge Graph, que ofrece información ampliada en la parte derecha de la página de resultados, con entradas similares a las de una enciclopedia, cuando los usuarios realizan consultas sobre determinadas cosas, personas o lugares. Puede parecer mero atrezzo, pero Knowledge Graph implica que el algoritmo se ha vuelto más inteligente, y es capaz de distinguir semánticamente el significado de algunas palabras. ¡Sorprendente!

2013

Hablar de 2013 es hablar de Hummingbird, un nuevo algoritmo que utiliza partes de Caffeine, pero que introduce grandes novedades. Con Hummingbird, el algoritmo es todavía más inteligente, y con él, Google supera el paradigma de los buscadores basados en consultas, para pasar a uno que permite a los usuarios establecer una relación de pregunta/respuesta con el motor de búsqueda.
Un algoritmo más inteligente implica mayor independencia del buscador respecto a las etiquetas meta y otros factores clásicos del SEO on page, que siguen siendo importantes, pero pierden cierta relevancia. Nadie duda ya de la importancia de usar keywords long tail, y de hacerlo de forma muy natural.
A finales de 2013, Google se carga el 15% de los snippets de Authorship (pero lo peor está por llegar…).

2014

No es cuestión de rememorar aquí todas las actualizaciones del algoritmo de Google en 2014, entre otras cosas, porque ya lo hicimos hace poco en otro post. Vayamos a lo esencial.
Lo más sonado es, con toda probabilidad, ¡la muerte de Page Rank! Aunque, por otro lado, era una muerte anunciada. Pero también fue importante la desaparición definitiva del snippet de Authorship, un factor que atraía las visitas de los usuarios de forma notable.
Y una noticia reciente: Google News cierra el día 16 de diciembre, debido a las presiones de AEDE (Asociación de Editores de Diarios Españoles) materializadas en una Ley de Propiedad Intelectual que trataba de cobrar a Google por enlazar artículos de prensa en su servicio de noticias. La clausura del servicio provoca pérdidas inmediatas de entre un 10 y un 12% de las visitas a los diarios online españoles.

2015

Todavía estamos en el umbral de 2015, pero podemos hacer algunos pronósticos. ¿Cuáles serán, con toda probabilidad, las novedades para este año en el que entramos?
El SEO semántico será la mejor respuesta on page ante un algoritmo de búsqueda cada vez más inteligente.
Los enlaces para hacer link building deben ser más discretos todavía, alternando palabras clave (preferiblemente long tail) con palabras comodín. Google está tratando de quitar relevancia al anchor text, y puede que las menciones de marca sin enlace, la co-citación y la co-ocurrencia empiecen a jugar un papel destacado en el SEO off page.
La velocidad de carga de las webs en dispositivos móviles podría ganar peso a la hora de escalar posiciones en los rankings, según hemos visto anunciar por Mountain View en 2014.
Una cosa es segura: Panda y Penguin volverán, junto con otras actualizaciones, para seguir estimulando la creación de contenidos de calidad. Y los SEO, como expertos crackers de los SERP’s que somos, tendremos que ser más cautelosos a la hora de saltarnos a la torera el manual de buenas prácticas de Google.

¿Qué nos enseña la historia?

Si perteneces a este mundillo, las conclusiones generales ya las conoces, y puede que hayas entrado aquí únicamente para consultar un dato concreto. Si eres amateur, intuitivamente habrás notado que la historia de los motores de búsqueda, que es la clave para entender la evolución del SEO, acaba siendo la historia de Google. Así es, al menos en España.
Otra conclusión que puedes extraer es que, todo aquello que sea alterar artificialmente los resultados orgánicos de los SERP’s, cuenta con la desaprobación del buscador californiano, que trabajará para eliminar las fisuras en su algoritmo, de una precisión matemática casi infalible. Quienes nos dedicamos a esto estamos constantemente obligados a llevar nuestro ingenio un poco más allá. Hemos hablado de evolución, y es que en cierto sentido, todo esto parece una metáfora de la lucha del hombre contra la máquina, para disputar el primer puesto en inteligencia. Y lo dejo aquí, ¡que me pongo filosófico!
Son muchas las cuestiones que se han quedado en el tintero, pero si profundizamos más, ¡escribiríamos un libro! (no lo descarto… )
Si te ha gustado este mega post, sé bueno y compártelo