Fundamentos en Buscadores. Entrevista a Fernando Maciá, Human Level Communications

Autora: Mari Carmen Marcos
Citación: Mari Carmen Marcos. Entrevista a Fernando Maciá. Human Level Communications [on line]. "Hipertext.net", núm. 5, 2007. <http://www.hipertext.net>

Este apartado está formado por entrevistas a expertos en buscadores, posicionamiento y márqueting online realizadas para el Master en Buscadores (Universidad Pompeu Fabra)


Fernando Maciá
http://www.humanlevel.com/hlc/equipo/fernando-macia.html

Foto de Fernando Maciá

Fernando Maciá es el fundador y director de Human Level Communications. Ha desarrollado numerosas páginas web de empresas e instituciones y fue un pionero en España en el marketing digital, optimización web, análisis de tráfico y estrategias de posicionamiento en buscadores.

Ha liderado algunos de los proyectos de posicionamiento en buscadores más ambiciosos realizados hasta la fecha en España y Latinoamérica: el posicionamiento del portal oficial de Turismo de España dentro del sector público, el posicionamiento del portal de empresas de Microsoft en habla hispana, para el sector privado y el posicionamiento de Páginas Amarillas Online de CANTV en Venezuela, entre otros muchos.

Es coautor, junto a Javier Gosende, de Posicionamiento en Buscadores, el primer libro en español sobre posicionamiento en buscadores que publicó en noviembre de 2006 la editorial Anaya Multimedia.

Fernando Maciá es profesor de Marketing Digital en varios programas Master de FUNDESEM Business School y participa con frecuencia como ponente en jornadas y seminarios de ámbito nacional e internacional.

Su trayectoria profesional ha estado siempre vinculada a los campos de la comunicación y el marketing. En 1992, fundó Magenta Creatividad, una agencia de publicidad al frente de la cual desarrolló campañas de publicidad, marketing directo, diseño de sitios Web y diseño de identidad corporativa.

Sus inicios profesionales fueron en radio (Radio Villena SER) y prensa (diario La Verdad). Es Licenciado en Ciencias de la Información (especialidad Comunicación Audiovisual) por la Universidad Complutense de Madrid y Master en Dirección de Marketing por ICADE - FUNDESEM Business School. Adicionalmente, cursó estudios de Ingeniería Eléctrica en el Tarrant County Junior College de Fort Worth, Texas (EEUU), en donde residió un año.

Durante ocho años, simultaneó su actividad profesional con la de director técnico de la revista Empresa Avanzada y en la actualidad colabora como articulista y asesor experto en Marketing Online en portales especializados de Internet como el Centro de Empresas y Profesionales de Microsoft, INJEF, Urbaniza, WinRed, WebProNews, Navactiva, Master-Net, etc.

Entrevista realizada en diciembre de 2007

Todos utilizamos los buscadores y sin ellos sería muy difícil encontrar información en la Web, en cambio no son muchas las personas que conocen a fondo su funcionamiento. ¿A quién le puede interesar conocer bien los buscadores y para qué?

Esto se puede contestar desde dos enfoques diferentes. Desde el punto de vista de un usuario de Internet, conocer bien el funcionamiento de un buscador significa esencialmente conocer todas las funcionalidades que ofrece esta herramienta para encontrar el contenido más relevante respecto a la búsqueda introducida. Y desde el punto de vista de un webmaster, conocer a fondo el funcionamiento de un buscador es la condición previa para crear arquitecturas de la información y contenidos que se adecuen a la forma en que los buscadores rastrean, clasifican y calculan la relevancia de un cierto contenido.

Desde este primer enfoque, el volumen de información que contiene la Red es tan enorme, y crece a un ritmo tan rápido, que el papel de los buscadores es indispensable para que los usuarios puedan encontrar en cada momento aquellos contenidos más relevantes para lo que desean consultar. Viendo la evolución de la forma en que los usuarios plantean las búsquedas, comprobamos enseguida cómo los usuarios más expertos, aquellos que llevan más tiempo usando Internet, suelen plantear frases de búsqueda más complejas, compuestas por un número mayor de palabras y en las cuales introducen conceptos geográficos, sectoriales, etc. que especifican mucho más el rango de contenidos sobre el que desean que el buscador presente sus resultados. Si en los primeros años de Internet la mayoría de búsquedas estaban compuestas por una o dos palabras, ahora la tendencia es a plantear frases de dos, tres o más términos.

De hecho, el nivel de confianza en los buscadores es tan alto que si se le pregunta a los usuarios qué hacen cuando los resultados obtenidos en la primera página no responden a lo que ellos tenían en mente, la mayoría responde que reformula la búsqueda en otros términos, por encima de otras opciones lógicas como serían ver las siguientes páginas de resultados o plantear la misma búsqueda en otro buscador distinto.

El siguiente paso en el aprendizaje del uso de un buscador es, obviamente, conocer las funcionalidades de búsqueda avanzada, tales como búsquedas textuales exactas, empleo de operadores, definición de formatos de archivo, etc. Es todavía muy reducido el porcentaje de usuarios de Internet que aprovecha en todo su potencial estas funcionalidades pero es de esperar que, por una parte, cada vez sean más las personas que aprendan su correcto funcionamiento y que, por la otra, los buscadores evolucionen para simplificar aún más su interfaz y para interpretar correctamente cada búsqueda planteada en función del historial de búsquedas y navegación del usuario, salvando las implicaciones respecto a la intimidad que esto conlleva.

En segundo lugar, desde la perspectiva de los webmasters, conocer a fondo a los buscadores, saber cómo rastrean, indexan y calculan la relevancia de los contenidos es vital para lograr ocupar los primeros puestos en las búsquedas que planteen los usuarios potenciales de un determinado portal. En los últimos años, lograr esos primeros puestos se ha basado mucho más en descubrir las debilidades de los buscadores para forzar un determinado resultado que en generar realmente el contenido adecuado tanto para los buscadores como para los usuarios finales. En este proceso, los algoritmos de indexación de los buscadores han ido 'aprendiendo' y hoy incorporan numerosos controles y filtros para evitar que una determinada página lidere los resultados por motivos ajenos a la relevancia intrínseca de sus contenidos.

Aunque sigue habiendo un estrecho margen para superar a la competencia, al menos temporalmente, por las debilidades intrínsecas en el funcionamiento de los buscadores, un planteamiento serio de posicionamiento en buscadores pasa por la generación de contenido original, de calidad y en continua renovación, el empleo de código limpio y correcto y el cumplimiento de algunos parámetros básicos comunes, por otra parte, a la creación de cualquier tipo de información: emplear títulos y descripciones adecuados para cada contenido, mantener esquemas de navegación que permitan rastrear todas las páginas y fomentar la referencia y difusión de nuestros contenidos en otros sitios web y las redes sociales para cosechar popularidad.

¿Qué tienen Google, Yahoo y Live que no tengan los demás buscadores para llevarse casi el 100% de las búsquedas?

En primer lugar, creo que, al menos en España, no podemos 'meter en el mismo saco' a Google, Yahoo! y MSN Live, ya que aunque en otros países su cuota de mercado está algo más equilibrada, en España el protagonismo absoluto de Google es innegable. Hasta el 90% de todas las visitas procedentes de buscadores en España provienen de este buscador. Si nos fijamos más en un entorno global, sí podemos admitir que estos tres gigantes, seguidos de cerca en ciertos mercados por Ask (el antiguo Ask Jeeves) o por buscadores nacionales o monolingües como Sapo en Portugal y Brasil, Voilá en Francia o Baidu en China, son los protagonistas absolutos en el mercado de los buscadores.

Así que respecto a los factores que tienen en común estos tres buscadores podríamos decir que comparten en primer lugar un liderazgo del mercado de los buscadores y que los tres emplean técnicas similares de rastreo de los contenidos mediante el empleo de una araña, (crawler, spider o robot) y de cálculo de la relevancia tomando en cuenta un sinnúmero de factores tanto propios de la página (on-page) como externos (off-page). Y es evidente que si son los buscadores preferidos por los usuarios esto se debe, sobre todo, a su capacidad de devolver resultados relevantes para las búsquedas planteadas de forma consistente.

Ahora bien, creo que son más los factores que los diferencian que aquellos en que se parecen. Google aparece en escena en la segunda mitad de los 90 con un algoritmo de indexación más evolucionado y una capacidad de rastreo mucho mayor que la de los buscadores existentes en ese momento. La auténtica ventaja competitiva de Google se debió a la inclusión de la popularidad en la ecuación de la relevancia, a su arquitectura barata y escalable y a su capacidad de rastrear la práctica totalidad del contenido de texto de cada documento. Las consecuencias fueron inmediatas: las metaetiquetas perdieron gran parte de su protagonismo, por lo que era mucho más difícil forzar un posicionamiento en el nuevo buscador. La arquitectura barata y escalable permitió un crecimiento de la infraestructura a un ritmo rapidísimo, lo que favoreció que un mayor porcentaje del contenido de Internet estuviera indexado y que la respuesta al usuario fuera muy rápida. Y la inclusión de la popularidad en el cálculo de la relevancia introducía también un factor más difícil de manipular y que premiaba de forma más 'democrática' podríamos decir, a los contenidos preferidos por los usuarios.

Esto permitió a Google desbancar a toda una primera generación de buscadores como Inktomi, AltaVista, Fast, Lycos o el directorio Yahoo!. El camino seguido luego por cada uno de los otros dos actores, Yahoo! y MSN Live, ha sido distinto. Yahoo! llevó a cabo, en los primeros años del nuevo milenio, una labor de concentración de los buscadores y directorios de pago existentes haciéndose, entre otros, con AltaVista, AllTheWeb, Overture e Inktomi, e incorporando parte de su tecnología para el desarrollo de su propio buscador que ha terminado por desbancar definitivamente el modelo de directorio que dio origen a Yahoo!. En 2004, Yahoo! sustituyó los resultados de Google por los de su propio buscador convirtiéndose en su principal competidor.

Por su parte, Live se ha desarrollado gracias al enorme potencial económico de Microsoft. El hecho de haber llegado el último a esta 'guerra de buscadores' está pesando en su progresión y de momento no parece que su cuota de mercado esté creciendo, situándose en la actualidad entre el 8 y el 12% dependiendo de las fuentes consultadas (en España, este porcentaje baja hasta el 3%). Su inclusión como buscador 'por defecto' en el nuevo sistema operativo Windows Vista parece que le ha favorecido algo en los últimos meses, pero existe una enorme inercia en el mercado y los usuarios suelen ser fieles al buscador que han elegido.

Otros buscadores que en su momento estuvieron entre los más usados hoy en día ocupan un papel secundario, nos referimos a Altavista, Inktomi, Lycos o Ask ¿cuál es su papel ahora en el mercado de los buscadores?

La evolución que cada uno de estos buscadores ha seguido ha sido distinta. La entrada de Google en el mercado supuso una auténtica revolución pues barrió a toda la competencia. El paso lógico era, pues, el de la concentración para intentar seguir compitiendo con Google. Esa fue la razón por la que Yahoo! adquirió algunos de los buscadores, directorios y programas de inclusión por pago existentes en ese momento, tales como AltaVista o Inktomi. A partir de ese momento, parece lógico que Yahoo! se haya concentrado en mejorar su propio buscador y modelo de negocio, transformando el programa Overture en Yahoo Search Marketing en 2006, intentando emular el modelo de Google AdWords, aunque con grandes lagunas en funcionalidad respecto a éste.

En cuanto a Lycos, fue uno de los buscadores pioneros y la compra estrella del portal Terra, que lo adquirió en plena burbuja de las punto.com por 12,5 billones de dólares en mayo de 2000 para venderlo tres años después al portal coreano Daum por 540 millones de dólares, es decir, un 1% de lo que había pagado por él tres años antes. En la actualidad, Lycos es sólo un portal que integra funciones de buscador basadas en la base de datos de Ask. Por su parte, Lycos Europe es un portal en la órbita del grupo Bertelsmann que este año lanzó en el mercado americano el portal Jubii, de origen danés y que ya operaba en otros países europeos.

Ask se deshizo el pasado año de su imagen de mayordomo para inaugurar una nueva era de búsqueda más directamente en competencia con Google. Ask, como Yahoo!, adquirió también en los primeros años de esta década otros buscadores y directorios de pago como Teoma, DirectHit y Excite para incorporar esta tecnología en su algoritmo. Concebido en sus inicios como el único cuya interfaz podía interpretar correctamente preguntas planteadas en lenguaje natural, Ask ha evolucionado su tecnología hasta ganarse una cuota de mercado de un 4% en Estados Unidos, aunque en España su incidencia es testimonial.

En definitiva, podemos decir que los protagonistas de la primera oleada de buscadores se incorporaron, mediante adquisiciones sucesivas, en la órbita de alguno de los cuatro líderes actuales del mercado, salieron del sector o bien se transformaron en portales con un fin distinto. En cualquier caso, su influencia actual en el mercado de los buscadores es mínima y su mantenimiento se debe más a la posibilidad de emplearlos como plataforma de pruebas para los grandes buscadores que a su propia viabilidad como modelo de negocio.

Muchas empresas ofrecen el servicio de dar de alta un sitio web en cientos de buscadores ¿hasta qué punto debemos optar por contratar estos servicios si en realidad hay tres buscadores que se llevan casi todo el mercado?

Es cierto que llegan muchas ofertas de alta en buscadores de sitios web que prometen incluir nuestro portal en cientos -a veces, miles- de buscadores. Yo diría que simplemente el hecho de ofrecer este tipo de servicio, en sí mismo, es un indicativo de la poca profesionalidad de estas empresas. La inclusión de un sitio web en los buscadores es algo que se produce de forma automática en el mismo momento en que un sitio web comienza a tener enlaces apuntando hacia él desde otros sitios web que ya están incluidos en los buscadores. En la siguiente visita de la araña del buscador a este sitio que ya está incluido en su índice, ésta descubrirá el enlace al nuevo sitio, por lo que siguiendo este enlace rastreará la nueva página y la incluirá a su vez en su base de datos. Este proceso es igual para todos los buscadores importantes y, como ya hemos dicho, sólo tres o cuatro buscadores suponen el 99,8% de todo el tráfico procedente de buscadores. Estar en cientos o miles de buscadores adicionales sólo va a incidir en un 0,2% adicional de tráfico. ¿Vale realmente la pena la inversión?

Por otro lado, muchas de estas empresas suelen usar programas que automatizan el alta de los sitios en los buscadores y directorios. Estas altas automáticas añaden muy poco valor al enlace que obtengamos y también hay que tener en cuenta que la mayor parte de buscadores y directorios limitan las veces que se puede comunicar el alta de una nueva web. Si se solicita con mayor frecuencia de la permitida el alta de una web ya incluida, algunos buscadores y directorios pueden reaccionar 'castigando' a la web, no incluyéndola en el índice o expulsándola si ya está en él.

Por último, cabe destacar que el proceso de alta sólo garantiza que la web estará incluida en el índice de un buscador, pero en ningún caso esto afecta al cálculo de la relevancia de la página y la posición final que el buscador adjudicará a la misma en sus resultados. Y ya sabemos que no estar entre los primeros puestos equivale, prácticamente, a no estar en absoluto, ya que los usuarios sólo consultan los primeros resultados.

 

¿Cuál es la asignatura pendiente de los buscadores? ¿En qué tienen que mejorar todavía?

Siendo las herramientas más fiables que conocemos hasta ahora para clasificar la ingente cantidad de información que existe en la actualidad en la Red, es cierto que los buscadores adolecen todavía de debilidades notables. Yo diría que estas debilidades tienen dos vertientes: por un lado, existen determinados tipos de contenidos en Internet cuya indexación es todavía un reto para los buscadores; por otro lado, el empleo de un buscador, cuando queremos encontrar un tipo de contenido muy específico, exige por parte del usuario un conocimiento previo sobre cómo interpretará el buscador su búsqueda y la fórmula de la misma en unos términos que se alejan del lenguaje natural, o bien empleando herramientas tales como operadores, comillas, etc. que igualmente alejan la experiencia de la búsqueda de lo que debería ser algo mucho más intuitivo.

En cuanto a la primera limitación, la que tiene que ver con los contenidos, comprobamos cómo se da la paradoja de que hoy en día existen las herramientas para construir sitios web con un nivel de interacción con el usuario mucho más intenso, tales como Flash o sitios programados con AJAX. Los buscadores siguen siendo esencialmente ciegos para las animaciones, imágenes y contenidos multimedia.

En concreto, los sitios en Flash presentan una interfaz que puede ser personalizada al máximo, que puede integrar todo tipo de información multimedia, programación, etc. lo cual, cuando se emplea adecuadamente, resulta en sitios web de gran impacto, una excelente usabilidad y una muy buena navegación. Podríamos decir que la experiencia del usuario es muy positiva.

De igual forma, los sitios programados de acuerdo con las definiciones de AJAX ofrecen una navegación e interacción mucho más rápida y efectiva, al haber descargado previamente toda la lógica de programación que se ejecuta en modo cliente y no en modo servidor. Esto quiere decir que para cada acción del usuario, ésta no tiene que viajar al servidor en busca de la respuesta adecuada y enviarla de nuevo al navegador, sino que todo está ya en el navegador del usuario, por lo que la rapidez de ejecución de aplicaciones, etc. es muy similar al que obtenemos de aplicaciones de escritorio, fuera del entorno web.

Estos tipos de contenido, sin embargo, son poco o nada indexables. Es decir, los buscadores no pueden rastrearlos, indexarlos y calcular su relevancia adecuadamente. La mayor parte de estos contenidos permanecen invisibles en los buscadores, de forma que una de las asignaturas pendientes para ellos consiste en desarrollar fórmulas que permitan clasificar este tipo de contenidos con la misma facilidad con que indexan las páginas compuestas de texto. Podría afirmarse que el principal freno para una mayor implantación y uso de herramientas como Flash, AJAX, animación, multimedia, etc. consiste precisamente en la incapacidad de los buscadores para reconocer este tipo de sitios web.

Respecto a la forma en que un buscador interpreta las frases de búsqueda introducidas, igualmente pensamos que existe un amplio margen de mejora en la capacidad de identificar adecuadamente a qué se refiere el usuario cuando emplea unas palabras determinadas. El análisis del historial de búsquedas y de navegación de un determinado usuario puede ofrecer muchas pistas a la hora de identificar sus intereses, aficiones, etc. que posibilitarían una mejor comprensión de sus búsquedas. En este sentido, existen algunos experimentos interesantes como Kartoo (http://www.kartoo.com/) o Eurekster (http://www.eurekster.com/) que nos pueden dar algunas pistas de qué podríamos encontrar en los buscadores del futuro.

Los recursos donde aprender sobre buscadores son más y más cada día, especialmente los recursos online. ¿Qué sitios web nos recomendaría para no perdernos nada y asegurarnos de que son recursos de calidad?

Los grandes buscadores tienen su origen en los Estados Unidos y allí están muchos de los recursos online donde podemos estar al día de las últimas novedades al respecto. Aunque también hay fuentes fiables en español. Entre las que me merecen más credibilidad, citaría las siguientes:

Sobre la historia de los buscadores

Sobre cómo funcionan los buscadores y SEO en general:

En español:

Fernando, muchas gracias por respondernos.

Creativa  Commons License

Last updated 11-09-2012
© Universitat Pompeu Fabra, Barcelona