Parece ser que desde haces meses, Google está contratando a gente para formar un equipo de control de calidad de sus resultados. Hace poco, un tal Henk van Ess ha inaugurado su blog publicando información filtrada por alguien que participa en dicho programa. Entre las cosas a destacar:

  • Hay un archivo flash mostrando una de las tareas que llevan a cabo estos raters (comparar la calidad de los resultados de dos algoritmos distintos), pero a juzgar por las notas explicativas de los directores del proyecto, está más centrado en definir la calidad de las webs individuales que aparecen en los resultados. Lo que de momento ignoramos es si el objetivo es tomar medidas concretas sobre ellas (es decir, si se trata de una brigada anti-spam) o tener una base de datos suficientemente amplia de webs analizadas para contrastar los resultados de los algoritmos de detección de spam, etc.
  • Se puede entrever las notas que se aplican a las webs:
    • Erroneous (¿resultado erróneo, es decir, que ni siquiera responde a la consulta realizada?)
    • Offensive (spam)
    • Relevant (¿relevantes a la consulta realizada; sin valorar si son las más adecuadas, por lo menos sí responden a la temática buscada?)
    • Merits (¿calidad, utilidad? Se hace mención a que las webs que no sean spam y sean relevantes pueden ser ‘puntuadas según los méritos’, con lo que supongo que las que tengan mayores ‘méritos’ deberían aparecer antes en los resultados)
  • Lo que se considera spam: tal como mucha gente dice una y otra vez, Google ya no considera spam unas determinadas técnicas, sino más bien la calidad de las webs; si tienes un montón de páginas perfectamente inútiles (generadas gracias a una feed de afiliación y que por tanto la misma información también esté presente en otros tropecientosmil sitios, por ejemplo) Google te considererá spam aunque no uses ninguno de los métodos que tradicionalmente se veían con malos ojos por parte de los buscadores (texto oculto, doorways, cloaking, etc.)
  • Caña al afiliado: casi toda la información se centra en identificar (y castigar) webs de afiliados, en contraste con los negocios ‘de verdad’ que tienen inventorio, etc.
  • ¿Caña al adsensero?: “(…) tell-tale signs of the ppc schemes” puede referirse a las webs cuyo principal objetivo es canalizar clics hacia AdSense, Overture, Espotting…
  • No os perdáis las consultas de ejemplo que se ven en el archivo flash.

Algunas notas revelan bastante ponderación por parte de los directores del proyecto. Por ejemplo:

  • Se menciona que el pecado de los afiliados no consiste en ser afiliados, sino en no aportar nada más aparte del contenido afiliado, dejando la puerta abierta a modelos de negocios que se basen en generar ingresos a través de la afiliación siempre que aporten otros valores, contenidos, etc. a sus usuarios
  • Se contempla la posibilidad de que en una misma web convivan páginas ‘ofensivas’ con otras más valiosas, y por tanto se juzga necesario examinar los resultados página a página, no web a web

Sin embargo, personalmente creo que este modelo es muy, muy peligroso para los productores de webs, y espero que se utilice principalmente para generar un “grupo de control” con el que contrastar los resultados del algoritmo, no para modificar los resultados ‘a mano’. Y me temo que a juzgar por la cantidad de baneos manuales que he visto recientemente, se está usando para esto último.

Hasta ahora, los editores de webs nos enfrentábamos a un solo proceso crítico: la elección, por parte de Google, de los aspectos de una web de acuerdo con los que juzgaban la calidad de un sitio. Crítico porque era aquí donde se podían producir los errores (¿por qué era más relevante una web que usara H1 en lugar de poner los titulares como gráficos?). Sin embargo, la medición de estos detalles, al ser realizadas por un pedazo de software, era perfectamente objetiva.

Ahora, sin embargo, podríamos estar enfrentándonos a dos procesos críticos; la selección de factores a medir, que contendrá más o menos errores que anteriormente, y la medición de dichos factores, que al ser realizados por seres humanos ya no será objetivo, sino susceptible de sufrir errores, arbitrariedades, subjetividades…

Recordemos que, por ejemplo, las directrices de DMOZ sobre sitios afiliados son bastante parecidas a las que parece estar aplicando Google, y sin embargo, los editores las malinterpretan una y otra vez, marcando como spam toda web que tenga contenido afiliado, aunque ofrezca otros valores.

No sé a vosotros, pero a mí me pone los pelos de punta pensar que la suerte de mis webs depende de un estudiante que desarrolla esta labor como trabajo a tiempo parcial a razón de unos pocos euros por hora.

Palabra de misántropo.



« (Anterior) Google Sitemaps
Teclado profundo (Posterior) »

Deja una respuesta