En una de las múltiples cuentas de e-mail que cada día me amanecen reventonas de spam, me ha llegado esto:

Mail Server

Dear xxxx:

We offer Bullet Proof dedicated server:

Fresh IPs
1024MB RAM DDR
P4 3.2GHz CPU
72GB SCSI
Dedicated 100 M fiber
Unlimited Data Transfer
Linux/Windows/FreeBSD
Install any software
Server in China

Price: US$599.00 per month

You may use the server for any of the following:

Direct Mailing
Proxy Mailing
Bulk Hosting

We also may supply Targeted Email list according to
your order, and sending out Targeted Emails for you.

¿Estoy equivocado, o realmente ahora usan el spam para anunciar servidores para hacer spam (spam del de verdad, no honrado polucionamiento en buscadores)?

Premio entropia

Inspirado por el concurso de logos de Forobuscadores, he decidido que es hora de organizar mi propio concurso que manipular. Si este fuese un blog con muchos lectores y que se actualizara varias veces al día, sin duda convocaría un premio al mejor blog o al bloguero más popular. Como este blog es lo que es, he decidido en cambio convocar el

PRIMER PREMIO “ENTROPÍA” AL BLOG MÁS ABANDONADO

BASES:

Pues vas aquí y votas. O añades un nuevo blog (si ya no existe físicamente, puedes apuntar a la caché de un buscador o a archive.org).

El organizador se reserva el derecho a declarar el premio desierto, a eliminar los votos que procedan de la misma IP y voten al mismo blog, a manipular los resultados para que encajen con sus gustos personales, a recibir cuantos sobornos tengan a bien enviarme los participantes, a irse al cine el día que en teoría deba dedicar a recontar los votos, y a modificar arbitrariamente las presentes normas.

Los resultados se darán a conocer a finales de 2005, cuando me aburra de este estúpido concurso, o momentos antes de que el sol se convierta en supernova gigante roja; lo que llegue primero.

Además de declarar un vencedor, si me da por ahí también se entregarán los siguientes accésits:

  • Accésit “Qué wástima“, al blog que honestamente nos apene que haya sido abandonado.
  • Accésit “Espantá” al bloguero que anuncia que va a abandonar el blog y lo retoma en cuanto los comentarios de amigos y familiares en el post de despedida le convencen de que Internet no tiene sentido sin su blog.
  • Accésit “Que viene el lobo y que se te ve el plumero“, como el anterior pero con reincidencia.
  • Accésit “Caso cerrado“, al blog que ya desde su planteamiento era un proyecto cerrado y por tanto alcanza su pleno sentido como blog abandonado (por ejemplo, una novela en formato blog).
  • Accésit “El artista accidental“, como el anterior pero que no sea deliberado (por ejemplo, un blog destinado a luchar contra la procrastinación que se haya quedado en el primer y único post).
  • Accésit “Falso, muerto, bastardo e infumable” al mejor falso blog abandonado, por ejemplo pseudoblogs de famosillos, empresas, políticos u otros blogs institucionales escritos por agencias de comunicación, departamentos de márketing y gabinetes de prensa.
  • Accésit “Aquí huele a muerto (pues ya no escribo)” al blog que nunca se ha despedido oficialmente pero que según pasa el tiempo y entramos y vemos los mismos posts, nos queda claro que:
    • el blog ha fallecido
    • el blog ya no existe
    • el blog ha ido a reunirse con su creador
    • el blog es un ex-blog
    • el blog está criando malvas

    (En otras palabras, el inevitable destino de este blog.)

En resumen, si conocéis un blog de estas características, o queréis azuzar a ese blog que os gusta pero que se actualiza tan pocas veces, votad, votad, malditos.

Si además de votar queréis comentar a quién habéis votado, por qué, a qué accésit lo proponéis, o a qué huelen las nuebes, podéis dejarlo en los comentarios a este post.

Una de las cosas que no me gustan de los sistemas de publicación de blogs: escribir entradas en línea. Un despiste, y las treinta líneas que llevabas escritas se van a la porra porque sin querer has clicado un enlace, o estás trabajando a la vez en otro programa que ha abierto una dirección web y en lugar de abrir una nueva ventana te ha secuestrado la que ya tenías abierta y en la que estabas editando tu entrada.

Por esto estoy probando www.wbloggar.com, a ver qué tal.

Henk van Ess’s Search Bistro ha publicado dos documentos internos dirigidos a los raters de Google.

El primero es una guía general en PDF para valorar individualmente los resultados devueltos por una consulta, y se desarrollan los baremos que se entreveían en los anteriores posts.

El segundo es un documento de word para identificar spam. Muy interesante. Alguno de los ejemplos me resulta bastante familiar. Me preocupa que, si yo fuera un rater, después de leerlo tendría la impresión de que cualquier directorio que incluya resultados de PPC (curiosamente se mencionan los search feeds y no AdSense) es spam, independientemente de que también contenga resultados genuinos y no sea contenido duplicado. Creo que se trata más bien de un error de comunicación y no es esta la inteción de Google, pero…

Parece ser que desde haces meses, Google está contratando a gente para formar un equipo de control de calidad de sus resultados. Hace poco, un tal Henk van Ess ha inaugurado su blog publicando información filtrada por alguien que participa en dicho programa. Entre las cosas a destacar:

  • Hay un archivo flash mostrando una de las tareas que llevan a cabo estos raters (comparar la calidad de los resultados de dos algoritmos distintos), pero a juzgar por las notas explicativas de los directores del proyecto, está más centrado en definir la calidad de las webs individuales que aparecen en los resultados. Lo que de momento ignoramos es si el objetivo es tomar medidas concretas sobre ellas (es decir, si se trata de una brigada anti-spam) o tener una base de datos suficientemente amplia de webs analizadas para contrastar los resultados de los algoritmos de detección de spam, etc.
  • Se puede entrever las notas que se aplican a las webs:
    • Erroneous (¿resultado erróneo, es decir, que ni siquiera responde a la consulta realizada?)
    • Offensive (spam)
    • Relevant (¿relevantes a la consulta realizada; sin valorar si son las más adecuadas, por lo menos sí responden a la temática buscada?)
    • Merits (¿calidad, utilidad? Se hace mención a que las webs que no sean spam y sean relevantes pueden ser ‘puntuadas según los méritos’, con lo que supongo que las que tengan mayores ‘méritos’ deberían aparecer antes en los resultados)
  • Lo que se considera spam: tal como mucha gente dice una y otra vez, Google ya no considera spam unas determinadas técnicas, sino más bien la calidad de las webs; si tienes un montón de páginas perfectamente inútiles (generadas gracias a una feed de afiliación y que por tanto la misma información también esté presente en otros tropecientosmil sitios, por ejemplo) Google te considererá spam aunque no uses ninguno de los métodos que tradicionalmente se veían con malos ojos por parte de los buscadores (texto oculto, doorways, cloaking, etc.)
  • Caña al afiliado: casi toda la información se centra en identificar (y castigar) webs de afiliados, en contraste con los negocios ‘de verdad’ que tienen inventorio, etc.
  • ¿Caña al adsensero?: “(…) tell-tale signs of the ppc schemes” puede referirse a las webs cuyo principal objetivo es canalizar clics hacia AdSense, Overture, Espotting…
  • No os perdáis las consultas de ejemplo que se ven en el archivo flash.

Algunas notas revelan bastante ponderación por parte de los directores del proyecto. Por ejemplo:

  • Se menciona que el pecado de los afiliados no consiste en ser afiliados, sino en no aportar nada más aparte del contenido afiliado, dejando la puerta abierta a modelos de negocios que se basen en generar ingresos a través de la afiliación siempre que aporten otros valores, contenidos, etc. a sus usuarios
  • Se contempla la posibilidad de que en una misma web convivan páginas ‘ofensivas’ con otras más valiosas, y por tanto se juzga necesario examinar los resultados página a página, no web a web

Sin embargo, personalmente creo que este modelo es muy, muy peligroso para los productores de webs, y espero que se utilice principalmente para generar un “grupo de control” con el que contrastar los resultados del algoritmo, no para modificar los resultados ‘a mano’. Y me temo que a juzgar por la cantidad de baneos manuales que he visto recientemente, se está usando para esto último.

Hasta ahora, los editores de webs nos enfrentábamos a un solo proceso crítico: la elección, por parte de Google, de los aspectos de una web de acuerdo con los que juzgaban la calidad de un sitio. Crítico porque era aquí donde se podían producir los errores (¿por qué era más relevante una web que usara H1 en lugar de poner los titulares como gráficos?). Sin embargo, la medición de estos detalles, al ser realizadas por un pedazo de software, era perfectamente objetiva.

Ahora, sin embargo, podríamos estar enfrentándonos a dos procesos críticos; la selección de factores a medir, que contendrá más o menos errores que anteriormente, y la medición de dichos factores, que al ser realizados por seres humanos ya no será objetivo, sino susceptible de sufrir errores, arbitrariedades, subjetividades…

Recordemos que, por ejemplo, las directrices de DMOZ sobre sitios afiliados son bastante parecidas a las que parece estar aplicando Google, y sin embargo, los editores las malinterpretan una y otra vez, marcando como spam toda web que tenga contenido afiliado, aunque ofrezca otros valores.

No sé a vosotros, pero a mí me pone los pelos de punta pensar que la suerte de mis webs depende de un estudiante que desarrolla esta labor como trabajo a tiempo parcial a razón de unos pocos euros por hora.

Palabra de misántropo.

Me pregunto cuánto tiempo tardará en aparecer la siguiente leyenda urbana, o meme, o memez:

Las páginas que Google encuentre a través del servicio Google Sitemaps se posicionarán mejor que aquellas que encuentre por sí mismo.