Ayer visitaron nuestra web 1400 humanos y 424 robots… al menos, eso dicen las estadísticas. Aunque realmente son algunos menos, lo que pasa es que como los robots (que van navegando por internet almacenando el contenido de las páginas, normalmente para luego incluirlos en los resultados de búsquedas) no aceptan cookies ni ids de sesión, cada vez que visitan una página es como si lo hicieran por primera vez.
Entre los más activos de ayer, Googlebot/2.1 que visitó unas 100 páginas, no obstante a parte de él, ayer fueron unos cuantos (orden alfabético), algunos con más hambre que otros:
- ccubee/3.1
- Googlebot/2.1 (+http://www.google.com/bot.html)
- http://www.almaden.ibm.com/cs/crawler [fc12]
- ia_archiver
- Mediapartners-Google/2.1
- Mozilla/2.0 (compatible; Ask Jeeves/Teoma)
- Mozilla/3.0 (compatible)
- Mozilla/4.0 (compatible; Cerberian Drtrs Version-3.2-Build-0)
- Mozilla/4.0 (compatible; Cerberian Drtrs Version-3.2-Build-1)
- Mozilla/4.0 (compatible; grub-client-2.6.0)
- Mozilla/4.0 compatible ZyBorg/1.0
- Mozilla/5.0 (compatible; Googlebot/2.1)
- Mozilla/5.0 (compatible; Yahoo! Slurp)
- msnbot/1.0
- NutchCVS/0.06-dev (Nutch)
- psbot/0.1
- ScSpider/0.2
- Seekbot/1.0
- SurveyBot/2.3 (Whois Source)
- Ultraknowledge Spider
- WebIndexer/1-dev
- Wget/1.8.1
- Xerka MetaBot v1.0.0 [GaiaSoftwareticES]
Con respecto a nuestras Estadísticas para Medir la Utilidad de un Web es necesario eliminar estas visitas de los cómputos. En los primeros gráficos que aportamos (ver link anterior), no lo hicimos y formaban parte de los usuarios tipo E… en los próximos gráficos, que publicaremos en unos días, todas estas visitas ya no distorsionarán los resultados… eliminaremos completamente del gráfico los usuarios Tipo E (robots) y ya sólo nos quedarán usuarios tipo A, B, C y D, que corresponderán a nuestra primera clasificación de usuarios con acuerdo a la «supuesta» utilidad que conceden a nuestro web.
- Tipo D – Usuarios para los que el web no es útil.
- Tipo C – Relativamente Útil
- Tipo B – Útil
- Tipo A – Muy útil