Se considera un nueva vista por cada nuevo visitante que consulta una página y que no haya accedido al sitio en los últimos 60 mins..
Número de Servidores (direcciones IP) que entran a un sitio (y que por lo menos visitan una página).
Esta cifra refleja el número de personas físicas diferentes que hayan accedido al sitio en un día.
Número de ocasiones que una página del sitio ha sido vista (La suma de todos los visitantes incluyendo múltiples visitas).
Este contador se distingue de "hits" porque cuenta sólo las páginas HTML y no los gráficos u otros archivos o ficheros.
El número de ocasiones que una página, imagen, archivo o fichero de un sitio es visto o descargado por un visitante.
Este contador sirve de referencia, pero el contador de "páginas" representa un dato mercadotécnico generalmente más útil y por lo tanto se recomienda.
El número de kilo bytes descargados por los visitantes del sitio.
Se refiere al volumen de datos descargados por todas las páginas, imágenes y archivos o ficheros medidos en kilo bytes.
El programa Awstats es capaz de reconocer una visita a su sitio luego de cada búsqueda desde cualquiera de los 1343 motores de búsqueda y directorios Internet más populares (Yahoo, Altavista, Lycos, Google, Terra, etc...).
Lista de páginas de sitios externos utilizadas para acceder o enlazarse con su sitio (Sólo las 10 páginas más utilizadas se encuentras enumeradas). Los enlaces utilizados por los motores de búsqueda o directorios son excluidos porque ya han sido contabilizados en el rubro anterior.
Esta tabla muestra la lista de las palabras clave más utilizadas en los motores de búsqueda y directorios Internet para encontrar su sitio. (El programa Awstats reconoce palabras clave usadas en los 1343 motores de búsqueda más populares, tales como Yahoo, Altavista, Lycos, Google, Voila, Terra etc...).
Los Robots son visitantes automáticos que escanean o viajan por su sitio para indexarlo, o jerarquizarlo, para recopilar estadísticas de sitios Web, o para verificar si su sitio se encuentra conectado a la Red.
El programa Awstats reconoce hasta 1240 robots.
Todos los tiempos relacionados con las estadísticas están basados en tiempos de servidor.
Aquí, las fechas reportadas son: valores medios (calculado desde todos los datos entre las primeras y los ultimas visitas en el rango analizado)
Aquí, las fechas reportadas son: sumas acumulativas (calculado desde todos los datos entre las primeras y los ultimas visitas en el rango analizado)
Algunas Duraciones de las visitas son 'desconocidas' porque no pueden ser calculadas siempre. La razón principal de esto es:
- La visita no fue acabada cuando ocurrió la 'actualización'.
- La visita comenzó en la hora anterior (después de las 23:00) del pasado día de un mes (la razón técnica de previene a Awstats de la duración calculada de tales sesiones)
Error sin descripción.
La solicitud ha sido computada pero el servidor la procesará más tarde.
El servidor ha procesado la solicitud pero no existen documentos para enviar.
Contenido parcial.
El documento solicitado ha sido reubicado y se encuentra en un URL proporcionado en la misma respuesta.
Error sin descripción.
Error de sintaxis, el servidor no ha comprendido su solicitud.
Número de intentos por acceder un URL que exige una combinación usuario/contraseña que ha sido invalida..
Un número de intentos muy elevado pudiera sugerir la posibilidad de que un hacker (o pirata) ha intentado entrar a una zona restringida del sitio (p.e., intentando múltiples combinaciones de usuario/contraseña).
Número de intentos por acceder un URL configurado para no ser accesible, aún con una combinación usuario/contraseña (p.e., un URL previamente definido como "no navegable").
Número de intentos por acceder un URL inexistente. Frecuentemente, éstos se refieren ya sea a un enlace (link) inválido o a un error mecanográfico cuando el visitante tecleó el URL equivocado.
El servidor ha tardado demasiado tiempo para responder a una solicitud. Frecuentemente se debe ya sea a un programa CGI muy lento, el cual tuvo que ser abandonado por el servidor, o bien por un servidor sobre-saturado.
Error interno. Este error generalmente es causado por una terminación anormal o prematura de un programa CGI (p.e., un CGI corrompido o dañado).
Solicitud desconocida por el servidor.
Código retornado por un servidor de protocolo HTTP el cual funciona como proxy o puente (gateway) cuando el servidor objetivo no funciona o no interpreta adecuadamente la solicitud del cliente (o visitante).
Error interno del servidor.
Pasarela fuera de linea.
Versión de protocolo HTTP no soportada.
Estadísticas de:hobbit.ddo.jpAwstats Web Site
English  French 
Última actualización:3 May 2024 - 04:15
Periodo mostrado:
Volver a la página principal
Visitas de Robots/Spiders
67 robots distintosSolicitudesTráficoÚltima visita
SemrushBot11,114+679260.89 MB30 Nov 2020 - 23:57
Unknown robot (identified by 'bot5,342+64171.52 MB30 Nov 2020 - 23:31
Googlebot5,288+30142.70 MB30 Nov 2020 - 23:58
MegaIndex.ru3,503+182.21 MB7 Nov 2020 - 16:50
AhrefsBot2,677+3163.35 MB30 Nov 2020 - 22:38
MSIE 6 - ( Rogue Robot )2,07198.24 MB30 Nov 2020 - 21:37
Steeler1,517+532.92 MB30 Nov 2020 - 22:55
Bingbot1,418+6562.87 MB30 Nov 2020 - 23:51
internal dummy connection for Apache WebDAV1,303030 Nov 2020 - 19:42
Unknown robot (identified by 'crawl')924+130.94 MB30 Nov 2020 - 01:43
DotBot, Open Site Explorer574+34019.72 MB30 Nov 2020 - 23:15
Unknown robot (identified by 'spider')567+1822.93 MB28 Nov 2020 - 22:56
MJ12bot474+688.77 MB30 Nov 2020 - 22:49
mozilla/5.0 - ( Rogue Robot )197685.08 KB30 Nov 2020 - 07:01
BingPreview1481.04 MB30 Nov 2020 - 21:14
Unknown robot (identified by empty user agent string)132+14421.54 KB30 Nov 2020 - 23:40
Applebot117+232.97 MB30 Nov 2020 - 19:01
SEOkicks Webcrawler122+21.78 MB23 Nov 2020 - 08:09
Firefox version 10 and lower - various robots90+122.69 MB30 Nov 2020 - 10:01
Web Core / Roots761.01 MB25 Nov 2020 - 16:51
Unknown robot (identified by hit on 'robots.txt')0+657.05 KB29 Nov 2020 - 13:27
Googlebot-Image581.24 MB30 Nov 2020 - 01:10
robertdavidgraham/masscan34118.24 KB30 Nov 2020 - 15:11
MSIE 5 - ( Rogue Robot )33+1114.87 KB28 Nov 2020 - 04:11
Python-urllib30+2391.12 KB30 Nov 2020 - 14:12
mozilla/4.0 (compatible;) - ( Rogue Robot )27288.85 KB27 Nov 2020 - 13:23
2345Explorer25338.09 KB30 Nov 2020 - 06:25
oBot16+6129.42 KB10 Nov 2020 - 05:28
Common Crawl13+4369.92 KB29 Nov 2020 - 07:51
facebookexternalhit16698.23 KB30 Nov 2020 - 00:38
はてなアンテナ12916.02 KB30 Nov 2020 - 12:15
Nutch12162.28 KB17 Nov 2020 - 06:12
DuckDuckGo-Favicons-Bot1138.25 KB28 Nov 2020 - 04:16
Baidu ( catchall )10165.32 KB23 Nov 2020 - 13:47
Babya Discoverer931.30 KB16 Nov 2020 - 03:45
BaiDuSpider927.82 KB30 Nov 2020 - 15:35
FavIconizer931.30 KB26 Nov 2020 - 11:36
PhantomJS917.35 KB10 Nov 2020 - 10:38
GrapeshotCrawler4+314.24 KB25 Nov 2020 - 15:12
link4+314.47 KB23 Nov 2020 - 14:52
linkdexbot6+1189.54 KB14 Nov 2020 - 12:22
ning745.30 KB17 Nov 2020 - 12:32
Mozilla Beta (Windows) - ( Rogue Robot )620.87 KB19 Nov 2020 - 18:03
Twitterbot3+3289.07 KB12 Nov 2020 - 22:10
Deepnet Explorer517.39 KB10 Nov 2020 - 12:26
ltx712+33.59 MB25 Nov 2020 - 22:20
MSIE 2 - ( Rogue Robot )517.39 KB18 Nov 2020 - 12:26
Yahoo! Slurp5219.14 KB18 Nov 2020 - 03:02
Mail.ru bot2+27.17 KB21 Nov 2020 - 12:33
Google AdSense444.05 KB29 Nov 2020 - 01:50
Apache-HttpClient310.43 KB14 Nov 2020 - 05:00
Konqueror350.61 KB20 Nov 2020 - 10:14
SurdotlyBot2+17.06 KB20 Nov 2020 - 01:49
360spider2028 Nov 2020 - 07:02
CFNetwork255.91 KB26 Nov 2020 - 22:56
Common *nix tool for automating web document retireval. Most likely a bot..26.96 KB30 Nov 2020 - 04:39
Perl tool26.96 KB19 Nov 2020 - 15:53
MSIECrawler26.96 KB5 Nov 2020 - 22:18
Netcraft23.48 KB30 Nov 2020 - 03:37
Y!J Yahoo Japan1+1184.44 KB23 Nov 2020 - 03:01
Dalvik13.48 KB10 Nov 2020 - 10:10
FaceBook bot185.18 KB6 Nov 2020 - 15:01
Java (Often spam bot)13.48 KB13 Nov 2020 - 00:37
seoscanners.net (related to publiclibraryarchive.org and savetheworldheritage.org?)139.15 KB12 Nov 2020 - 14:57
Sogou web spider0+1111 Bytes20 Nov 2020 - 14:00
Validator.nu13.48 KB18 Nov 2020 - 14:57
WGet tools0+1111 Bytes27 Nov 2020 - 22:35
* Los Robots mostrados aquí son dados por solicitudes o tráfico "no visto" por los visitantes, y no se incluyen en otros apartados. Los números mostrados trás el + son solicitudes con éxito de archivos "robots.txt".
Advanced Web Statistics 7.8 (build 20200416) - Generado por awstats (plugins: tooltips, geoipfree)