新しい訪問者とは、過去60分間にこのサイトに接続しておらず、新たにこのサイトを閲覧した外部から訪れた訪問者です。
このサイトを訪れ(かつ最低1ページを閲覧し)たクライアントホスト(IPアドレス)の数。
この数字はこのサイトに訪れた重複を除いた訪問者の合計を示します。
このサイト内のページが閲覧された回数(全ての訪問者の全ての訪問の延べ回数)。
この数字はイメージやその他のファイルまで数える"ヒット"とは異なり、HTMLファイルのページ数のみを数えます。
このサイト内のページ、イメージ、ファイルが閲覧もしくはダウンロードされた回数。
閲覧された"ページ数"の方がマーケティングデータとして好まれるため、この数字はあくまで参考です。
このサイトからダウンロードされた、全てのページ、イメージ、ファイルの総量。
単位はKB, MB, GB(それぞれキロバイト, メガバイト, ギガバイト)です。
Awstatsは、1343の主要な検索エンジンやディレクトリ(Yahoo, Altavista, Lycos, Google, Gooなど)で検索した結果として、あなたのサイトを訪れたアクセスを認識します。
あなたのサイトへリンク(訪問)するために利用された全ての外部のページのリスト(最も良く利用された10の外部のページのみが表示されています)。
検索エンジンの結果として生成されたリンクは、このテーブルの前列の数字に既に含まれているため、除外されています。
このテーブルは、検索エンジンやディレクトリであなたのサイトを捜し出すために最もよく利用されたキーワードの一覧です。
(Yahoo, AltaVista, Lycos, Google, Gooなど、1343の主要な検索エンジンで利用されたキーワードです。)
検索語の集計値が検索文の集計値(検索が行われた回数)よりも大きくなる場合があります。これは、一回の検索で複数の検索語が使用された場合、それぞれ別個の検索語として集計されるからです。
ロボット(スパイダーと呼ばれることもあります)は、あなたのサイトをインデックス化/ランク付けしたり、インターネットに存在するWebサイトの統計を取ったり、あなたのサイトがまだ存在するかどうかを確認したりするためにスキャンを行う、多くの検索エンジンで利用されている自動巡回プログラムのことです。
Awstatsは最大1240のロボットを認識することができます。
統計に利用されるすべての日時は、サーバーの日時を利用しています。
ここに表示されている数値は: 平均値です (最初の訪問から最後の訪問の間の全データより算出)
ここに表示されている数値は: 累積値です (最初の訪問から最後の訪問の間の全データより算出)
滞在時間は正確にはわからない場合があります。これは、必ずしも正確に計算で きるとは限らないからです。以下にその主な理由を示します。:
- 訪問は、"更新"が発生した際に終了するわけではない。
- 月末日の最後の1時間(23時以降)に訪問が開始された場合(技術的な理由でAwstatsはこのようなセッションの滞在時間を計算できない)。
ファイルが作成されました。
リクエストをサーバーは受け付けましたが、処理は後で行われます。
WebDAV機能でファイルの削除が成功しました。
サーバーはリソースに対するGETリクエストを部分的に実行しました。
要求されたドキュメントは移動されており、返答に含まれている別のアドレスに現在は存在します。
このエラーは定義されていません。
文法的なエラー。サーバーはリクエストを理解できませんでした。
ユーザー名/パスワードが必要とされるURLにアクセスしようとしました。
この項目が高い数字を示している場合、クラッカーなどがクラックを試みているか、あなたのサイトに不正に侵入しようとしている事を示している可能性があります(セキュアな領域に色々なユーザー名/パスワードを利用して侵入しようとしているなど)。
ユーザー名/パスワードがあったとしてもアクセスできるようには設定されていないURLにアクセスしようとしました("閲覧可能"とされていないディレクトリを示すURLなど)。
存在しないURLにアクセスしようとしました。このエラーはあなたのサイトのどこかに無効なリンクがあるか、訪問者が特定のURLをミスタイプしたかのいずれかを意味します。
サーバーがリクエストに応答するために費した時間が長過ぎました。このエラーは、CGIスクリプトの動作が遅すぎてそのジョブをサーバーがkillする必要があった場合や、サーバーに対する負荷が高すぎた場合に頻繁に発生します。
内部エラー。このエラーはCGIスクリプトが不正に終了した場合に頻繁に発生します(コアダンプなど)。
実装されていないメソッドによるリクエスト。
Proxyサーバーもしくはゲートウェイとして動作するHTTPサーバーが、目的のサーバーがクライアントの要求に対して正常に応答できなかった場合に返されるエラーコード。
内部サーバーエラー。
ゲートウェイのタイムアウト。
サポートされていないHTTPのバージョン。
最後の訪問
32 種類のロボット | ヒット | 帯域 | 最後の訪問 |
未分類のrobot (名前に'bot'の後に空白か_+:,.;/\-のいずれかの文字を含む) | 91,937+24 | 2.43 GB | 2025年7月2日 - 04:17 |
SemrushBot | 114+20 | 2.88 MB | 2025年7月2日 - 04:15 |
Website-Datenbank | 1+1 | 3.54 kB | 2025年7月2日 - 04:12 |
Googlebot | 91+1 | 1.28 MB | 2025年7月2日 - 04:05 |
Googlebot-Image | 4 | 143.59 kB | 2025年7月2日 - 03:54 |
Bingbot | 40+1 | 1.57 MB | 2025年7月2日 - 03:50 |
Applebot | 20+1 | 589.68 kB | 2025年7月2日 - 03:44 |
DotBot, Open Site Explorer | 23+14 | 615.34 kB | 2025年7月2日 - 03:36 |
Dalvik | 1 | 3.43 kB | 2025年7月2日 - 03:35 |
Baidu ( catchall ) | 1 | 3.43 kB | 2025年7月2日 - 03:33 |
internal dummy connection for Apache WebDAV | 67 | 0 | 2025年7月2日 - 03:18 |
nbot | 12+1 | 457.17 kB | 2025年7月2日 - 02:52 |
AhrefsBot | 15+2 | 222 B | 2025年7月2日 - 02:41 |
MJ12bot | 17+8 | 773.29 kB | 2025年7月2日 - 02:34 |
未分類のrobot (user agent文字列がない) | 23+1 | 78.97 kB | 2025年7月2日 - 02:11 |
MSIE 6 - ( Rogue Robot ) | 5 | 122.86 kB | 2025年7月2日 - 01:59 |
mozilla/5.0 - ( Rogue Robot ) | 4 | 13.71 kB | 2025年7月2日 - 01:04 |
FaceBook bot | 13 | 322.13 kB | 2025年7月2日 - 00:41 |
ウェブドキュメントの収集に使われる標準の*nixツール。恐らくボット。. | 3 | 6.86 kB | 2025年7月2日 - 00:39 |
Python-urllib | 5 | 9.83 kB | 2025年7月1日 - 22:59 |
BLEXBot, seems to belong to the WebMeUp backlink tool | 6+2 | 206.47 kB | 2025年7月1日 - 21:48 |
Twitterbot | 19+8 | 66.01 kB | 2025年7月1日 - 20:54 |
YandexBot | 1+1 | 68.30 kB | 2025年7月1日 - 18:59 |
未分類のrobot ('robots.txt'への参照で検出) | 0+1 | 111 B | 2025年7月1日 - 18:44 |
feed | 19+1 | 329.74 kB | 2025年7月1日 - 18:40 |
未分類のrobot (名前に'spider'を含む) | 0+1 | 111 B | 2025年7月1日 - 18:35 |
Custo | 3 | 10.29 kB | 2025年7月1日 - 18:17 |
未分類のrobot (名前に'crawl'を含む) | 412+7 | 17.44 MB | 2025年7月1日 - 17:21 |
Konqueror | 1 | 3.43 kB | 2025年7月1日 - 14:05 |
oBot | 1 | 14.08 kB | 2025年7月1日 - 12:47 |
Iframely | 1 | 71.83 kB | 2025年7月1日 - 08:54 |
Firefox version 10 and lower - various robots | 1 | 3.43 kB | 2025年7月1日 - 02:06 |
* ここにリストされているロボットは不可視な訪問者としてカウントされているため、サマリの不可視トラフィック以外のチャートの数値には含まれていません。 +の後に表示されている数値は、“robots.txt”ファイルへの参照で検出されたヒット数です。