恒例のアクセス解析調査、第17弾。
調査期間は、[2005/10/16-11/30]。

過去の調査一覧はこちら。
NOBODY:PLACE - MUTTER / Tag Search: BotReport

WEB SERVICE
DELCO READER
UA: DELCO READER/1.0 (http://reader.freerss.net;) 無料のWEBベースの、RSSリーダー、らしい。便利そう…だけど結局は『はてな』と同じことでは…。ちらっと見た感じでは、使いやすそうなUIだったし、ポータル的に使えるかもしれない。今、Becky!のプラグインでRSSを取得してるけど、正直に言って、使いやすいとは言い難いからなぁ。処理が遅かったり、重複して取得しちゃったり、取得しなかったり、表示が不十分だったり…ちょっとコレ使ってみようかなぁ。(あ、作戦に引っかかってる?(笑)) 無料のWEBベースRSSリーダー[DELCO READER] by freeRSS.net


Another HTML-lint
UA: Another_HTML-lint/1.20 +libwww-perl/5.801
非常に簡単に言うと、HTMLの文法チェッカ、らしい。誰だ勝手にチェックしたのは(笑)別に良いけど。


Enma
UA: Enma/1.08
サイトでの説明によると、『ローカルファイルやインターネット上のWEBページから文字列を抜き出します。』とある。WEBサイトのテキストを、クリップしておくようなソフトかな?と一瞬思ったけど、『Enma には以下の3モードがあります。(中略)mailto モード:メールアドレス部分の文字列を抜き出します。』うおっ、コレって、メアド収集に使えるじゃねーか。まぁ道具をどう使うかは、使用者に任されているわけで、道具には責任はないけれども、アクセスが来た2度とも、MUTTERのトップディレクトリってのが気になる。えー、遮断と言うことで。有用だとは思うけどさ。


DKLog.JP Bot
UA: DKLog.JP Bot Ver. 1.00:
なんかよくわからないけど、日記サービスから来ているようだ。ブログ対象のサービスでも始めるんだろうか?


thumbshots
UA: thumbshots-de-Bot (Version: 1.02, powered by www.thumbshots.de)
検索してヒットしたサイトを、サムネイルで表示させるのがウリの検索サイト。多分。ていうか、ドイツ語で読めなかったんだよね。www.thumbshots.netと同じ系列かどうかは不明(なんか雰囲気が違いすぎるし、違うような気も…)


SBIder
UA: SBIder/0.8-dev (SBIder; http://www.sitesell.com/sbider.html; http://support.sitesell.com/contact-support.html)
ネットを利用したビジネスのコンサルタント会社のようだ。あんまりきちんとは読んでいないが、集めたデータは顧客への情報提供のみに利用し、サーバからは48時間以内に削除される、と書いてるような気がする。随分しっかりしているなぁ。こう書いてあると、企業として正体不明であっても、なんとなく信用できるような気がするから不思議だ。


blog360.jp
UA: blog360.jp
IP: proxy-idc-2.dnp.co.jp
また新しいサービスですか。でも、このURLに飛んでも何もないんだよねぇ…せめて、サーバくらい立ち上げてから来てはもらえないだろうか。大日本印刷から来てるところを見ると、そういうサービスでも始める予定なのかな。まぁ何となくぶしつけに感じたので、以後の訪問はご遠慮願いました。はい。

BOT/CRAWLER
OutfoxBot
UA: OutfoxBot/0.3 (For internet experiments; http://; outfox.agent@gmail.com) 中国からお越しのクローラー。robots.txtを読んで帰ってるし、インターネットにおける実験のため、との言葉があるし、マシか。よくわからないけど、きっとそう言うことなんだろう。index化。専門家ではないからわからないけど、index化の研究に取り組む人って多いよね。そして、銘々が、それぞれの理論に基づいたクローラーを走らせてるわけだけど、もうちょっと統一とか出来んのかね。いちいち気にするのもなぁ。なんだかなぁ。(一応、メールアドレスに問い合わせてみた)


UA: fjgccvriralk4ggu4eacdl
以前、一度報告したことがあるかもしれないけれども、UAをランダムで変えてくるBOT。狙いはあくまで掲示板であり、書き込まれる文章はいわゆるスパム。オンラインカジノとか。韓国経由できていることが多いのだけど、だからといって韓国人が、と考えるのは総計…全世界にとんでもない数のゾンビPCが存在しているのは常識だし、韓国のBB普及率は凄いからね。踏み台がいっぱいあっても不思議じゃない。それにしてもなんつー悪質な…掲示板のみ、韓国からのアクセスを切ろうかな…


FeedFetcher-Google
UA: FeedFetcher-Google; (+http://www.google.com/feedfetcher.html)
GoogleのFeed用クローラー。UA内で参照されているページを除くと、『add them to their Google homepage or Google Reader』とあり、複数のRSSサービス向けの情報を集めるため、ということのようだ。本当に、Googleもよくやるよなぁ。でも、最近は、無料で何でもかんでも提供することに疑問を呈する声がちらほら出てき始めた。確かにそのうち、マイクロソフトみたいに独禁法で訴えられるかもしれないなぁ。


voyager/1.0
UA: voyager/1.0
IP: 38.112.6.182
まぁ同名の宇宙探査衛星はあるけれども…よくわからない。でもまぁクローラーだろうね。


Y!J-DSC
UA: Y!J-DSC; http://help.yahoo.co.jp/help/jp/search/indexing/indexing-15.html
おお?Yahoo!Japanの新しいクローラーか?と思ったら、んーそう言うわけでもなさそう。上記URLのページを覗いてみると、こんなことが書かれていた。
Yahoo! Inc.のインデックスクローラーのほかに、Yahoo! JAPANでは、研究・開発・メンテナンスなどの目的で、以下のような独自のクローラーを管理、運営しています。以下のクローラーの巡回を拒否したい場合は、ページ下部の[いいえ]ボタンを押して、お問い合わせフォームからご連絡ください。
・Y!J-DSC
・Y!J-BSC

なるほどねーそういうこともしてるんですねー。

SOFTWARE
Hidemarnet Explorer
UA: Hidemarnet Explorer 2.08 秀丸エディタで、ネット上のファイルを開くためのアプリケーション…なんだそうだ。よくわからんが。関連づけじゃダメなんだろうか?いや、うーむ、解説ページを読んでみると、エディタとリンクして、いろんなことが出来るみたいだ。凄いね。便利なのかな?


Curl
UA: curl/7.11.1 (i686-pc-cygwin) libcurl/7.11.1 OpenSSL/0.9.7i zlib/1.2.3
WEBの開発言語、らしい。Curl。『Webアプリケーションの問題や課題を解決するリッチクライアントWebテクノロジー』うん、まぁそれは良いんだけど、それがここにやってくる理由がわからないなぁ。ブラウザなのかなぁ。
追記:恐らくこちらでは、というつっこみを受けまして。今まで縁がなかったんですが、最近知りまして、確かにそうかも、と。そういうわけで、修正しておきます。
cURL and libcurl

FAST Enterprise Crawler
UA: FAST Enterprise Crawler/6.4 (helpdesk at fast.no) IP: 69.25.71.12 謎のクローラー。IP検索しても、アメリカから、ということしかわからず。robots.txt見て素直に帰ってるんで、悪さをするわけではなさそうだけど… 追記:情報提供ありがとうございます。 helpdesk at fast.noの、『fast.no』がドメインのようです。『.no』(ノルウェー)とは気付かなかった…頭硬いなぁ、俺。サイトは普通の検索サイトのようです。 Fast Search & Transfer - Home - Enterprise Search


BOI
UA: BOI-0.1.1
BOIで検索すると、『タイ国投資委員会』(the Board Of Investment)なんていうのがヒットしますが、まぁ当然関係ないよね…(苦笑)直にファイルへアクセスしてきてるけど…なんだろう?謎。


Shim Crawler
UA: Shim Crawler
IP: 157.82.246.104
検索するといくつか情報には当たるんだが、クリティカルな情報はなく、実体は不明。ただし、IP検索をしてみると東京大学のIPであることが判明。研究用か?


Shim-Crawler
UA: Shim-Crawler
IP: 157.82.246.104
robots.txtを読んですぐに帰っているBOT。IPアドレスをチェックすると、『University of Tokyo』という情報が出てくる辺り、例によってその辺を研究する研究室で作られたクローラーなのだと思う。って、ああ、前回は『Shim Crawler』っていう名前だったのか。なぜ、スペースをハイフンに変えたのか…ていうか、目的を始め何の情報もない。研究するなら、インデックス構造だけじゃなくて、きちんとやらんかい、と思うのだけど、多分彼らには無理だよなぁ。良い悪いじゃなくて、学生、研究職にはそういう傾向がある。自分のしていることを肯定する以外に、意義がないのだから仕方がない。


Ruby/Aether
UA: Ruby/Aether 2.0.0
普通にエントリを読みに来ているのだが、正体は不明。Rubyで書かれた、Aetherというソフトの、バージョン2.0.0、という意味だろうか?ちなみに、『Aether』とは、『ether』とも書き、エーテルのことらしい。エーテルとは、まだ宇宙が真空であるという概念がなかった頃、星間などあらゆるところを満たすと考えられていた仮想の物質のこと。また、『Aether』で、アイテルと読み、天空の上天という意味もあるらしい。
…だからなんだってんだ。


Wells Search II
UA: Wells Search II
オランダ出身。ディレクトリを2回ずつ舐めるように見ていく。気持ち悪いなぁ。


RufusBot
UA: RufusBot (Rufus Web Miner; http://64.124.122.252/feedback.html)
一応、URIが付記されているけど、このページに飛んでも、フィードバック用のメールフォームがあるだけで、なにひとつわからない。しかも、自鯖なのか、ルートディレクトリではapacheの初期画面が表示されてしまう始末。なんなのだ??一応、robots.txtを確認して、許可されていないと気付いて帰ってはいるんだけど…


天麩羅くわえたぶらうざサンネー
UA: \x93V\xean\x97\x85\x82\xad\x82\xed\x82\xa6\x82\xbd\x82\xd4\x82\xe7\x82\xa4\x82\xb4\x83T\x83\x93\xc8\xb0
えー文字化け…というか読めないシリーズ。日本語に直すと、こういうことらしいですなぁ。意味がわからんけども(苦笑)


ruffle
UA: the ruffle SemanticWeb crawler v0.5 - http://www.unreach.net
『Semantic Web』というのは、W3Cの進める概念なんだそうだが、まぁ正直よくわからない。こういうことなのかな、とは思うけど。
"If HTML and the Web made all the online documents look like one huge book, RDF, schema, and inference languages will make all the data in the world look like one huge database."(SemanticWeb.org - Welcome to the Semantic Web Community Portal
それはともかく、このクローラーは謎。UA内のURLもコレと言った何もなかった。


Univ.Yamanashi Nishihara
UA: Univ.Yamanashi Nishihara
自己紹介されても…(汗)


Mo College
UA: Mo College 1.9
IP: 85-65-80-193.barak-online.net
『Mo』『College』共に非常に普通の単語なので、検索してもこれと言った結果が出ない。で、アクセス元はどこかというと、イスラエル…まぁ、気にしなくても良いかなぁ。


Poirot
UA: Poirot
IP: 70.85.193.178
REFERER: http://www.jaja-jak-globusy.com/
台湾から来ているBOT。アクセス先は…かつてあったページ。404食らって帰ってるけど、うーん…謎だなぁ。


編集後記

久々でしたがいかがでしょうか。
まぁ基本的にデータベースなので、全部じっくり読む人がいるとは思えませんが。

相変わらず、新しいブログ系サービスの立ち上げが減りません。
そしてその度に、新しいクローラーを巡回させてきて、もううんざりです。
RSS検索サイト、blog検索サイトのクローラーは、
robots.txtを読むべき、という僕の主張が正当なのかはよくわかりませんが、
拒否する方法が.htaccessしかないってのは、
なんだかやっぱり納得できないんですけど。

最近、ピックアップ数が少なくなってきているので、思い切って、
調査期間をきちんと1ヶ月になるように、調整してみました。
次回から、月ごとレポートでお届けします。では。