2006/01/25(水)やったことのメモ。
過去3ヶ月分のApacheログを取り寄せて、てきとーに解析してみた。
こうした方がいいなと思うところは直した。
過去を整理。
Googleで引っかかりまくるのに実体がないのはアレなので、
4th時代のURLや、article直下に間違えておいてあった記事を対象に
404を拾って302(200だけど)を返すようにした。
http://tsu.sakura.ne.jp/ex/ を一部復元。
http://tsu.sakura.ne.jp/p/ を一部復元。
カテゴリちょっとだけ整理。
SereneBachをちびっと改造。→ 記事リストを出力可能にした。
lib/sb/App/Main.pmの70行目付近。outputに引数を追加。
69: 'time' => $self->{'time'}, 70: 'num' => $cgi->value('max_ent'), 71: );
これで1ページあたりの表示件数が変更可能に。
この辺sbと違ってプラグインじゃ弄りようないと思うがどうよ?
んで、カテリストの数字を記事リストへのリンク化。
こっちの自分のはハードコードでキモいので各自適当に。
lib/sb/Content.pm の291行目とかその辺。
2006/01/24(火)カテ分けって難しい
2006/01/18(水)Google Sitemap (2)
atomを送っておいたんだけど、つっかえされた。
不適切な日付 (行 17) 日付の値が無効です。 「 時間を指定するにはどうすればよいですか。 」で詳細を確認してから、再送信してください。
……どうみてもグーグルさんのバグです。
本当にありがとうございました。
文献漁ってみると、時刻部分(T以降)を削っちゃえばそれそーに動くらしいですね。
これはあれですか、やっぱりサイトマップを生成してやらんとだめぽ?
指定ディレクトリ以下のサイトマップを自動作成するようなソフトを書けってか。
でも、いちいちローカルにファイルを落としてから実行するのはなるいし……
そうだ。
FTPサーバに接続してディレクトリリスト取得して勝手にあれこれするよーにしますか。
FTPサーバ周りを簡単に扱えるライブラリを誰か希望(他力本願かよ)
階層を掘ってファイルリストを取得してくるようなプログラムを書けばいいんすね。
んー。。。
せっかくだしHSPのwinsockモジュール完成させてそれ使おうかな。
完成度に文句たれだすといつまでも終わらないω
2006/01/17(火)Google Sitemap
Googleさんの新しいBETAテストが始まっていた。
クローラを効率化するためのものらしい。
ファイルのリストを作ってGoogleにまとめて登録する感じだろうか。
それに加えて各ページの更新頻度なども指定できるようになっている。
予てからうちのサイトはGoogleでのHit率が悪いなと思っていた。
記事がトップにあるうちはいいのだが、そうでなくなるとそうでないのだ(謎
MMX アルファブレンドで最上位だった時期もあるω
全記事リストでも作ってGoogleさんに送ったらいいかなと思っていたので、ちょうどいいかもしれない。
というわけで登録してみたω
とはいえ、サイトマップ作るのがダルくて各カテごとのAtomを送りつけてあるだけだけど。
サイトマップ生成ツールでもあるもんかと思ったけど、新しいサービスなだけに人口が少なくてツールがない。
簡易サイトマップ生成ツールでも作るか。……こういう時にHSPが役に立つよなω
Googleの視点から、どんなキーワードで検索されてるのかを眺められて面白い。
2006/01/10(火)落ち着いて考えてみると
2006/01/09(月)イイコト思いついた!
現在サイトが抱えている問題。
・サイトのトップが汚い。
音楽やらソフトウェアやら置いてるサイトなのに、
日記だのの関係ない記事でトップが埋まるのがなんかやるせない。
・トップページに非表示なカテゴリの記事(ゴミ記事)がRSSに反映されない。
……mixiやめちゃったから、まぁ、もう要らないんだけどもω
RSSは現状すでにゴミのようなのでもうちょっとゴミ混入してもいいよね。
なんか解決策は……