モラルに依らないリンク禁止表明法

※これはまだ草稿なので、あとで修正します。
※考えがまとまったら、清書して別の場所に掲載するつもりです。

根拠とか

モヒカン族的な人たちがいわゆるリンク禁止表明をナンセンスだというのは、こんな原因もあるかも知れないと思いました。

  • リンク禁止を表明されても、機械的に判別出来ない
  • 機械的に判別出来ないものは、人間が判別しなければならない
  • 検索サイトのように機械的にリンクを作成する場合、リンクして良いかどうかを人間が判断しなくてはならなくなると、膨大なコスト(人件費や時間的コスト)の上乗せが必要になる。
  • リンクを作成する前にリンク可能かどうかの判断が必要になった場合、特にリンク禁止をうたっていないサイトへのリンクにも(リンクが可能かどうかの判断が終わるまではリンクが出来なくなるなどの)影響が出る
  • 膨大なコストに耐えられず、世の中から検索サイトがなくなるか、検索サイトの構造そのものが変化してしまう。
  • 結果的に、現在は何も問題のない「公開されている有益な情報を探し出して閲覧する」という行為が制限されてしまう
  • 技術の進歩が阻害される

発想の転換

ここで話は変わって、robots.txt の事を考えてみます。

「リンク禁止はナンセンスだ」と主張する人のほとんどが「robots.txtはナンセンスだ」と言うでしょうか?」
robots.txt だって、単なるお約束事で、たとえ無視したとしても、不法アクセスでFBIに逮捕される訳ではありません。つまり、「絶対じゃないけど、大概のロボットはアクセスしなくなるだろうから、やらないよりマシ」だと思って robots.txt を設置しているのだと思います。

robots.txt と「いわゆるリンク禁止」の何が違うかというと、「機械で読み取りと判断が出来るかどうか」です。つまり、robots.txt のような仕組みを使って「リンク禁止」を表明してはどうかと思ったのです。これが、W3CやWAIなどで勧告されれば、村人が要求しなくても、モヒカン族の人たちがこぞって実装します。

はてブのようなソーシャルブックマークMovableTypeなどのCMSは、リンクが登録されたら、リンク先サイトの「リンク許可宣言ファイル」を取得し、禁止されていないか宣言が存在しない場合に限ってリンクを実行する。また、ココログLivedoor blog などのブログサイトでは、簡単な設定(UI)で「リンク許可宣言ファイル」を作成出来るようにする。
こうすれば、「リンク禁止」と書いてあるサイトに無断リンクする人は村人はおろかモヒカン族も敵に回す事になる。

課題など

リンクする行為を(ロボットが)インデックスする行為と同列にみなすと、リンク禁止宣言は robots.txt の中に書いた方が余分なリソース(アクセス)が要らなくなります。
しかし、訴え掛けている対象が違うので、解釈する側の視点で見ると、別ファイルに宣言されていた方が有り難いと思います。