これサラっと書かれているけど、実は大変重要なニュースに思います。

東京新聞:著作権侵害に例外規定盛り込む 改正案を閣議決定:社会TOKYO Web.

僕が注目したのは「(3)ネットのサーバー上に複製データを蓄積―などのケースについて、著作権侵害の対象から除外する。」のところ。こいつのお陰で日本では検索エンジンのビジネスが大幅に制限されてきた・・・と言われている。

ロボット型検索エンジンはインターネット上にクローラーというプログラムをまるでロボットのごとくWebページ間のリンクにそって走らせて、各ページのHTMLコードを自社サーバーに複製します。それを分解して、どのURLのページがどういう単語があるか、データベース化しておくのです。ユーザーはこのデータベースにアクセスして検索するんですね。

ここで問題になるのが「各ページのHTMLコードを自社サーバーに複製します。」のところ。ここの法の解釈により、日本の国内法では著作物の複製とみなされるかも・・・と企業の法務部は大抵判断して、リーガル・リスク扱いにされてきた。

じゃあYahoo! JapanやGoogleはなんで出来るの?というと、日本国内にサーバーが無いからなんですね。

日本でロボット型検索エンジンのサービスが全く育たなかったのは技術が無いわけでも、やる気がないわけでもなく、日本においては法規的にグレーゾーンだったということ。

Wikipediaでは「著作権法によりネット検索の事業の妨げになった話はない」と書かれているけど、やっぱり国がちゃんと法規として明記しなければ普通の事業者は怖くて手が出せないよ。

他にもこんな事業の妨げになる法律の事例がないか一回チェックしたほうがいいんじゃないかなぁ?