Choose your language. / ja / en / zh
このサイトでは Cookie を使用して、ユーザーに合わせたコンテンツや広告の表示、翻訳、広告の表示回数やクリック数の測定を行っています。 詳細

ネットに情報を公開することの危険性

 某R大学、燃えていますね。

 私は結局論文そのものは入手していないのですが、実際に読んだ方の発言から推測する問題点を挙げると、以下の2点かと。

  1. 追記を参照
  2. 論文中で「有害」の定義もしていないのに、当該作品をあたかも人々に悪影響をもたらす文書であるかのように取り扱った上、作者を特定できる形で公表した。これが名誉毀損とされてもおかしくない

 私も現在は論文を書いて税金を貰っている人間の端くれとして、色々突っ込みたい所満載の研究です。
 ネットでは問題2の方は法律上は問題なく倫理的な問題という意見が散見されますが、私には著作人格権に含まれる名誉声望保持権を侵害しているように見えます。日本国の著作権法にも規定があるようですが専門家ではないので罰則等があるのかは知りません。教えて詳しい人。

 とまあ、どこまでこの問題が広がるのか気になる所ですが、今回は一旦この話は横に置きます。
 例の件でも改めて思い知らされることとなりましたが、ネット上に置いた情報はどこで誰がどの様に使うか、見当もつきません。世の中悪い人なんて掃いて捨てるほど居ます。世間一般の人には善人の顔をしていても、特定のターゲットには卑劣な嫌がらせや犯罪行為を働く人間は更に多い。

 今回は、ネット上に情報を置くことでどのような影響がどこまで広がり、結果自分に何が起こりうるか、考えてみましょう。

ネットに一度でも公開したものは、完全には消えない

 私の言いたいことはこれに尽きます。
 パスワード制限など、何らかのアクセス制限がかかる場所から一度も外側にコピーされたことがないなら別ですが、一度でも、一瞬でもインターネットの誰でもアクセスできる場所に置かれたものは、完全回収できないと思ってください。

 実際、Twitterを削除する時もGoogleなどの検索エンジンによってインデックスされたコンテンツを制御することはできませんという文言が表示されるくらいですからね。

人によるコピー

 今回の論文の件や、無断転載がそうですね。
 法律的に問題無い「引用」も、一度されてしまうと引用元を消そうが残り続ける点では同じです。

 私も何度か無断転載されて、未だに削除されていないものもあるので、決して取るに足らないとは言いません。
 ネットにアップしたものは、誰かがローカルに保存するかもしれない。それが何かの機会に再流出するかもしれない…という程度の危機感は以前から抱いていました。でも、その程度だと思っていたんです。情報の拡散はあくまで人の手、誰かの意思があって行われるものだ、という認識でした。

 しかし、実は、本当に面倒なのはロボットが自動的にデータを複製する場合です。
 次の項からは、そのような機械によるコピーについて説明します。

キャッシュ

 インターネットにはキャッシュというものが存在します。
 これは、適宜パソコンやサーバーがデータのコピーを一時的に保存することです。毎回そのデータがある場所に接続していると通信費や時間がかかるので、高速化や負荷軽減のために行われます。

 例えば、検索エンジンは、サイト側でキャッシュ禁止の設定がされていない限り、クローラー(ボット)が読み込んだウェブサイトの情報を保存しています
 Googleでは、一般利用者にも開放されており、サイトが一時的にダウンしていても、キャッシュが残っていれば内容を閲覧することができます。

 ページを削除してから時間が経てば、キャッシュした情報を削除してくれる検索エンジンが多いです。しかし、Internet Archiveの様にキャッシュを永続的に残すことを目的としたサイトもあります。
 質の悪いクローラーを所有する検索エンジンではキャッシュ禁止設定を無視することもありますし、常にネット上の情報は自分の管理できる範囲外にコピーされうると思っておきましょう。

 また、検索エンジンにインデックスされるのはテキストデータだけでなく、画像ファイルやPDF等も対象です。Twitterのアイコンに顔写真を使ったら、画像検索に引っかかるという事を肝に銘じておきましょう。

APIでの取得(連携サービス)

 こちらもキャッシュの一部ですが、私達が自らコピーを生成している場合もあります。
 例えば、Twitterのサードパーティーサービスです。favologtwilogを利用している人も多いのではないでしょうか。これらのサービスの中にも、適宜つぶやきを別サーバーにコピーして、ネット上に公表しているものが多くあります。
 また、自分はサービスを利用していないつもりでも、自分の発言が取得され、別の場所で公開されている場合があります。例えばニュースサイトなどで、URL付きでつぶやかれた内容をAPIで取得し、コメント欄に表示している場合です。

 サービスの利用登録が解除されたり、オリジナルのツイートが削除されたりしたら、コピーも廃棄してくれるところもあります。しかし、一度取得したデータの取得元を再クロールしない(しても間隔が長すぎてなかなか反映されない)サービスもたくさんあります
 その場合、どうしてもデータを消してもらいたければ、サービスの運営者に直接連絡して対応してもらう他ありません

自動生成ページ

 低品質サイトの典型ですが、ネット上の情報から特定の文字列等を含むページを、その部分だけ抜き出して一覧にしているサイトもよく見かけます。最近はTwitterなどのSNS関連のものが多いでしょうか。
 此方もそのサイトの更新頻度によりけりで、定期的に更新されてオリジナルが消えればコピーも消えるものもあれば、オリジナルは数年前になくなっているのにコピーだけが残り続ける場合もあります

 問い合わせによって個別対応してもらえない場合は、サービスが終了するのを待つしか手立てがありません

コピーされたら何が起こるか

 挙げ始めるとキリがないのですが、

  • すぐ消すつもりで上げた顔写真がキャッシュされ、長期間ネット上に残ってしまう
  • Twitter上での失言を取り下げたが、既に様々な関連サービスにコピーされていて、それらを消すことが出来ない

この辺りは容易に起こり得ます。
 断片的な情報であっても、寄せ集めれば生活地域や個人の特定はできる世の中です。自分では消したつもりでも、自分の知らない場所にコピーが残っていたらどうでしょう。
 危険な事ばかり想像できますよね。

コピーされたコンテンツを消すには

 冒頭に書いた通り、インターネット上に分散してしまったデータを全て制御することは不可能です。
 しかし、ある程度は管理することができます。

検索エンジンのキャッシュ削除申請先

  • Google…オリジナルのページが削除・クロール禁止されている場合に限り申請が可能
  • Bing

 著作権法違反など、法的な問題がある場合は此方のカテゴリー内の記事を参照。

まとめ

 誰でもアクセスできる場所に公開した情報を、後から完全に削除することはできません。
 コピーされたら困るものは、まずは(ロボットに)コピーされない場所で公開するようにしましょう。個人情報などは、一瞬であってもTwitter等でつぶやかないのが一番です。
 また、ネット上での発言には十分注意して、責任を持ちましょう。

 機械による自動コピーを禁止したいならば、ロボットがアクセスできない場所にコンテンツを掲載することが効果的です。
 私はクローラー対策として、配布物は直接サーバーに置かず、Gumroadというコンテンツ販売システムを利用しています。無料配布もでき、クレジットカード番号かメールアドレスが入力必須で、スパム対策に非常が効果があります。

 今回の論文のような事態を避けることは困難ですが、PixivのR-18小説のページも会員登録・ログインしないと読めない=ロボットは侵入できない場所です。
 こういった場所に作品を公開していたことについて、作者の方々には何の非も無く、寧ろ正しい判断です。

 どうしても稀にまずい研究が世に出てきてしまうことはあるので、今回の件は本当に気の毒だなと思います(STAP細胞の件もそうですが、研究者本人の倫理観・行動よりも、学生への教育やチェックを怠った教育機関や指導教員の責任の方が問題だと思います)。R大学と学会は仕事しろ。

おまけ

 支部の規約読んでたら、こう規定されてた。

ユーザーが他人の名誉を毀損した場合、プライバシー権を侵害した場合、許諾なく第三者の個人情報を開示した場合、著作権法に違反する行為を行った場合そのほか他人の権利を侵害した場合には、当該ユーザーは自身の責任と費用においてこれを解決しなければならず、当社は一切の責任を負いません。

 一応Twitterでポーズは取ってくれたけど、

裏では大学と当事者任せで何もやってない可能性あるな(規約だし仕方がない)。Twitterはこれ以降この件についてアップデートがないのでわからないや。

追記

 最初、此処には以下の内容が書かれていました。

作品を適切に引用していないため、Pixivや作者に無断で公表した事は、Pixivの利用規約違反や著作権侵害に当たる。特に該当作品は会員登録しないと読めない作品であり、明らかにPixivへの営業妨害になっている

 でもよくよく考えると、

ので、法的には問題無い気がします。
 conbinedデータというのは、複数のデータ元から抽出した情報を組み合わせて作った新しいデータの事です。

 それで、では(研究対象を変更しない場合)どのようにするのがベストだったのかというと、私が考えるのは以下。

 この件の結末はとても気になるところですが、専門家じゃないのであまり深追いする気はありません。ここまで。