ChatGPTやBardのクローラーをrobots.txtで拒否する方法

ChatGPTやBardをrobots.txtで拒否する

ChatGPTやBardはGooglebotのようにネット上の情報を収集するクローラーが存在します。

もしも、あなたのWebサイトの情報をChatGPTやBardのクローラーに読まれて学習されたくない場合は、robots.txtにクローラーを拒否する設定を書いて保存する必要があります。

robots.txtに書く内容

ChatGPTやBardがWebサイトの情報収集をするのを防ぐためには、robots.txtに以下の内容を書く必要があります。

たまにrobots.txtに「GPTBot」だけ書いていたり、Google-Extendedを書いていないWebサイトがありますが、それだとChatGPTとBardのクロールを拒否できません。

User-agent: GPTBot
Disallow: /

User-agent: ChatGPT-User
Disallow: /

User-agent: CCBot
Disallow: /

User-agent: Google-Extended
Disallow: /

この4つの内容は以下のとおりです。

GPTBotChatGPTのWebクローラー
ChatGPT-UserChatGPTプラグインによるアクセス
CCBotCommon CrawlのWebクローラー
Google-ExtendedBardのWebクローラー

※ ChatGPTはCommon Crawlの情報を利用しています。

読売新聞毎日新聞産経新聞朝日新聞東京新聞などの大手新聞社のWebサイトだと、ChatGPTやBardなどによる記事の流用などを防ぐためにrobots.txtにこの4つを設定しています。

名前のスペルミスに注意

ChatGPTやBardのクローラーを拒否するには「robots.txt」という名前でWebサイトのルートディレクトリに設置します。

たまに、「robot.txt」のように「s」が抜けたファイル名になっているWebサイトがありますので、注意が必要です。

「robot.txt」ではルートディレクトリに設置してもクローラーのアクセスを制御できません。

また、robots.txt内に書く内容も大文字・小文字・ハイフンなどを間違えないよう注意したほうが良いでしょう。

例えば「GPTBot」を「GPT-Bot」のように間違った名前で書くとクローラーのアクセスを制御できません。

この記事内のテキストをコピーしてrobots.txtに追記すれば間違えることはないです。

User-agent: GPTBot
Disallow: /

User-agent: ChatGPT-User
Disallow: /

User-agent: CCBot
Disallow: /

User-agent: Google-Extended
Disallow: /

robots.txtが設定されていると閲覧エラーになる

robots.txtに設定されると、例えばChatGPTでURLを指定して記事内容の要約などを送信しても「閲覧エラー」になります。

例えばChatGPTで以下のようにURLを貼って記事の要約を送信しても「閲覧エラー」となります。

この記事の内容を日本語で要約して
https://iwb.jp/how-to-create-a-security-txt-file-to-increase-website-security/
ChatGPTはrobots.txtが設定されていると閲覧エラーになる

robots.txtを設定したら、ChatGPTでURLを貼って要約を依頼して「閲覧エラー」が表示されるか確認すると良いでしょう。

※ robots.txtを設定してすぐだと「閲覧エラー」にならないので、しばらくしてから試して下さい。

robots.txtによるアクセス拒否はデメリットがある

robots.txtでChatGPTやBardのクローラーを拒否することはできますが、これをやるとChatGPTやBardからのアクセスがなくなってしまうデメリットがあります。

ChatGPTやBardは参照したWebサイトのリンクを参照元としてリンクを表示させることがあるので、ここからアクセスが来ることがあります。

しかし、robots.txtで拒否すると、参照元のリンクによるアクセスがゼロになります。

ChatGPTの参照リンク

そのため、一般的なWebサイトではメリットよりデメリットのほうが大きいので、ChatGPTやBardのクローラーを拒否するのは避けたほうが良いでしょう。