コラム:ChatGPTを使うと特許が取れなくなるって本当?

〜生成AIと新規性喪失の“誤解”に専門家が答えます〜
たかやま特許商標事務所
弁理士 高山嘉成


最近、「ChatGPTにアイデアを入力すると、その情報が公開されたことになって特許が取れなくなるのでは?」という相談を受けることが増えました。弁理士会でも「AI利活用ガイドライン(β版)」が公表され、生成AIを使う際の注意点がまとめられています。

しかし、その説明の中には、「ChatGPTは危ないから使うな」と誤解されかねない記述も見られ、私は専門家として非常に残念に感じています。

このコラムでは、そうした「AIを使うと特許が取れなくなるのでは?」という疑問について、技術と法律の両面から、分かりやすく説明してみたいと思います。


■ オプトアウトって何? ChatGPTに聞かれたときの設定の話

ChatGPTのような生成AIには、「ユーザーが入力した情報をAIの訓練に使ってもいいか?」を選べる設定があります。これがいわゆるオプトアウトの話です。

この設定をオフ(オプトアウト)にすれば、自分が入力した内容はAIの学習には使われません。つまり、他の誰かが似たような質問をしても、自分の内容が出てくることはないということです。

なので、仮にアイデアや発明の内容をChatGPTに入力するにしても、この設定をしておけば、情報が再利用されるリスクは基本的に防げるわけです。


■ 「サーバに残る=公開」ではありません

「ChatGPTに入力したら、OpenAIのサーバに記録されるから、それで公開されたことになるのでは?」という意見もありますが、これは技術と法の両方を混同した誤解です。

そもそも、GmailやGoogle Drive、Dropboxなどのクラウドサービスも、すべてどこかのサーバにデータが保存されています。にもかかわらず、「それだけで情報が第三者に漏れた」とは言いませんよね。

特許の世界では、「不特定の第三者が情報を知り得る状態」になっていなければ、新規性(発明の新しさ)は失われません。ChatGPTに入力した情報が、第三者に見られることなく、再利用もされなければ、新規性が失われることにはなりません。


■ 「使っていいのはクライアントの同意があるときだけ」では不十分

弁理士会のガイドライン(β版)では、「クライアントから同意を得ていればChatGPTを使ってよい」と書かれています。これは一見もっともらしく見えますが、それだけで済ませてよい話ではありません。

本来、弁理士の役割はクライアントに「何が安全で、何がリスクか」を丁寧に説明し、納得してもらうことです。どのAIを使うか、どんな規約があるか、情報は学習に使われるのか、外に漏れないのか…そうした情報をしっかり把握したうえで、アドバイスできるのが弁理士の専門性です。

「同意を取ればよい」という一文で終わらせてしまうのは、生成AIを適切に活用する文化を広げるチャンスを、自ら狭めてしまう姿勢にも見えてしまいます。


■ AIは“使ってはいけない”ツールではなく、“使いこなす”道具

私は、ChatGPTをはじめとする生成AIは、正しく使えば、弁理士や知財業務にとって非常に強力な補助ツールになると確信しています。たとえば:

  • 発明の構造を整理する
  • 特許文書の草稿を作成する
  • 過去事例を要約する

といった場面では、AIの活用が業務の質を大きく高めてくれます。

もちろん、どんな道具でも「使い方」が重要です。守るべきポイント(オプトアウト、個人情報、秘密情報の扱いなど)を押さえたうえで、AIを味方につけることが、これからの知財業務に求められる姿だと私は思っています。


■ おわりに

生成AIの活用については、まだまだ議論が始まったばかりです。だからこそ、正しい技術的知識と法的理解を持って、冷静に判断する姿勢が求められます。

「ChatGPTを使ったら特許が取れなくなるかも」――そんな不安を感じたときは、それが本当にどこに基づく話なのか、そして何をすればリスクを回避できるのかを、ぜひ専門家に確認してください。

私たち弁理士は、単に「ダメです」と言うのではなく、「こうすれば安心して使えますよ」と提案できる存在でありたいと考えています。

 

This entry was posted in ブログ. Bookmark the permalink.