第4回 ChatGPTの利用は新規性を喪失するのか?

 

〜弁理士業務AI利活用ガイドライン(β版)を踏まえた専門家としての見解〜
2025年3月26日
たかやま特許商標事務所
弁理士 高山嘉成


近年、ChatGPTをはじめとする生成AIが知財業務の現場でも急速に導入されつつあります。これに伴い、弁理士会からも「AI利活用ガイドライン(β版)」が公表され、弁理士としての責任やリスク管理のあり方が整理されました。

しかし、その内容や研修会での解説の中には、「ChatGPTに発明内容を入力すると、新規性が喪失される可能性がある」「オプトアウト設定をしてもサーバに残るため守秘義務違反になる」といった、技術的・法的な理解に疑問を感じる説明も見受けられます。

私は、弁理士としての専門的立場から、生成AI利用に関する正確なリスク評価と冷静な議論の必要性を強く感じており、本記事にて私見を述べさせていただきます。


1. 「オプトアウト設定」は“再学習に使われるか”を制御するもの

まず確認すべきは、「オプトアウト設定」の意味です。

ChatGPTのWeb版では、ユーザが入力した情報をOpenAI社が将来のモデル訓練に利用するかどうかをユーザが選択できるようになっています。これは“再学習に利用されるか否か”の設定であり、情報が第三者に公開されるかどうかとは無関係です。

ガイドライン(β版)でも、再学習される場合には情報漏洩のリスクがあるとしていますが、再学習を回避するためには「オプトアウト設定をすればよい」という極めてシンプルな対応策が明示的に存在しています。

よって、再学習により情報が漏れるという懸念は、オプトアウト設定をしていない場合に限定されるリスクであり、技術的に制御可能なものです。


2. 「サーバに保存される」ことは新規性喪失とは無関係

「ChatGPTに入力するとOpenAI社のサーバに記録が残るから、新規性を喪失する」という主張は、他のクラウドサービスとの整合性を欠いた非論理的な議論です。

OneDrive、Google Drive、Dropbox、Gmailなど、今日の業務環境で一般的に使われているクラウドサービスでも、データはすべてサーバに保存されます。それにもかかわらず、それらの利用が「新規性喪失に該当する」と判断されることは通常ありません。

新規性喪失の判断基準は、あくまで「当該情報が第三者に知り得る状態であったかどうか」であり、サーバに一時的に記録されたというだけでは、これに該当しません。ChatGPTにおいても、入力情報が第三者に開示されず、かつ再学習も回避されていれば、情報の秘匿性は保たれていると評価するのが妥当です。


3. 守秘義務違反との関係:クラウド利用の一般的なリスクと変わらない

弁理士法第30条に基づき、弁理士には守秘義務が課されています。AIに情報を入力することで、第三者(AI提供者)に情報を開示することになるとする主張もありますが、これも過度な拡大解釈です。

ChatGPTを含む生成AIの提供者が、利用規約に基づいて情報を再利用せず、外部に開示しないと明言している場合、その取り扱いは一般的なクラウドサービスと大きく変わるものではありません。

むしろ、情報の取り扱いの実態と技術的制御手段(オプトアウトやAPI設定)を踏まえて判断すべきであり、「AIに入力する=守秘義務違反」とするのは短絡的すぎます。


4. クライアントとの合意形成は重要だが、「誤解」に依存すべきではない

ガイドライン(β版)では、再学習の有無にかかわらず、生成AIに情報を入力する際にはクライアントから同意を得るべきであるとされています。これは、信頼関係を前提とした弁理士業務において当然の配慮であり、実務的にも重要な指摘です。

しかしながら、生成AIに関する技術的な誤解が蔓延した状態のまま、「同意があれば入力してよい」という一文だけを形式的に記載するのは、問題の本質に迫る姿勢とは言えません。

本来、弁理士は高度な専門職として、以下の役割を果たすべきです:

  • 生成AIの技術的背景と仕組みを正確に理解する

  • どの会社の生成AI(OpenAI、Google、Anthropic、Meta等)を利用する場合に、どの利用規約やプライバシーポリシーに留意すべきかを把握する

  • そのうえで、クライアントに対して適切な説明・助言を行い、安心して活用できるよう導く

このように、正確な理解に基づいた指導を通じて、生成AIを業務に活用する文化を育むことこそ、弁理士が担うべき本来の責務です。

しかしながら、現行のガイドライン(β版)は、技術的評価を回避したまま「同意を得ればOK」という形に終始しており、生成AI活用の前向きな方向性を示すビジョンが不足していると感じざるを得ません。

弁理士自身が正しくリスクを理解し、クライアントに誤った先入観を与えないよう主導していく——この姿勢こそが、知的財産の専門家としての本領であると私は考えます。


結論:冷静なリスク評価に基づき、AIの可能性を活かすべき

生成AIは、弁理士業務に革新をもたらすツールである一方、技術的な理解が不十分なまま運用されると、無用な不安や混乱を生む可能性があります。

私は、ChatGPTをはじめとするAI技術を「恐れる対象」ではなく、「使いこなすべき道具」として捉えるべきであり、リスクを技術と設定で制御しながら、業務品質の向上に活用すべきであると確信しています。

今後も、知財実務とAI技術の接点に関する議論を深め、正確な理解と実践に基づく知財DXの推進に貢献していきたいと思います。

 

This entry was posted in ブログ. Bookmark the permalink.