ChatGPTの商用利用で注意したい3つのポイント。“嘘をつく”AIを仕事で使って良いの?【弁護士解説】

ChatGPTをはじめ、AIツールをビジネスに活用する動きが起きています。「ChatGPT仕事術」のような関連書籍も盛んに出版され、API搭載サービスも相次いでリリースされている状況です。

しかし、生成AIの商用利用によるトラブルも多く、活用のリスクを懸念する声も後を絶ちません。

AIを仕事で使っていく上でどんなことに気をつければいいのか。そもそも、AIは商用利用すべきなのか……。法的なリスクや対処法を出井甫弁護士に伺いました。

出井 甫(いでい はじめ)
出井 甫(いでい はじめ)

骨董通り法律事務所弁護士。エンタテインメント法務が専門。主にアニメ、ゲーム、AI、ロボット、VR業界の方をサポートしている。実はドラマーでもある。(Twitter:@hajime_idei

聞き手:ぽな
聞き手:ぽな

こたつとお布団、コーヒーをこよなく愛するフリーライター。法学部出身のはずが、なぜか卒論のテーマは村上春樹であった。やれやれ。(Twitter:@ponapona_levi

ChatGPTの商用利用は可能

ぽな:
まず、ChatGPTの商用利用はOKなのでしょうか?

出井:
ChatGPTを仕事に使うこと自体は問題ありません。ChatGPTの利用規約に商用利用することを禁じる条項はないですから。

ただ、ChatGPTのAPIを活用した外部サービスの場合、利用規約で「商用利用は有料プランのみ」といった制限をかけていることもあります。規約をよく確認してみてください。

ぽな:
なるほど、生成AIサービスの規約で商用利用OKかどうかが決まる感じなんですね。

出井:
そうですね。今のところ生成AIを仕事で使ってはいけないという法律は聞いたことがないです。

ぽな:
とりあえず商用利用OKということで、ホッとしました(笑)

ChatGPTを商用利用する際の注意点

ぽな:
ChatGPTを商用利用できるなら、これからは原稿も請求書も全部AIに書かせちゃおうかな……。

出井:
ちょっと待ってください! 商用利用自体に問題はありませんが、もちろん注意点もあります。使い方によっては個別に法律違反となったり、クライアントなどから損害賠償を請求されたり、成果物の廃棄を求められたりする可能性もあります。

ぽな:
それは怖い……! どうしたら活用のリスクを減らせますか?

出井:
具体的には、次のようなポイントに気をつけて使うのがおすすめです。

注意点1. 個人情報や機密情報は入力しない

出井:
まず、入力する情報には気をつけましょう。以下のように非公開の機密情報やセンシティブな個人情報を入力してしまうと、個人情報保護法や秘密保持契約(NDA)の関係でトラブルになる可能性があります。

特に入力した情報が学習されるサービスを使用する場合は、情報の目的外使用や、第三者に無断で情報を提供したと見なされる可能性もありますので、注意が必要です。

【入力すると問題になりやすい情報の例】

  • 個人情報(氏名住所、家族構成、病歴、カルテ、前科前歴、成績など)
  • 投資/株価に関わる情報
  • 外部非公開の情報(取材データなど)
  • 顧客名簿
  • 企業の内部資料

ぽな:
でもこれって、仕事に関して言えばほとんど全情報じゃないですか(笑)

【補足】ChatGPTのオプトアウトは万能じゃない?

ぽな:
そういえば、ChatGPTは入力した情報をAIに学習させない「オプトアウト」「チャット履歴オフ」という機能がありますよね。この機能を使えば問題ないのでは?

▲ChatGPTの設定画面。履歴オフはこの画面から設定可能で、オプトアウトはこちらのページより別途申請が必要

出井:
たしかに、ChatGPTの設定でオプトアウトなどを適用すれば、AIの学習対象からこれらの機密情報を外すことはできます。ただ、現在の利用規約を見ると、入力情報は30日間不正使用の有無を調べる場合に備えて保存すると規定されていますね。

また、オプトアウトが実行されるまでのタイムラグが存在する可能性はあります。そのため、オプトアウトをしたらすぐに情報へのアクセスがシャットアウトされるわけではないんですよね。

リスクを軽減するためには、ワーストケースを想定して動くことも重要だと思います。そのためオプトアウトがあっても「高リスクな情報は最初から入れない」という方針で運用するのがよいかもしれません。

ぽな:
でも、これだとさすがに使い勝手が……。何か対策はないんでしょうか?

出井:
そうですね……。たとえば「取材の文字起こしにAIを使いたい」という場合、個別にインタビュイーをはじめとする関係者の許可を取るといいですね。ほかの事例でも、関係者に個別に許諾を得ていけば、問題になりにくいと思います。

ぽな:
その手がありましたか……! ちなみに先生、今回の取材音声はAIに学習させてもよいでしょうか!?

出井:
はい、なんなりと自由にお使いください(笑)

注意点2. 適切な利用用途で使う

出井:
どんな利用用途でAIを使うかも重要です。AI規制の議論が盛んなEUでは、用途によって規制の強度を変える動き(リスクベースアプローチ)があります。たとえば、入試や就職の評価にAIを使う、といった使い方はリスクが高いので規制を強くする、という分類がされています。

▲EUで議論される「リスクべースアプローチ」のイメージ(参照:EU「BRIEFING EU Legislation in Progress Artificial intelligence act」)

ぽな:
よくChatGPTを壁打ちに使う人がいますけど、人事の採用担当が応募者のデータを入力してAIに相談するといった使い方は高リスクということですね。

出井:
そうなります。また、人間の潜在意識をAIで操作したり、AIを使って人間に社会的な点数をつけた上で、特定の人を不利益に扱うことなどは、「禁止するべき」という議論がなされています。

ぽな:
明らかにやばそうな利用用途ですものね。

出井:
これらの情報の出力については、ChatGPT側でも制限をかけていると思いますね。その他、医療や法的なアドバイスは法律に抵触するおそれがあり、ChatGPTの規約で禁止されています。AIを使う場合は用途にも気をつけましょう。

注意点3. 人によるチェックは必ず行う

出井:
ChatGPTでトラブルを起こさないためには、出力結果に対する人間のチェックも重要です。というのも、ChatGPTは平然とウソをつきます。倫理的な判断や内容の真偽の判定もできません。

ぽな:
そういえば、文字起こし原稿の微調整を頼んだだけなのに、ありもしない発言をねつ造されたことがありました……。

出井:
まったくデタラメな答えが出力されることもあります。アメリカでは弁護士がChatGPTを使って作成した裁判資料に、虚偽の判例が混ざっていたことが発覚して問題になりました。

さらに、出力したものに第三者の著作物が混じっていたり、誰かの名誉を毀損あるいは他者へのリスペクトを欠くような表現が混じっていたりするリスクもあります。

ぽな:
ああ……。実際それでニュースになったケースもありましたよね……。

出井:
こうした問題のある生成物をそのまま出してしまうと、第三者との権利との関係で問題になったり炎上を招いたりする可能性があります。他人の著作物が入っている場合は出典の調査や引用のルールを守ることも必須になってきますね。

逆に、ChatGPTで作成した作品や資料には、人が手を加えないと著作権が発生しない可能性があります。人が手を加えることは、AIによる無断転載・改変対策という意味でも大切です。

ChatGPTの商用利用に隠れる「AI依存」リスク

ぽな:
ほかにも、ChatGPTの商用利用について気をつけるべき点はありますか?

出井:
ChatGPTに限った話ではないんですが、僕としては今後「AI依存」の問題も出てくると思っているんです。

ぽな:
AI依存ですか……?

出井:
スマホやネットのように、今後AIが我々の生活に欠かせないものになってくるかもしれません。そして仕事にChatGPTのようなAIツールを取り入れて、それを前提に作業フローを組んでいる場合、ツールに不具合が起きると業務が停滞してしまう可能性があります。

ただ、その場合もAIサービスの規約には免責規定がありますから。サービスの中断や停止によって生じた損害への補償はされないと思ったほうがいいでしょうね……。

ぽな:
ああああ! そういえば、以前ChatGPTがエラーで動かなくなってしまったことがありましたね……。実際、困った人もいそうです。

出井:
特定のツールや会社に依存しすぎると痛い目を見ることになりかねません。AIはたしかに便利なサービスですけど、ある程度の自立は必要というか。その気になれば自分でも業務ができるようにする、ほかの代替AIサービスも並行して利用する、などの対策は考えたいです。

ぽな:
そうですね。最後は人間がチェックを担うわけですから、もともとAIをうまく使うには人間側の能力が重要なわけで。ただ、使わない能力はどんどん衰えていきますし、人間がラクしすぎるのも危ないな……。

ChatGPTの商用利用は「利便性とリスクのバランス」を考えて判断すべき

ぽな:
結局、ChatGPTは仕事で「使うべき」なのでしょうか?

出井:
AIの商用利用では、利便性とリスクをてんびんにかけ、比較することが求められます。入力するデータによっては情報漏洩やNDA違反のリスクがあるのも事実ですが、一方で業務効率化や外注費の圧縮は魅力的です。

ぽな:
厳密にリスク回避だけを考えると「AIは一切使わないほうがいい」ってなりかねませんからね。

出井:
大事なのはバランスなんです。オプトアウトの効力やOpenAI社の信頼性、情報の重要度などを踏まえ、状況によって対応を変えることも必要になってくるでしょう。

ぽな:
そういえば私の場合は、アイデア出しの場面でChatGPTを使うことが多いです。自分では思いつかない角度からのアイデアも出てくるので助かっています。

出井:
ChatGPTは嘘つきですが、「真実が求められるところで嘘をつく」から問題になるのであって、嘘が求められる場所では素晴らしい働きをしてくれるんですよ。たとえば、ドラゴンが火を吐く原理をもっともらしく説明してくれたりとか。

ぽな:
クリエイターにとってはありがたいですね!

出井:
そういう利用の仕方、アイデア出しや創造性を補うような使い方でChatGPTをどんどん使うのは良いんじゃないかと思っています。リスクと利便性のバランスを取りつつ、中心は人間、AIはアシスタントというスタンスで活用していくことが、上手にAIを使うコツといえるかもしれません。

まとめ(by ChatGPT)

本記事をChatGPTに読んでもらったところ、以下のような感想が返ってきました。

この記事を読んでの感想は、AI技術、特にChatGPTのような生成AIの進化がビジネス界に大きな影響を与えているということです。商用利用が可能であることや、それに伴う便利さは明らかですが、同時にリスク管理の重要性も浮き彫りになっています。

法的な側面や個人情報の取り扱い、AIへの過度な依存問題など、慎重に対応する必要がある点が多数指摘されているのが印象的です。AIを活用する際には、その便利さを享受する一方で、リスクに対しても意識を高く持ち、バランス良く利用することが求められると感じました。

まさにChatGPTが言うように、AIは便利ですが油断は禁物。リスクと利便性のバランスを考えつつ、適切に活用していくことが求められそうです。

(執筆:ぽな 編集:齊藤颯人 監修:骨董通り法律事務所 出井甫)

SHARE

  • 広告主募集
  • ライター・編集者募集
  • WorkshipSPACE
週1〜3 リモートワーク 土日のみでも案件が見つかる!
Workship