ChatGPTのビジネス利用における法的リスク

公開日 2023/06/20

ビジネスの現場に大きな変革をもたらすといわれている「ChatGPT」をはじめとする生成AI。しかし誕生してから間もないため、ガイドラインや法整備が追いついていないのが現状だ。生成AIの利活用にはどのような法的リスクがあるのか、企業はどのように対応すべきなのか、AI関係の法務に詳しい弁護士の福岡真之介氏に伺った。

福岡 真之介 氏

西村あさひ法律事務所パートナー弁護士/アメリカ・ニューヨーク州弁護士 福岡 真之介 氏

東京大学法学部、デューク大学ロースクール卒業。企業法務弁護士として、AIなどのテクノロジー関連法務を中心に取り扱う。2020年から、経済産業省「AI社会実装アーキテクチャー検討会」及び「AI社会実装ガイド・ワーキンググループ」の委員を務める。著書に『AI・データ倫理の教科書』など。

  1. ビジネス利用における著作権問題
  2. 著作権者に対するリスペクトを欠いて炎上するケースも
  3. 情報の取り扱いには十分な配慮が必要
  4. 生成AIに対して、人間はマネジャー的役割が求められる

ビジネス利用における著作権問題

――2023年5月時点の生成AIに対する規制はどのような状況でしょうか。

AIに関する包括的な規制はまだ日本にはありません。日本ディープラーニング協会(JDLA)が、「生成AIの利用ガイドライン」を発表していますが、従業員向けの社内ルールであり、公的なものではありません。海外ではEUで、世界で初めてAIを包括的に規制する法律である「AI規則」を2023年内に成立させようとしています。一方アメリカでは、規制の議論が出始めていますが、多くのIT企業が存在することもあってそのような規制が実現するかは未知数です。


――福岡先生は、生成AIを使った場合に起こり得る法的リスクとして、「1.著作権侵害」「2.誤情報の利用」「3.秘密情報の漏洩」「4.個人情報の不適切な利用」「5.悪用」の5つを挙げています。ビジネス利用にあたって特に問題になりそうな「1.著作権侵害」からご説明いただけますか。

ひと口に著作権の侵害といっても、生成AIとどう関わるかによって状況が変わってきます。人々が生成AIを作成したり利用したりするのは以下の4段階があり、それぞれで著作権侵害のケースも異なります。


 ① 大規模言語モデル(LLM)の作成
 ② 特定分野のデータの学習(ファインチューニング)
 ③ プロンプト入力
 ④ プロンプトに基づいてAIが出力したアウトプットの利用


つまり、①大規模言語モデルの作成と②特定分野のデータの学習は、学習用データとして他の著作物を利用することが著作権侵害になるか、③プロンプト入力は、プロンプト(ChatGPTに入力する質問や指示)に他の著作物を入力することが著作権侵害になるか、④プロンプトに基づいてAIが出力したアウトプットの利用は、アウトプットが他の著作物に似ている場合に著作権侵害になるか、という問題です。


①と②はAIの開発段階で、①で作成した言語モデルを、②で自社向けのモデルにするために追加学習をさせるのですが、著作権法30条の4では、「情報解析」においては必要な範囲内であれば著作権者の許諾を得ずに利用できるとしています。ただし、これは著作権者の利益を不当に害してはならないとしており、著作権侵害にあたるかどうかはケースバイケースです。


――そうすると、一般のビジネスパーソンにも関わりが深いのは、「③プロンプト入力」と「④アウトプットの利用」の段階ということでしょうか。

そうですね、生成AIを利用する際、プロンプトに他者が作成した文章やイラストなどを入力することがありますが、先ほどの著作権法30条の4が適用されるかどうかが問題になります。学習用に大量のデータを入力することが「情報解析」とされるので、プロンプト入力は情報解析でないとされることもあり、入力内容によっては著作権者の許諾が必要となる可能性もあります。


④のアウトプットの利用は、それが「他の著作物に依拠し、他の著作物と類似性がある場合」に著作権の侵害になります。

著作権者に対するリスペクトを欠いて炎上するケースも

――アウトプットした成果物に著作権が発生しないのはどのようなケースなのでしょうか。

簡単にいうと、AIがアプトプットした成果物を製品として販売し、それを誰かがコピーしたときに、自分の作品だと主張できるかどうかということです。著作権とは、その創作物に創作者の創作意図と創作的寄与がある場合に発生するとされています。


例えば、AIに「〇〇的なイラストを描いて」という簡単な指示を出しただけでは、そこに創作意図と創作的寄与があるとは通常は認められません。それに対し、創作者が自分の創作物に独自のイメージを持ち、それを具体化させるためにいろいろと工夫して生成AIを活用する場合は、創作意図と創作的寄与があるとされて著作権が発生します。こちらもケースバイケースといっていいでしょう。


――これまでに生成AIの著作権侵害に関する裁判は起こっていますか。

海外では、フォトストックサービスのGetty Images社が2023年の1月、2月の2回にわたり、画像生成AIの「Stable Diffusion」を開発した企業を著作権侵害で訴えています。


一方、私が知る限り日本ではまだ裁判事例はありません。ただ法的に問題がなくても、倫理的にクリエイターに対するリスペクトが欠けていると炎上を招くことになります。生成AIの成果物に関しても、ある作者や作品の雰囲気やタッチなどを参考に、プロンプトに入力して成果物をアウトプットした場合、それがたとえ著作権法の対象にならないとしても、著作権者への配慮に欠け、安易に利用したと見なされた場合、社会的に非難されることが起こりうるということは考えておかなければならないでしょう。

情報の取り扱いには十分な配慮が必要

――それでは次に、生成AIを使った場合に起こり得る法的リスクの2つめ「誤情報の利用」を解説していただけますか。

生成AIは基本的に、入力した単語に対して、関連性のある単語を膨大な学習データから予測するという作業の繰り返しで答えをアウトプットします。そのため、ある程度の確率で間違うのは必然だといえるでしょう。AIの答えを鵜呑みにすると、誤情報の利用につながりかねないので注意が必要です。


――法的リスクの3つめの「秘密情報の漏えい」に関しては、社内情報流出などのニュースがすでに報じられています。またChatGPTで入力したデータは、デフォルトとして学習用にオープンAIに利用されるという利用規約を知らないまま、情報を入力してしまう人がけっこう多いようです。

秘密情報の漏えいを防ぐためは、技術的な面、非技術的な面での対応策が考えられます。技術的な対応策としては、ChatGPTのURLへアクセスできないようブロックする、ソフトウェアを通じてフィルターをかけて機密情報を入力したら、それを漏出するのを阻止するといったやり方があります。また、大手企業では自前の生成AIを開発しようとしています。非技術的な対応策としては、生成AIの利用者への教育が考えられます。


――秘密情報の漏えいは、4つめの法的リスク「個人情報の不適切な利用」と重なるところがあると思います。どちらも「うっかり入力してしまった」ということがありそうです。

個人情報保護法では「個人情報」と「個人データ」を区別しており、「個人情報」は個人を特定できる情報であるのに対し、「個人データ」はエクセルなどで個人情報がデータベース化されて検索可能な状態になっている情報で、個人情報より取り扱いに規制が多くあります。個人データを第三者に提供する場合は本人の同意が必要となるので、生成AIで入力する際にも慎重な取り扱いが求められます。

生成AIに対して、人間はマネジャー的役割が求められる

――その他に、倫理的な面で懸念されることは何でしょうか。

私は、先ほどの5つの法的リスク以外に、生成AIは「公平性」「透明性」の問題をはらんでいると考えています。


まず、「公平性」ですが、すべてのAIは過去のデータを学習することで成立しています。過去のデータにバイアスがかかっていれば、バイアスがかかった状態で出力されます。例えば、「Stable Diffusion」のような画像生成AIに、「日本の社長の画像を作って」と入力し、出てくる画像がすべて男性だったとすると、生成AIには人種やジェンダーなどに対する社会のバイアス、偏見がそのまま反映されているとう批判を受けるかもしれません。よって、AIが作った生成物に対しては、多角的で公平な視点でチェックすることが重要です。


次の「透明性」ですが、「AIを使ったときにどのようなデータを集めて、どのような処理をしたのかを開示すべきだ」「AIで作ったことを表示すべきだ」という議論が出ています。先述したEUの規制では、生成AIの成果物には「Made with AI」と表示するという案が出ています。


――後々トラブルになったときに、「AIがやったことなので、知りませんでした」では済まされないということですね。

トラブルにならないよう、プロンプトの入力や成果物を利用する際に十分配慮することはもちろんですが、トラブルになった場合に備えて、入力した情報や成果物ができるまでの過程を記録として残しておくということも必要でしょう。


生成AIの利用において、人間にはチェックや管理をするマネジメント能力が求められます。例えるならば、生成AIは「とても優秀で24時間いつでも働くけれど、時々とんでもないミスをするので、100%の信頼はおけない部下」といってもいいでしょう。そうした部下=生成AIのやった仕事に対しては、当然、上司=人間に監督責任が生じます。上司がいい加減な指示を出すと部下はそれ相応の仕事をするので、明確な指示を出して、その仕事は必ずチェックする。つまり生成AIに対して、人間はマネジャーとしての役割が必要になってきます。今後は、適切に生成AIを利活用するための、ガイドラインやリテラシー教育が必要になってくるでしょう。


※文中の内容・肩書等はすべて掲載当時のものです。


本記事はお役に立ちましたか?

コメントのご入力ありがとうございます。今後の参考にいたします。

参考になった0
0%
参考にならなかった0
0%

follow us

公式アカウントをフォローして最新情報をチェック!

  • 『パーソル総合研究所』公式 Facebook
  • 『パーソル総合研究所シンクタンク』公式 X
  • 『パーソル総合研究所シンクタンク』公式 note

おすすめコラム

ピックアップ

  • シニア就業者の意識・行動の変化と活躍促進のヒント
  • AIの進化とHRの未来
  • 精神障害者雇用を一歩先へ
  • さまざまな角度から見る、働く人々の「成長」
  • ハタチからの「学びと幸せ」探究ラボ
  • メタバースは私たちのはたらき方をどう変えるか
  • 人的資本経営を考える
  • 人と組織の可能性を広げるテレワーク
  • 「日本的ジョブ型雇用」転換への道
  • 働く10,000人の就業・成長定点調査
  • 転職学 令和の時代にわたしたちはどう働くか
  • はたらく人の幸せ不幸せ診断
  • はたらく人の幸福学プロジェクト
  • 外国人雇用プロジェクト
  • 介護人材の成長とキャリアに関する研究プロジェクト
  • 日本で働くミドル・シニアを科学する
  • PERSOL HR DATA BANK in APAC
  • サテライトオフィス2.0の提言
  • 希望の残業学
  • アルバイト・パートの成長創造プロジェクト

【経営者・人事部向け】

パーソル総合研究所メルマガ

雇用や労働市場、人材マネジメント、キャリアなど 日々取り組んでいる調査・研究内容のレポートに加えて、研究員やコンサルタントのコラム、役立つセミナー・研修情報などをお届けします。

コラムバックナンバー

おすすめコラム

PAGE TOP