ChatGPTの回答が名誉毀損になる場合がある? あるとしたら、どう対応すべき?[編集部]
ChatGPTと名誉毀損
はじめに
本年に入ってから、ChatGPT(ここでは、GoogleのBard、Facebook系OSSのLLaMA、AmazonのTitan、日系LLM、中国系LLM等を含む大規模言語モデルAIを全て「ChatGPT」と総称する。)が頻繁に大きな話題になっている。筆者はAI・契約レビューテクノロジー協会代表理事として、法務分野におけるChatGPTを含むテクノロジーの活用について検討し、約20以上のセミナーに登壇している(注1)ところ、名誉毀損にフォーカスした議論が少ないことに気づいた。そこで、本連載において、ChatGPTと名誉毀損の関係について考えたい。
(1)場合分け
名誉毀損は、公然と対象者の社会的評価を低下させることによって成立する。例えば、ChatGPTが「Aさんは犯罪者である」(注2)という出力結果を出した場合、少なくとも「Aさんは犯罪者である」という内容は対象者A氏の社会的評価を低下させ得る。
ここで、OpenAI、Google等のAIエンジン提供企業(「OpenAI」という。)、ChatGPTを利用したプロダクトを提供する企業(「AIベンダ」という。)、当該プロダクトを社内業務に利用する企業(「ユーザ企業」という。)及び従業員であったり消費者であったりするエンドユーザ個人(「エンドユーザ」という。)の4者が関与していることが重要である。また、具体的な状況によって判断が異なり得るため、以下場合分けをして論じよう。
- [状況1] ユーザ企業がOpenAI又はAIベンダと契約して従業員であるエンドユーザがChatGPT等を利用できるところ、エンドユーザがプロンプトを入れるとエンドユーザの画面上だけにChatGPTの回答が表示される場合
- [状況2] AIベンダの提供するユーザ企業の業務システムにChatGPTが組み込まれ、ユーザ企業の従業員であるエンドユーザが入力したプロンプトに基づくChatGPTの回答内容が他の従業員にも示される場合
- [状況3] ユーザ企業が消費者向けに、AIベンダの提供するChatBotシステムを利用し、そのために、ユーザ企業とAIベンダがデータを提供し、AIベンダにおいてファインチューニングをした場合(その結果、特定の質問を消費者であるエンドユーザが行うと、同じ質問には同じ回答がなされるが、当該回答はあくまでも質問をしたエンドユーザにしか表示されない)
なお、全ての状況に共通する抗弁についてここで簡単に述べると、真実性・公共性・公益目的があれば真実性の抗弁が成立するところ、そもそもhallucination(虚偽)であれば真実性はない。公共性・公益目的は具体的な状況次第であろう。
(2)状況1について
まず、エンドユーザについてみると、エンドユーザ本人が何らかの悪意あるプロンプトを投げてChatGPTに「Aさんは犯罪者である」という出力結果を出させたとしても(それがOpenAIの利用規約等に違反するかは別論)、公然性がないので、少なくともその段階でエンドユーザには対象者Aに対する名誉毀損は成立しないだろう。しかし、エンドユーザがその記載内容をSNS等にアップすれば、そのようなアップしたことをもって名誉毀損となるだろう。例えばChatGPTにまるでAが犯罪をして逮捕されたかのような虚偽の新聞記事風の文章作成をさせて、それをSNSに投稿する場合が考えられる。なお、ChatGPTが学習することができることからは、悪意あるエンドユーザが何度も何度もAが犯罪者だというプロンプトを入れることで、ChatGPTにそのような学習をさせ、例えば「犯罪者について教えてください」等というプロンプトに対し「犯罪者とはAのことである」といった回答が出るようにしたのであれば、そのようなエンドユーザによる学習能力を悪用した行為についてエンドユーザが責任を負う可能性がある(注3)。
次に、ユーザ企業が会社の業務の一環としてChatGPTやChatGPTプロダクトの契約をしていて、従業員等が何らかの悪意あるプロンプトを投げてChatGPTに「Aさんは犯罪者である」という出力結果を出させたとしても、それについて「ユーザ企業」が責任を負うとされる可能性は低いように思われる。
更に、OpenAIやAIベンダについては、「特定のプロンプトを入れると(毎回回答は微妙に違ってくるが)概ねAさんの社会的評価を低下させる回答が出る」というプロダクトを提供していることについて、対象者Aに対する責任が発生するかが問題となる。この点は、公然性の問題、社会的評価低下の有無及び責任主体の問題が問題となると思われる。
公然性の問題というのは、個々のエンドユーザとの関係では、まるで個別チャットのやり取りと同様に、エンドユーザとOpen AIが個々にやりとりをしているだけで、そのような1対1のやり取りに公然性がない、という議論である。そのような議論については2点留意が必要であろう。1つ目はいわゆる伝播性の理論(『最新判例にみるインターネット上の名誉毀損の理論と実務(第2版)』142頁以下)であり、その内容が今後他の人に伝播され得るようなものであれば、公然性が認められるということである。2つ目は、(毎回微妙に回答は違うが)同じようなプロンプトに対しては同じような回答が出力されることが多いことをどう考えるかであり、例えば、「Aさんについて教えてください」と聞くとほぼ毎回「Aさんは犯罪者である」という出力結果となるのであれば、まさにインターネット上に「Aさんは犯罪者である」と投稿したことと同じではないか、という問題が生じる。
社会的評価低下というのは、AIが生成したものは「言葉遊び」のようなものであって、その中にhallucination(誤り)があることは誰もが知っているのだ、よって、その内容をもって社会的評価は低下しないのではないか、というような議論である。ただ、いわゆる「東スポの抗弁」について、裁判所が否定的な判断をしている(『最新判例にみるインターネット上の名誉毀損の理論と実務(第2版)』105−106頁)ところ、ChatGPTがますますその正確性を高める努力をしており、また、AIベンダがChatGPTの組み込みの過程でプロンプトエンジニアリングやファインチューニングで誤った回答が出ることを防ぐため努力をしていることに鑑みれば、少なくとも将来的にはこの論点を強調して責任を回避しようとすることは、ますます困難となるだろう。
責任主体というのは、例えば、「Aさんについて教えてください」と聞くと学習した内容に基づき「Aさんは犯罪者である」と出力される場合については、学習データにそのような内容が入っていることが問題であって、OpenAIやAIベンダの責任ではないのではないか、とか、そもそも「Aさんが殺人をして逮捕されたことについて新聞記事風の文章を書いてください」というプロンプトが入力されたのであれば、それを入力したエンドユーザの責任はともかく、OpenAIやAIベンダに責任はないのではないか、という問題である。この点については、まだ明確な答えはないと思われるが、Google事件決定(最決平成29年1月31日)において「検索結果の提供は検索事業者自身による表現行為という側面を有する。また、検索事業者による検索結果の提供は、公衆が、インターネット上に情報を発信したり、インターネット上の膨大な量の情報の中から必要なものを入手したりすることを支援するものであり、現代社会においてインターネット上の情報流通の基盤として大きな役割を果たしている。そして、検索事業者による特定の検索結果の提供行為が違法とされ、その削除を余儀なくされるということは、上記方針に沿った一貫性を有する表現行為の制約であることはもとより、検索結果の提供を通じて果たされている上記役割に対する制約でもあるといえる。」とされているような検索事業者の役割同様の積極的な役割をOpenAIやAIベンダが果たしていると判断されるかという点が一つの重要なポイントだろう。特にWebbrowsing機能を有するChatGPTは、まさにウェブ上で検索してその検索結果の見せ方がChat形式を採用しているものに過ぎないという側面があることが重要であると思われる。
(3)状況2について
まず、エンドユーザについては、社内であっても、対象者A氏の社会的評価を低下させる内容を多くの同僚が見られるようにした以上、名誉毀損が成立する可能性が高い。なお、悪意あるプロンプトではなく、例えば、Aさんについて本当に何も知らないので、「Aさんについて知りたい」として「Aさんについて教えてください」というプロンプトを入力したところ、「Aさんは犯罪者である」との回答が多くの同僚のところに広く表示された、という場合には、過失が問題となり、注意義務違反が問われるところ、社内のChatGPT利用ルールとの関係が問題となると思われる。
次に、ユーザ企業として、社内の情報共有が必要であり、そのために社内SNS等、情報共有が可能な業務システムを利用することは十分あり得る。ただ、その場合、エンドユーザ(例えば従業員)が入力したデータを共有するといういわばプロバイダ責任制限法上のプロバイダの立場に立つのか、それとも、ユーザ企業自身が運営するサービスが(エンドユーザの入力したプロンプトに応じて)情報を表示するといういわば投稿者本人の立場に立つのかというのは設計上重要であろう。例えば、状況1+社内SNSとして、「従業員が容易に他の部門に対し、他の部門として答えやすい形の質問(例えば、法務として回答する上で知っておきたいことがまとめられている)をできるようにするChatGPTプロダクト」を個々の従業員に提供し、個々の従業員は、そのChatGPTプロダクトの表示結果を社内SNSにコピペして適宜修正の上投稿するという形であれば、投稿したのはエンドユーザだといいやすく、プロバイダ責任制限法上の削除義務等を履行している限り、免責の余地が大きくなるだろう。
OpenAIやAIベンダについては、状況1と異なる新たな議論はなさそうである。
(4)状況3について
状況3におけるエンドユーザーは、悪意あるプロンプトを利用すれば、自らに表示される回答として対象者の社会的評価を低下させるものを表示可能であるものの、それはあくまでも自分にしか表示させられないので、状況1と同様であろう。
ユーザ企業が一般の消費者に対して ChatBotを提供し、例えば、ユーザが「Aについて教えてください」と聞くと、当該ChatBotが「Aは犯罪者です」と必ず答えるという場合、まさにユーザ企業が状況1におけるOpenAIやAIベンダの立場に立ってしまう、ということになる。特にこの事例ではユーザ企業がデータを提供してファインチューニングをしており、単に「一般的に使われているChatbotプロダクトについてそれをそのまま業務に利用できるようにAIベンダと契約しただけ」という話ではないだろう。そこで、状況1ではユーザ企業は単にOpenAIやAIベンダと契約をしてエンドユーザがChatGPTを使えるようにしているだけの立場であったが、状況3はまさにChatBotというユーザ企業自身のサービスをエンドユーザに提供する立場になっている。
OpenAIやAIベンダの立場は状況1と同様と思われる。
(5)実務対応
上記を踏まえ、OpenAI及びAIベンダは、プロダクトの質を上げて名誉毀損状況の可能性を減らしながら、その有用性を高めることで、裁判所に「情報流通の基盤として大きな役割を果たしている。」等と評価されるように努力すべきであろう。また、利用規約等を通じて問題のある利用を防ぎ、必要に応じて利用規約違反に対する対処をすべきである。
ユーザ企業は、状況1において直ちに重大なリスクに直面する訳ではないものの状況2や3においてリスクが増えることから、立て付け(状況2参照)をどうするかであるとか、社内ルールをどうすべきかを真剣に検討すべきである。
エンドユーザは社内ルール等のルールを遵守するとともに、hallucination(虚偽)があるというChatGPTの性質を踏まえて、出力内容を鵜呑みにしないようにすべきである。
(注1)「ChatGPT等のAI技術の発展と弁護士実務への影響」(https://note.com/matsuo1984/n/n006e3e569eb0)を参照されたい。
(注2)なお、単純に「犯罪者」というだけの抽象的な内容で社会的評価低下として十分か、という問題があるが、ここは「もし同じ内容がSNS等で投稿されれば、社会的評価が認められる程度の内容」と理解していただきたい。例えば、「2023年5月16日にAが銀座で強盗をして逮捕された」という程度の具体性があるものであれば、社会的評価が認められるという結論に争いはないだろうが、そこまで毎回書くと長くなる、という趣旨である。
(注3)この点は、MicrosoftのTayに対し、エンドユーザが悪意ある学習をさせ、ヒトラー礼賛等の発言をさせているところ、名誉毀損とヘイトスピーチという相違はあれど、この場合のエンドユーザの責任と類似した面がある。
》》》これまでの連載一覧はこちら《《《
松尾剛行・山田悠一郎著
『最新判例にみるインターネット上の名誉毀損の理論と実務 第2版』
実例をもとにメルクマールを示す、ネット時代の名誉毀損の決定版法律実務書、3年分の最新裁判例を多数加え、圧倒的充実の第2版!
書誌情報 → https://www.keisoshobo.co.jp/book/b432305.html