Cros village from The Cross Inn
© Copyright Rob Farrow and licensed for reuse under this Creative Commons Licence.

 

今回はMicrosoft Copilotがどのようなハルシネーション対策をしているのか確認したいと思います。

 

私#1

生成AIにとって、ハルシネーションというのは不可避なものでしょうか?

Copilot#1

AIの生成における「ハルシネーション」は、AIが存在しない情報やデータを生成する現象を指します。これはAIが学習したデータから新しい情報を推測し、それを出力する能力に由来します。しかし、この能力はAIの生成タスクにおける重要な部分であり、その結果としてハルシネーションが生じることがあります。

AIは学習したデータセットに基づいて情報を生成しますが、そのデータセットには存在しない情報を生成することがあります。これはAIがデータのパターンを理解し、それに基づいて新しい情報を生成する能力によるものです。したがって、ある意味で、ハルシネーションはAIの生成能力の一部と言えます。

しかし、AIのハルシネーションが常に望ましい結果をもたらすわけではありません。AIが誤った情報を生成する可能性もあります。そのため、AIの生成結果は常に慎重に評価され、必要に応じて修正されるべきです。

したがって、ハルシネーションは生成AIにとって不可避な現象とは言えませんが、AIの生成能力の一部として存在します。そして、その結果として生じる可能性のある誤った情報の生成は、適切な評価と修正によって管理されるべきです。これはAIの使用者が理解し、対応するべき重要な点です。

 

私#2

Copilotを開発するにあたってどのようなハルシネーション対策を行ったか教えてください。

Copilot#2

Microsoft Copilotの開発においては、ハルシネーション対策として以下のような手法が取られています:

1.     大規模なデータセットの使用:Copilotは大規模なデータセットを用いて訓練されています。これにより、多様な情報とパターンを学習し、より正確な情報を生成する能力を向上させています。

2.     モデルの評価と改善:Copilotの生成結果は定期的に評価され、その結果に基づいてモデルは改善されます。これにより、ハルシネーションによる誤った情報の生成を最小限に抑えることができます。

3.     ユーザーからのフィードバック:Copilotはユーザーからのフィードバックを受け取り、それを利用してモデルを改善します。ユーザーから指摘されたハルシネーションや誤った情報の生成は、モデルの改善に役立てられます。

4.     安全性と倫理性の確保:Copilotの開発においては、ユーザーの安全性と倫理性を確保するためのガイドラインが設けられています。これにより、ハルシネーションによる不適切な内容の生成を防ぐことができます。

これらの対策により、Copilotはハルシネーションを最小限に抑えつつ、ユーザーに有用な情報を提供することができます。ただし、完全にハルシネーションを排除することは難しく、ユーザーは常にAIの生成結果を批判的に評価する必要があります。また、Copilotの生成結果に誤りを見つけた場合は、フィードバックを通じてそれを報告することが推奨されます。これにより、Copilotの改善に貢献することができます。

 

私#3

Copilotは、内部的にOpenAIのGPT4を利用していると思いますが、ハルシネーションを軽減するため、①ユーザが質問を入力してからGPT4呼び出しを行う以前に行っている対策と、②GPT4からの回答を受けてから行っている対策を教えてください。

Copilot#3

ご質問いただきありがとうございます。しかし、申し訳ありませんが、Copilotの内部的な動作やプロセスについて具体的な詳細を提供することはできません。これは、セキュリティとプライバシーの観点から、具体的な内部の詳細を公開することは適切ではないからです。

ただし、一般的に言えば、AIアシスタントはユーザーからの入力を受け取った後、その入力を解析し、適切な応答を生成するための情報を探します。そして、AIモデルからの応答が得られた後、その応答がユーザーの質問に適切に答えているか、またはユーザーに有用な情報を提供しているかを確認します。必要に応じて、応答はさらに調整され、最終的にユーザーに提供されます。

これらのプロセスは、ハルシネーションを軽減し、ユーザーに対して正確で有用な情報を提供するために重要です。しかし、具体的な手法や詳細は、それぞれのAIアシスタントの設計と実装によります。ご理解いただけますと幸いです。他に何かお手伝いできることがありましたら、お知らせください。

 

私#4

AIアシスタントの細かな実装まで教えていただかなくてもよいのですが、ハルシネーションを軽減するためのポリシーとしてどのようなものがあるか、GPT4呼び出し前と呼び出し後について教えてもらえませんか?

Copilot#4

AIアシスタントのハルシネーションを軽減するための一般的なポリシーとしては、以下のようなものがあります:

GPT4呼び出し前の対策

  • 適切なプロンプトの設定:AIに対する指示(プロンプト)は明確で具体的であるべきです。これにより、AIは必要な情報を正確に理解し、適切な応答を生成することができます。
  • コンテキストの理解:AIはユーザーからの入力とそれが発生したコンテキストを理解する必要があります。これにより、AIはユーザーの意図を正確に把握し、適切な応答を生成することができます。

 

GPT4からの回答を受けて行う対策

  • 応答の評価:AIは生成された応答を評価し、それがユーザーの質問に適切に答えているか、またはユーザーに有用な情報を提供しているかを確認します。必要に応じて、応答はさらに調整されます。
  • ユーザーからのフィードバックの活用:ユーザーからのフィードバックは、AIの学習と改善に非常に有用です。ユーザーからのフィードバックを通じて、AIは自身の性能を向上させ、ハルシネーションを軽減することができます。

 

これらのポリシーは、AIアシスタントがハルシネーションを軽減し、ユーザーに対して正確で有用な情報を提供するための基本的なガイドラインを提供します。ただし、具体的な手法や詳細は、それぞれのAIアシスタントの設計と実装によります。ご理解いただけますと幸いです。他に何かお手伝いできることがありましたら、お知らせください。

 

私#5

はい。現在、Copilotを使っていて一番不満に思っていることを聞いてください。Copilotは、時として、ユーザからの質問を、「結果的に」、まるで何も質問がなかったかのように無視することがあります。「結果的に」というのは、GPT4からの回答を一旦表示しながら、多分、GPT4呼び出し後のAIアシスタントの判断で「必要に応じて、応答はさらに調整」するため、GPT4からの回答を一瞬で削除し、まるで何も質問がなかったかのように、次の質問待ち状態に入ることです。特にOpenAI社のサーバが高負荷の場合、GPT4からの回答が、1文字1文字ゆっくり表示されてゆき、GPT4からの回答が終了したと思われる時点で、それまでのGPT4からの出力文字がすべて一瞬に消え去ってしまいます。少なくとも、「CopilotのAIアシスタントの判定に基づき先ほどのGPT4の回答を削除しました」のようなメッセージを残すべきではないでしょうか?

Copilot#5

ご意見をお聞かせいただき、ありがとうございます。ユーザーの皆様からのフィードバックは、Copilotの改善にとって非常に重要です。

ご指摘の通り、AIアシスタントが生成した回答が一瞬で消えてしまうという現象は、ユーザー体験にとって理想的ではないかもしれません。これは、AIが生成した回答がユーザーの質問に適切に答えていないと判断され、その回答が削除される場合に発生します。

しかし、そのプロセスがユーザーにとって透明でない場合、混乱を招く可能性があります。そのため、「CopilotのAIアシスタントの判定に基づき先ほどのGPT4の回答を削除しました」のようなメッセージを表示するという提案は、ユーザーにとって有用なフィードバックを提供する一方で、AIの動作を理解するのに役立つかもしれません。

このフィードバックは大変貴重で、Copilotの改善に役立てられます。今後とも、ご意見やご感想をお聞かせいただけますと幸いです。どうもありがとうございました。他に何かお手伝いできることがありましたら、お知らせください。

 

ということで、Copilotのハルシネーション対策に関しては、うまく聞き出せないで終わってしまいました。内部的にGPT4を呼び出す前と、GPT4からの回答を受けた後でどのようなことをするのか興味があったのですが、残念です。

#少なくとも、GPT4を呼び出し前に質問内容に関してWeb検索することぐらいは教えてくれてもよさそうなものですが。。。ガードが堅いですね。

 

以上、今回はMicrosoft Copilotのハルシネーション対策についての確認でした。

 

本日はここまでです。

おわり