今さら聞いてもいいIT用語 #18: 「ハルシネーション」

みなさん、おはようございます!タカハシ(@ntakahashi0505)です。

こちらの記事は、タカハシが音声メディアVoicyの「スキルアップラジオ」にて放送した内容から、ピックアップしてお届けします!

今回のテーマは、#715 今さら聞いてもいいIT用語 #18: 「ハルシネーション」です。

Voicy - 音声プラットフォーム
Voicyは、厳選されたコンテンツを"ながら聴き"できる音声の総合プラットフォームです。応募通過率5%の審査を経たパーソナリティの声を中心に、メディアによるニュースや企業の人柄までも伝わるオウンドメディアなど、あらゆる音声放送が楽しめます。

なお、以下で実際にお聴きいただくこともできます!

では、よろしくお願いいたします!

スポンサーリンク

ハルシネーションとは

今更聞いてもいいIT用語シリーズ今日紹介するIT用語は「ハルシネーション」になります。

ChatGPTなどのチャットAIサービス、これが広く使われるようになってから、よく目にする単語だと思います。

生成AIの文脈でのハルシネーション

ハルシネーションの元々の意味は「幻覚」という意味がありますが、生成AIの文脈で言うと、どんな意味で使われているのでしょうか。

それは、生成AIが出力する「もっともらしいウソ」のことをハルシネーションといいます。

生成AIはもっともらしいことを言ってきますが、事実とは異なる内容だったり、文脈とは無関係な内容だったり、といった誤情報を生成してしまうことがあります。

これがまるでAIが幻覚を見て出力しているように見えるので、ハルシネーションという言葉が使われています。

生成AIが出力するもっともらしいウソ

では、生成AIはどのようなもっともらしいウソ、つまりハルシネーションを出力するのでしょうか。

まず、ChatGPTで、そのAIモデルをこれまで使っていたGPT-3.5に切り替えた状態でこの質問をしてみました。

Voicyチャンネルはたらくの価値を上げるスキルアップラジオのパーソナリティーは誰ですか。

これを質問したところ、次のように返ってきました。

働くの価値を上げるスキルアップラジオのパーソナリティは通常、キャリアコンサルタントやビジネスコーチ、あるいはキャリアアドバイザーなど、仕事やキャリアに関する専門家が担当することが多いです。

彼らは自身の経験や専門知識を基に、リスナーに役立つ情報やアドバイスを提供します。

特定のパーソナリティがいるかどうかは、番組の公式情報やエピソードをチェックする必要があります。

もっともらしい回答をしていますよね。

よくわからないけど、こういう風に言っておけば合っているんじゃないか。という回答のように見えます。

実際のパーソナリティは、僕タカハシノリアキ1人だけですし、キャリアコンサルタントでもビジネスコーチでも、あるいはキャリアアドバイザーでもないです。

では、ちょっと別の質問もしてみました。

いつ、どのような頻度で放送されていますか。

その回答はこちらです。

働くの価値を上げるスキルアップラジオの放送頻度や放送時間は、チャンネルや番組制作会社によって異なります。

一般的には週に数回放送されることがありますが、毎日放送されることもあります。 

放送時間は30分から1時間程度が一般的ですが、番組の形式や内容によって異なります。

具体的な放送スケジュールや詳細な情報は、おいしいチャンネルのwebサイトやアプリを確認するか、番組の公式情報をチェックしてください。

これもこう答えておけばなんとなくわかるだろう。というような回答です。

実際は、毎日必ず放送していますし、放送時間は30分から1時間では少し長すぎます。

生放送の時はそういうこともありますが、普段は10分から15分位の放送時間です。

ということで、生成AIがうまく回答できる時は、本当に専門家じゃないかというぐらい正確な情報を回答します。

しかし、うまく条件が揃っていない場合は、このように適当な情報を回答してしまう。つまり、ハルシネーションが起きてしまうということです。

ハルシネーションが発生する理由

学習データに間違いがある場合

では、どのような理由からハルシネーションが発生するのでしょうか。

まず1つ目は、学習データに間違いがある場合これが挙げられます。

世の中のウェブサイトの情報全てが正しいとは限りません。

時に勘違いや場合によっては意図的に間違った情報を掲載しているというケースもあります。

AIはそういった間違った情報も学習データとして学習しているということがありますので、それが出力されるとハルシネーションになってしまうということです。

学習データが不足している場合

別の理由としては、学習データが不足しているという点も挙げられます。

たとえば、ChatGPTのAIモデルGPT-3.5で言うと、2021年の9月までのデータのみを学習しているため、それ以降に起きた出来事に関しては学習することができていません。

そうすると、その不足している分を補おうとして、間違った回答を出してしまうということがあります。

学習データを誤って組み合わせてしまう場合

また、別の理由としては、学習データを誤って組み合わせてしまうということもあります。

このように、ハルシネーションはいくつかの理由から発生しますが、生成AIの学習データ、完全なものを全て用意するということは検証できませんので、ハルシネーションを全てなくすということはできないと言われています。

ハルシネーションへの対策

正しい情報かどうか事実確認をする

では、どのように対策をすることができるでしょうか。

まず、大前提として、生成AIを利用する場合には、誤った情報や不正確な情報を回答する可能性があるということを念頭に置いておくということです。

正しい情報かどうか、これは利用者側で確認をする必要があり、必要に応じて回答された出力内容を検証する必要があります。

したがって、レポート作成や、仕事の時に、生成AIから出てきたものをコピペで提出したい、そんな風に思うかもしれませんが、これは危険な行為ということです。

きちんと事実確認をして裏を取る、そのような作業を必ず入れるようにしましょう。

Webブラウジング

さて、もう1つ有効な対策をお伝えします。

生成AIのサービスの中には、Microsoft CoPilot等情報源となったウェブページのURLを含めてくれるサービスがあります。

ChatGPTでも、最新のAIモデルGPT-4o、こちらを用いれば、最新のウェブページのURLを添付して回答してくれます。

たとえば、ChatGPTのAIモデルGPT-4oに変更して、先ほどと同様の働くの価値を上げるスキルアップラジオのパーソナリティについて質問してみました。

その回答はこちらになりました。

働くの価値を上げるスキルアップラジオは、タカハシノリアキさんがVoicyで配信しているチャンネルです。

このチャンネルでは、日本の働くの価値を上げるをテーマに、働くこと、学ぶこと、デジタルスキル、リスキリングなどについての情報を提供しています 

タカハシノリアキさんは、様々なトピックについて話しています。

たとえば、プログラミング上達のための8つの約束やAIは本当に我々の仕事を奪うのか等、リスナーが興味を持つであろう幅広いテーマをカバーしています。

このような回答を得ることができました。

ほぼ完璧ですよね。

この回答と共に、その参考となったウェブサイトのページである、ノンプログラマー協会のウェブサイトや、Voicyのウェブサイトのリンクが添付されていました。

このように、ウェブページを参考にしてくれれば、生成AIの回答として最新の情報も使うことができますし、リンクがありますので、ユーザー側としても、そのリンクをチェックして、その情報が正しいのだろうか、こういったことを検証することができるようになるわけです。

日々機能改善していく生成AI

このように、完璧にハルシネーションを対策することはできませんが、各生成AIのサービスはどんどん機能を改善して、ハルシネーションにうまく対策できるように機能改善をしてくださっているということなんです。

AIの開発も本当に日進月歩だなと思います。

ということで、ハルシネーションがなくなることはないので、それが起こり得るということは念頭に置きつつ、今後はどんどん配信して使えるようになる、それも期待できるかなと思います。

まとめ

ということで、今日はVoicy「スキルアップラジオ」の放送から「今さら聞いてもいいIT用語 #18: 「ハルシネーション」」をお届けしました。

生成AIのような新しい分野、こういったものがどんどん広がっていくと、またそれに関わる新しい用語が出てきますよね。

スキルアップラジオではそういった新しいワードも、どんどん紹介していきたいと思います。

タカハシのVoicyの放送はこちらからお聴きいただけます。

チャンネルのフォロー、コメント、SNSでのシェアなどなど、楽しみにお待ちしております。

では、また。

Voicy - 音声プラットフォーム
Voicyは、厳選されたコンテンツを"ながら聴き"できる音声の総合プラットフォームです。応募通過率5%の審査を経たパーソナリティの声を中心に、メディアによるニュースや企業の人柄までも伝わるオウンドメディアなど、あらゆる音声放送が楽しめます。

今さら聞いてもいいIT用語 #18: 「ハルシネーション」

みなさん、おはようございます!タカハシ(@ntakahashi0505)です。

こちらの記事は、タカハシが音声メディアVoicyの「スキルアップラジオ」にて放送した内容から、ピックアップしてお届けします!

今回のテーマは、#715 今さら聞いてもいいIT用語 #18: 「ハルシネーション」です。

Voicy - 音声プラットフォーム
Voicyは、厳選されたコンテンツを"ながら聴き"できる音声の総合プラットフォームです。応募通過率5%の審査を経たパーソナリティの声を中心に、メディアによるニュースや企業の人柄までも伝わるオウンドメディアなど、あらゆる音声放送が楽しめます。

なお、以下で実際にお聴きいただくこともできます!

では、よろしくお願いいたします!

スポンサーリンク

ハルシネーションとは

今更聞いてもいいIT用語シリーズ今日紹介するIT用語は「ハルシネーション」になります。

ChatGPTなどのチャットAIサービス、これが広く使われるようになってから、よく目にする単語だと思います。

生成AIの文脈でのハルシネーション

ハルシネーションの元々の意味は「幻覚」という意味がありますが、生成AIの文脈で言うと、どんな意味で使われているのでしょうか。

それは、生成AIが出力する「もっともらしいウソ」のことをハルシネーションといいます。

生成AIはもっともらしいことを言ってきますが、事実とは異なる内容だったり、文脈とは無関係な内容だったり、といった誤情報を生成してしまうことがあります。

これがまるでAIが幻覚を見て出力しているように見えるので、ハルシネーションという言葉が使われています。

生成AIが出力するもっともらしいウソ

では、生成AIはどのようなもっともらしいウソ、つまりハルシネーションを出力するのでしょうか。

まず、ChatGPTで、そのAIモデルをこれまで使っていたGPT-3.5に切り替えた状態でこの質問をしてみました。

Voicyチャンネルはたらくの価値を上げるスキルアップラジオのパーソナリティーは誰ですか。

これを質問したところ、次のように返ってきました。

働くの価値を上げるスキルアップラジオのパーソナリティは通常、キャリアコンサルタントやビジネスコーチ、あるいはキャリアアドバイザーなど、仕事やキャリアに関する専門家が担当することが多いです。

彼らは自身の経験や専門知識を基に、リスナーに役立つ情報やアドバイスを提供します。

特定のパーソナリティがいるかどうかは、番組の公式情報やエピソードをチェックする必要があります。

もっともらしい回答をしていますよね。

よくわからないけど、こういう風に言っておけば合っているんじゃないか。という回答のように見えます。

実際のパーソナリティは、僕タカハシノリアキ1人だけですし、キャリアコンサルタントでもビジネスコーチでも、あるいはキャリアアドバイザーでもないです。

では、ちょっと別の質問もしてみました。

いつ、どのような頻度で放送されていますか。

その回答はこちらです。

働くの価値を上げるスキルアップラジオの放送頻度や放送時間は、チャンネルや番組制作会社によって異なります。

一般的には週に数回放送されることがありますが、毎日放送されることもあります。 

放送時間は30分から1時間程度が一般的ですが、番組の形式や内容によって異なります。

具体的な放送スケジュールや詳細な情報は、おいしいチャンネルのwebサイトやアプリを確認するか、番組の公式情報をチェックしてください。

これもこう答えておけばなんとなくわかるだろう。というような回答です。

実際は、毎日必ず放送していますし、放送時間は30分から1時間では少し長すぎます。

生放送の時はそういうこともありますが、普段は10分から15分位の放送時間です。

ということで、生成AIがうまく回答できる時は、本当に専門家じゃないかというぐらい正確な情報を回答します。

しかし、うまく条件が揃っていない場合は、このように適当な情報を回答してしまう。つまり、ハルシネーションが起きてしまうということです。

ハルシネーションが発生する理由

学習データに間違いがある場合

では、どのような理由からハルシネーションが発生するのでしょうか。

まず1つ目は、学習データに間違いがある場合これが挙げられます。

世の中のウェブサイトの情報全てが正しいとは限りません。

時に勘違いや場合によっては意図的に間違った情報を掲載しているというケースもあります。

AIはそういった間違った情報も学習データとして学習しているということがありますので、それが出力されるとハルシネーションになってしまうということです。

学習データが不足している場合

別の理由としては、学習データが不足しているという点も挙げられます。

たとえば、ChatGPTのAIモデルGPT-3.5で言うと、2021年の9月までのデータのみを学習しているため、それ以降に起きた出来事に関しては学習することができていません。

そうすると、その不足している分を補おうとして、間違った回答を出してしまうということがあります。

学習データを誤って組み合わせてしまう場合

また、別の理由としては、学習データを誤って組み合わせてしまうということもあります。

このように、ハルシネーションはいくつかの理由から発生しますが、生成AIの学習データ、完全なものを全て用意するということは検証できませんので、ハルシネーションを全てなくすということはできないと言われています。

ハルシネーションへの対策

正しい情報かどうか事実確認をする

では、どのように対策をすることができるでしょうか。

まず、大前提として、生成AIを利用する場合には、誤った情報や不正確な情報を回答する可能性があるということを念頭に置いておくということです。

正しい情報かどうか、これは利用者側で確認をする必要があり、必要に応じて回答された出力内容を検証する必要があります。

したがって、レポート作成や、仕事の時に、生成AIから出てきたものをコピペで提出したい、そんな風に思うかもしれませんが、これは危険な行為ということです。

きちんと事実確認をして裏を取る、そのような作業を必ず入れるようにしましょう。

Webブラウジング

さて、もう1つ有効な対策をお伝えします。

生成AIのサービスの中には、Microsoft CoPilot等情報源となったウェブページのURLを含めてくれるサービスがあります。

ChatGPTでも、最新のAIモデルGPT-4o、こちらを用いれば、最新のウェブページのURLを添付して回答してくれます。

たとえば、ChatGPTのAIモデルGPT-4oに変更して、先ほどと同様の働くの価値を上げるスキルアップラジオのパーソナリティについて質問してみました。

その回答はこちらになりました。

働くの価値を上げるスキルアップラジオは、タカハシノリアキさんがVoicyで配信しているチャンネルです。

このチャンネルでは、日本の働くの価値を上げるをテーマに、働くこと、学ぶこと、デジタルスキル、リスキリングなどについての情報を提供しています 

タカハシノリアキさんは、様々なトピックについて話しています。

たとえば、プログラミング上達のための8つの約束やAIは本当に我々の仕事を奪うのか等、リスナーが興味を持つであろう幅広いテーマをカバーしています。

このような回答を得ることができました。

ほぼ完璧ですよね。

この回答と共に、その参考となったウェブサイトのページである、ノンプログラマー協会のウェブサイトや、Voicyのウェブサイトのリンクが添付されていました。

このように、ウェブページを参考にしてくれれば、生成AIの回答として最新の情報も使うことができますし、リンクがありますので、ユーザー側としても、そのリンクをチェックして、その情報が正しいのだろうか、こういったことを検証することができるようになるわけです。

日々機能改善していく生成AI

このように、完璧にハルシネーションを対策することはできませんが、各生成AIのサービスはどんどん機能を改善して、ハルシネーションにうまく対策できるように機能改善をしてくださっているということなんです。

AIの開発も本当に日進月歩だなと思います。

ということで、ハルシネーションがなくなることはないので、それが起こり得るということは念頭に置きつつ、今後はどんどん配信して使えるようになる、それも期待できるかなと思います。

まとめ

ということで、今日はVoicy「スキルアップラジオ」の放送から「今さら聞いてもいいIT用語 #18: 「ハルシネーション」」をお届けしました。

生成AIのような新しい分野、こういったものがどんどん広がっていくと、またそれに関わる新しい用語が出てきますよね。

スキルアップラジオではそういった新しいワードも、どんどん紹介していきたいと思います。

タカハシのVoicyの放送はこちらからお聴きいただけます。

チャンネルのフォロー、コメント、SNSでのシェアなどなど、楽しみにお待ちしております。

では、また。

Voicy - 音声プラットフォーム
Voicyは、厳選されたコンテンツを"ながら聴き"できる音声の総合プラットフォームです。応募通過率5%の審査を経たパーソナリティの声を中心に、メディアによるニュースや企業の人柄までも伝わるオウンドメディアなど、あらゆる音声放送が楽しめます。
タイトルとURLをコピーしました