実績紹介

AWSの生成AIサービスを活用し、RAGを用いた社内文書の高度な検索システムを5時間で構築​

NRIネットコム株式会社

NRIネットコムでは、いちはやく生成AIを活用したシステムの構築に取り組みました。このプロジェクトに取り組んだ社内の担当メンバーに話を聞いてみました。
(2024年6月17日公開)

<お話を聞いたのは>

NRIネットコム 望月さん 堤さん

どのようなプロジェクトでしたか?

今回取り組んだのは、社内の様々な情報から、目的の情報を探し出せる仕組みです。

社内には、事務的な手続きなどの情報を掲載するポータルサイトのようなものがあるのですが、この検索精度がいまひとつで、思った通りの情報が検索結果に出てこないという課題がありました。

そこで、アマゾン ウェブ サービス(以下、AWS)の生成AIサービスを利用して、検索システムを作ろうということになりました。

もともと当社には多数のAWSの認定資格取得者がおり、AWSのサービスに詳しいメンバーが多く、新しいサービスを使ってみたくてうずうずしていた、というのもあります。(笑)

難しかったポイントは?

難しいというわけではないのですが、検索するユーザーによって検索結果を出し分けなければならないというのが重要なポイントでした。マネージャーしか見られない情報や、特定の部署のメンバーにしか表示してはいけない情報があったのです。

そこで採用したのは、「Amazon Kendra」と「Amazon Bedrock」。Kendra AccessControlListを使って検索対象を分離することにより、検索結果の出し分けを実現しました。

生成AIの活用にあたって、重要なことはありますか?

要件に応じて、どのようなモデルを採用するのが適切かを判断すること、そのためにそれぞれのモデルの違いを正しく把握しておくことが、まず重要だと思います。

今回は、RAGというLLM(大規模言語モデル)と検索システムを組み合わせたアプローチを採用しました。

 ChatGPTのようなLLMは、その能力に限界があり、社内固有の情報や最新情報といった学習データ以外の情報については「ハルシネーション」と呼ばれる現象を引き起こし、事実に基づかない回答を生成することがあります。

しかし、RAGを用いることでこれらの問題を解決することができます。

まず、RAGは外部データベースを参照することで、最新情報や特定の知識に基づいた正確な回答を提供することができます。このアプローチにより、従来のモデルが抱えるハルシネーションのリスクが大幅に軽減されます。例えばLLM単体では、学習データが更新されるまで新しい情報を取り入れることができませんが、RAGはリアルタイムで外部データベースにアクセスするため、常に最新の情報を元に回答を生成することが可能です。

また、社内の固有情報や専門知識に基づいた回答を生成することができます。これにより、特定の業界や分野における専門的な質問にも対応できるようになります。

それぞれの特徴や違いを理解するのは難しいですが、それだけに面白さもありますよ。

構築にはどのぐらいの期間がかかりましたか?

要件を検討したりする事前準備は必要でしたが、構築そのものにかかった時間は5時間程度です。「Amazon Bedrock」では、色々な生成AIモデルが選べるのですが、今回はClaudeを使いました。

AWSが提供しているハンズオンを参考に構築を進めたので、迷うこともほとんどなかったですね。

プロジェクトを終えていかがですか?

新しいサービスを使ってみることは、やはり楽しいですね。「Amazon Kendra」と「Amazon Bedrock」を使って、すばやく構築できましたし、「Amazon Kendra」の検索精度の高さには驚かされました。

生成AIを用いたプロジェクトの知見を得られたのも、収穫だったなと思っています。


NRIネットコムでは、生成AIを使ったシステム構築を始め、クラウドに関する多くのプロジェクトを手掛けています。

社内に専門スタッフがいない、知識や経験に不安があるといった場合でも、経験豊富なスペシャリストが丁寧にサポートいたします。

ぜひ、お気軽にご相談ください。