Nvidia、GeForce RTX GPUを使ってローカルでAIチャットボットを実行できる「Chat wth RTX」を始動

[PR]記事内のアフィリエイトリンクから収入を得る場合があります
  • URLをコピーしました!

S 20240214 102838

ChatGPTやCopilotなど、AIチャットボットが急速に普及していますが、これらのAIチャットボットはクラウド上のサーバーで動作しているものがほんんどです。

クラウドではなくローカルでAIチャットボットを動作させたいという要望が高まっているなか、NvidiaがGeForce RTX GPUを利用し、ローカルでチャットボットを動かすことができる「Chat with RTX」と呼ばれるデモアプリを公開しています(The Verge)。

Nvidiaはこのデモアプリを次のように説明しています。

Chat With RTX is a demo app that lets you personalize a GPT large language model (LLM) connected to your own content—docs, notes, videos, or other data. Leveraging retrieval-augmented generation (RAG), TensorRT-LLM, and RTX acceleration, you can query a custom chatbot to quickly get contextually relevant answers. And because it all runs locally on your Windows RTX PC or workstation, you’ll get fast and secure results.

Chat With RTXは、独自のコンテンツ(ドキュメント、メモ、ビデオ、その他のデータ)に接続されたGPT大規模言語モデル(LLM)をパーソナライズできるデモアプリです。検索拡張世代(RAG)、TensorRT-LLM、RTXアクセラレーションを活用することで、カスタムチャットボットにクエリを発行し、コンテキストに関連した回答を素早く得ることができます。また、Windows RTX PCやワークステーション上でローカルに実行されるため、高速で安全な結果を得ることができます。

アプリを動作させるための要件は以下の通りです。

  • プラットフォーム: Windows 11
  • GPU: NVIDIA GeForce RTX 30/40 Series GPU、NVIDIA RTX Ampere、Ada Generation GPU(8GB以上のVRAMを搭載)
  • RAM: 16GB以上
  • OS: Windows 11
  • ドライバー: 535.11以降

Create A Personalized AI Chatbot with Chat With RTX 0 54 screenshot

Chat with RTXはテキスト、pdf、doc/docx、xmlなどさまざまなファイル形式をサポートしていて、ファイルを保存したフォルダを指定すると、そのローカルデータを使ってチャットボットに質問することができます。またYouTubeのプレイリストのURLを指定し、動画に関する内容を質問することもできます。

デモアプリはGitHubから入手できるTensorRT-LLM RAG開発者リファレンスプロジェクトから構築されれていて、開発者はこのリファレンスを使用して、独自のRAGベースのアプリケーションを開発することもできます。

ハードウェアの要件が高めですが、クラウドを必要としないAIチャットボットの実装例として注目を集めそうです。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!
目次