概要
ChatGPTを始めとする生成AI(LLM)が台頭した2023年。LLM活用への期待が高まる一方、社内データを参照させて精度高く回答させるには大きな壁が立ちはだかっています。回答精度向上の壁は大きく2つあり、基盤システムのチューニングが難しいこと、社内データをLLMが解釈できるデータ構造に変換するのが難しいという課題が挙げられます。
本ウェビナーでは、社内データとLLMの連携を進めるために必要となるポイントをお届けします。社内データ連携を可能にするAIアーキテクチャのRAG*や、回答精度向上のために必要な基盤のチューニング、LLMが社内データを解釈するために必要な「データ構造化」についてお話しします。本ウェビナーの内容を実践し、LLMの回答精度が75%向上した事例も存在いたしますので、RAGの構築を検討・苦戦されている企業の担当者様はぜひご視聴ください。
※なお、本ウェビナーでは生成AI用データ構造化代行サービス「TASUKI Annotation」の説明が含まれます。 ※RAG:Retrieval-Augmented Generationの略称。質問に関連するドキュメントをデータベースから検索して、LLMがドキュメントを参照して回答するAIアプリケーション。
※本ウェビナーは、2024年1月31日に開催されたウェビナーの再放送となります。
開催日時
-
日程:2024年5月14日(火)
-
時間:14:00-14:30
想定する対象者
-
生成AIを導入しており、社内データ連携を検討している方
スピーカー
-
石井田 聡哉
ソフトバンク株式会社
IT統括 AI戦略室
AIプロジェクト推進部 TASUKI事業課
課長大学卒業後、SIerおよびアプリケーションエンジニアを経てソフトバンク株式会社へ入社。 入社後、社内ベンチャー制度を活用しアノテーション事業を立ち上げ、現在は事業責任者として AI開発企業/生成AI導入企業向けにデータ作成サービスを推進中。