自然言語処理AIが、大量の自然文テキストを自動分類。
業務効率向上に貢献。
自然言語処理AIで
高精度なテキスト分類
分類対象に合わせて
選べるAIエンジン
AIの専門知識が不要で
お客様自身で運用可能
お客様の声
市場から販売代理店経由でフィードバックされる
品質情報の重要度をAIで判定。
スズキ株式会社 様
もっと詳しく
活文 知的情報マイニング
で解決!
問い合わせや報告書など、日々発生する大量の自然文テキストを
自然言語処理AIが意味を解析、理解し、自動分類します。
※テキスト分類は、500文字以下の短いテキスト向けに調整されています。
※教師データはお客様にてご準備いただく必要があります。
活文 知的情報マイニングへの入力データはCSV形式である必要があります。
活文 知的情報マイニングはほかにもさまざまな業務に適用できます。どうぞお気軽に お問い合わせください。
大量の自然言語データを事前学習したモデルに少量の教師データを追加学習させるGoogle社の「BERT」で、「活文 知的情報マイニング」のAIエンジンを強化することで、 高精度のテキスト分類を実現します。同じ意味なのに異なる表現が用いられていたり、異なる意味なのに同じ単語が使われていたりしても、正しい分析結果を得られます。
当社の実証実験では、テキスト分類の精度が80%程度だったケースで90%以上に向上しました(分類精度の向上度合いは、教師データの内容や量、分類数によって変わります)。 AIが、熟練者レベルにテキスト分類を高精度・短時間に行えることで、作業負担の軽減、作業効率向上に貢献します。
* BERTとは、Bidirectional Encoder Representations from Transformers の略で、自然言語処理分野で事前学習モデルを作成するための一手法。
お客様のテキスト分類精度を向上させるために、最適なAIエンジンを選択*1し、ご提案します。
Google BERT 以外に、最先端の事前学習モデル*2 や省メモリーなモデルのほか、お客様の業界・業務に特化したデータをご準備いただくことで、業界・業務特化の事前学習モデルも提供可能です。
*1 活文 知的情報マイニングは、自然言語処理に特化したディープラーニングのライブラリである HuggingFace社のTransformers を採用し、AIエンジンの選択を可能にしています。Transformers は優れた自然言語処理のライブラリとして利用されているOSSです。
*2 Google BERT の以降に提案された RoBERTaやELECTRA など最先端の事前学習モデル。
活文 知的情報マイニングを導入後、お客様ご自身で運用できるよう、教師データの追加・削除や学習モデルの作成・削除などを行える運用コマンドをご提供しています。また、RESTful APIを用意しています。これにより、お客様の業務システムと活文 知的情報マイニングのテキスト分類機能を連携させることができます。
「活文 企業内検索基盤」と連携することで、整理されていないファイルサーバーのコンテンツの内容をAIが分析し、適切なタグを自動で付与。全文検索時の絞り込み条件に利用できます。人手によるタグや属性の入力は不要です。
© Hitachi Solutions, Ltd. 2010-2022. All rights reserved.