このページの本文へ

Laboro.AI、日本語版「BERT」モデルを無償公開

2020年04月17日 15時00分更新

文● ASCII

  • この記事をはてなブックマークに追加
  • 本文印刷

 Laboro.AI(ラボロエーアイ)は4月17日、研究開発の一環として、近年AIの自然言語処理領域で注目を集めるアルゴリズム「BERT(Bidirectional Encoder Representations from Transformers)」を独自に収集した、ウェブテキスト情報をもとに事前学習させたオリジナル日本語版モデルを開発し、オープンソースとして公開したと発表。

 約4300のウェブサイト、計260万以上のウェブページに掲載されていたテキスト情報を独自に収集したコーパス(言語データベース)を用いて事前学習させたもの。同社で実施した文章分類などの検証結果では、一般的なデータに基づくモデルの精度と並んで高い性能を持つことが確認できたという。

 同社では今後も、AIに関わる各種技術領域での研究開発に取り組むのはもちろん、機械学習技術を用いたオーダーメイドAIソリューション「カスタムAI」をより多くの産業の企業に導入してもらうことを目指すとしている。

カテゴリートップへ

注目の特集
ライトニングトーク
最新記事
  • アスキー・メディアワークス
  • 電撃オンライン - 電撃の総合ゲーム情報&雑誌情報サイト!
  • 電撃ホビーWEB - 電撃のホビー雑誌・書籍&ホビーニュースサイト
  • 電撃文庫 - 電撃文庫&電撃文庫MAGAZINEの公式サイト
  • 電撃屋.com - 電撃のアイテムを集めた公式ショッピングサイト!
STARTUP×知財戦略バナー
IoTイベント(300x100)
ASCII STARTUPウィークリー・レビュー登録フォーム
アスキーストア(300x100)

スタートアップお勧め動画

ピックアップ