Laboro.AI、日本語版「BERT」モデルを無償公開
Laboro.AI(ラボロエーアイ)は4月17日、研究開発の一環として、近年AIの自然言語処理領域で注目を集めるアルゴリズム「BERT(Bidirectional Encoder Representations from Transformers)」を独自に収集した、ウェブテキスト情報をもとに事前学習させたオリジナル日本語版モデルを開発し、オープンソースとして公開したと発表。
約4300のウェブサイト、計260万以上のウェブページに掲載されていたテキスト情報を独自に収集したコーパス(言語データベース)を用いて事前学習させたもの。同社で実施した文章分類などの検証結果では、一般的なデータに基づくモデルの精度と並んで高い性能を持つことが確認できたという。
同社では今後も、AIに関わる各種技術領域での研究開発に取り組むのはもちろん、機械学習技術を用いたオーダーメイドAIソリューション「カスタムAI」をより多くの産業の企業に導入してもらうことを目指すとしている。