Google 自然言語処理の精度を向上させる学習モデルBERTを公開

Photo by iStock
最新ニュース

Googleは、対話システムや自動翻訳などに活用される自然言語処理(NLP)の新たな学習モデル「BERT」を発表した。BERTはNLPをより高い精度で行うために、あらかじめ事前学習を行うモデルだ。BERTによって、対話システムや自動翻訳などの精度がさらに高まることが期待されている。

Googleは、対話システムなどの構築の際に使用するNLPに関して有用な新しいモデル「Bidirectional Encoder Representation(BERT)」を開発した。Googleが発表した論文によると、BERTの最大の特徴は、事前に学習したモデルをチューニングして用いる点であり、これにより、高い精度の処理を短時間で実現できるという。

米・ITメディアVentureBeatは、BERTについて、NLPにおける従来の難しい状況を打開するものとして紹介している。これまでNLPの学習には、多くの訓練用データを用いる必要があり、時間がかかることが課題とされていた。また、訓練用のデータを満足に手に入れることは難しく、精度も上げにくかった。そこでGoogleは、汎用性の高いモデルであるBERTを開発し、事前学習させるという策を講じた、これにより、NLPのさまざまなベンチマークで高いスコアをマークすることとなった。BERTの開発は、今後NLPが関わるさまざまな分野で応用されると期待されている。

2018年11月16日 21:45  内容が分かりづらい表現があったため、原稿を修正しました。