BERT(Bidirectional Encoder Representations from Transformers)
公開日 2025/02/28

BERT(Bidirectional Encoder Representations from Transformers)とは、AIが言葉の意味をより深く理解するための技術です。
Googleが2018年に発表した技術で、特に検索エンジンや文章の理解に強い影響を与えました。
BERTの特徴
双方向(Bidirectional)に文脈を理解する
BERTは前後の単語を同時に見ながら意味を判断するため、より正確に文章を理解できる!
検索エンジンに活用されている
Google検索がBERTを使うことで、検索クエリの意味をより正確に理解できるようになった!
例えば、「海外に行かなくてもできる留学」のような複雑な検索も、BERTなら意図を正しく理解できる。
事前学習(Pre-training)とファインチューニング(Fine-tuning)
BERTは大量のテキストデータで事前に学習(Pre-training)し、特定のタスクに合わせて追加学習(Fine-tuning)することで、さまざまな自然言語処理の問題に対応できます。