Технологию предварительного обучения обработке текста на естественном языке (NLP) на основе нейронных сетей Google представила в прошлом году. Систему назвали Bidirectional Encoder Representations from Transformers, сокращённо BERT. В компании обещают, что с помощью BERT практически каждый может обучить собственную вопросно-ответную систему.
С декабря алгоритмы BERT стали доступны для запросов на русском языке. В качестве примера приводится поисковый запрос «Памятник строителям коммунизма у Цимлянского водохранилища». Раньше технологии поиска ориентировались на ключевые слова и выдавали, например, страницу Цимлянской ГЭС в Википедии. BERT помогает выстроить поисковую выдачу таким образом, чтобы пользователь получил информацию именно о монументе и точный ответ на свой вопрос.
По словам вице-президента Google Поиска Панду Найака, этот прорыв произошёл благодаря изучению трансформеров — моделей, которые обрабатывают слова не как последовательность разрозненных языковых единиц, а учитывают взаимодействие слов друг с другом. Поэтому алгоритмы BERT могут обрабатывать не только отдельные слова, но и понимать контекст, в котором они употребляются. Это особенно важно для понимания истинного смысла поисковых запросов, говорится в официальном блоге компании.
Ранее пользователям рассказали о скрытых возможностях Google Chrome. Оказалось, что в браузере есть «тайные» возможности, о которых многие даже не догадываются. Между тем для повседневной работы за компьютером эти экспериментальные функции могут быть очень полезны.