Вопрос по NER обученной на своих данных

Здравствуйте!

Для начала хотелось бы поблагодарить всех разработчиков за отличную работу. Я натренировала уже несколько компонентов на своих данных, и все они показывают очень хороший результат.
Но у меня все же есть вопрос: после тренировки NER на своих данных, он не всегда может правильно распознать начало и продолжение фразы (B и I), при этом правильно распознав сами теги. Например, в предложении он может может присутствовать только продолжение какого-то тега (I) без его начала (B).
Не подскажете, почему возникла такая проблема и можно ли ее как-то исправить? Может ли это быть из-за тренировочных данных?

Заранее спасибо!

Если проблема с распознаванием начала и продолжений фразы, то проблема, вероятно, растет из недотренированности CRF слоя (если вы его исопльзуете).
Какая у вас конфигурация модели?

Я использую стандартную конфигурацию, ничего в ней не меняла.