Я использую nltk PunkSentenceTokenizer
для tokenize текста для набора предложений. Тем не менее, токенизатор, похоже, не рассматривает новый абзац или новые строки как новое предложение.
>>> from nltk.tokenize.punkt import PunktSentenceTokenizer
>>> tokenizer = PunktSentenceTokenizer()
>>> tokenizer.tokenize('Sentence 1 \n Sentence 2. Sentence 3.')
['Sentence 1 \n Sentence 2.', 'Sentence 3.']
>>> tokenizer.span_tokenize('Sentence 1 \n Sentence 2. Sentence 3.')
[(0, 24), (25, 36)]
Я хотел бы, чтобы он рассматривал новые строки как границу предложений. В любом случае, чтобы это сделать (мне тоже нужно сохранить смещения)?