Как избавиться от пунктуации с помощью токенизатора NLTK?

Я только начинаю использовать NLTK, и я не совсем понимаю, как получить список слов из текста. Если я использую nltk.word_tokenize(), я получаю список слов и знаков препинания. Мне нужны только слова. Как я могу избавиться от пунктуации? Кроме того, word_tokenize не работает с несколькими предложениями: к последнему слову добавляются точки.

Ответ 1

Взгляните на другие параметры токенизации, которые nltk предоставляет здесь. Например, вы можете определить токенизатор, который выбирает последовательности буквенно-цифровых символов в качестве токенов и отбрасывает все остальное:

from nltk.tokenize import RegexpTokenizer

tokenizer = RegexpTokenizer(r'\w+')
tokenizer.tokenize('Eighty-seven miles to go, yet.  Onward!')

Вывод:

['Eighty', 'seven', 'miles', 'to', 'go', 'yet', 'Onward']

Ответ 2

Вам не нужно NLTK для удаления знаков препинания. Вы можете удалить его с помощью простого python. Для строк:

import string
s = '... some string with punctuation ...'
s = s.translate(None, string.punctuation)

Или для юникода:

import string
translate_table = dict((ord(char), None) for char in string.punctuation)   
s.translate(translate_table)

а затем используйте эту строку в своем токенизаторе.

Строковый модуль

P.S. содержит некоторые другие элементы, которые можно удалить (например, цифры).

Ответ 3

Ниже код удалит все знаки препинания, а также не буквенные символы. Скопированы из их книги.

http://www.nltk.org/book/ch01.html

import nltk

s = "I can't do this now, because I'm so tired.  Please give me some time. @ sd  4 232"

words = nltk.word_tokenize(s)

words=[word.lower() for word in words if word.isalpha()]

print(words)

Выход

['i', 'ca', 'do', 'this', 'now', 'because', 'i', 'so', 'tired', 'please', 'give', 'me', 'some', 'time', 'sd']

Ответ 4

Как отмечено в комментариях, начинаются с sent_tokenize(), потому что word_tokenize() работает только с одним предложением. Вы можете отфильтровать пунктуацию с помощью фильтра(). И если у вас есть строки в unicode, убедитесь, что это объект unicode (а не "str", закодированный с некоторой кодировкой типа "utf-8" ).

from nltk.tokenize import word_tokenize, sent_tokenize

text = '''It is a blue, small, and extraordinary ball. Like no other'''
tokens = [word for sent in sent_tokenize(text) for word in word_tokenize(sent)]
print filter(lambda word: word not in ',-', tokens)

Ответ 5

Я просто использовал следующий код, который удалил все знаки препинания:

tokens = nltk.wordpunct_tokenize(raw)

type(tokens)

text = nltk.Text(tokens)

type(text)  

words = [w.lower() for w in text if w.isalpha()]

Ответ 6

Я думаю, вам нужно какое-то соответствие регулярному выражению (следующий код находится в Python 3):

import string
import re
import nltk

s = "I can't do this now, because I'm so tired.  Please give me some time."
l = nltk.word_tokenize(s)
ll = [x for x in l if not re.fullmatch('[' + string.punctuation + ']+', x)]
print(l)
print(ll)

Вывод:

['I', 'ca', "n't", 'do', 'this', 'now', ',', 'because', 'I', "'m", 'so', 'tired', '.', 'Please', 'give', 'me', 'some', 'time', '.']
['I', 'ca', "n't", 'do', 'this', 'now', 'because', 'I', "'m", 'so', 'tired', 'Please', 'give', 'me', 'some', 'time']

Хорошо работает в большинстве случаев, поскольку он удаляет пунктуацию, сохраняя маркеры типа "нет", которые не могут быть получены из токенизаторов регулярных выражений, таких как wordpunct_tokenize.

Ответ 7

Я использую этот код для удаления знаков препинания:

import nltk
def getTerms(sentences):
    tokens = nltk.word_tokenize(sentences)
    words = [w.lower() for w in tokens if w.isalnum()]
    print tokens
    print words

getTerms("hh, hh3h. wo shi 2 4 A . fdffdf. A&&B ")

И если вы хотите проверить, является ли токен правильным английским словом или нет, вам может понадобиться PyEnchant

Руководство:

 import enchant
 d = enchant.Dict("en_US")
 d.check("Hello")
 d.check("Helo")
 d.suggest("Helo")

Ответ 8

Удалить пунктуацию (удалит. А также часть обработки пунктуации с использованием приведенного ниже кода)

        tbl = dict.fromkeys(i for i in range(sys.maxunicode) if unicodedata.category(chr(i)).startswith('P'))
        text_string = text_string.translate(tbl) #text_string don't have punctuation
        w = word_tokenize(text_string)  #now tokenize the string 

Пример ввода/вывода:

direct flat in oberoi esquire. 3 bhk 2195 saleable 1330 carpet. rate of 14500 final plus 1% floor rise. tax approx 9% only. flat cost with parking 3.89 cr plus taxes plus possession charger. middle floor. north door. arey and oberoi woods facing. 53% paymemt due. 1% transfer charge with buyer. total cost around 4.20 cr approx plus possession charges. rahul soni

['direct', 'flat', 'oberoi', 'esquire', '3', 'bhk', '2195', 'saleable', '1330', 'carpet', 'rate', '14500', 'final', 'plus', '1', 'floor', 'rise', 'tax', 'approx', '9', 'flat', 'cost', 'parking', '389', 'cr', 'plus', 'taxes', 'plus', 'possession', 'charger', 'middle', 'floor', 'north', 'door', 'arey', 'oberoi', 'woods', 'facing', '53', 'paymemt', 'due', '1', 'transfer', 'charge', 'buyer', 'total', 'cost', 'around', '420', 'cr', 'approx', 'plus', 'possession', 'charges', 'rahul', 'soni']

Ответ 9

Искренне спрашиваю, что это за слово? Если вы предполагаете, что слово состоит только из буквенных символов, вы ошибаетесь, поскольку такие слова, как can't будут разбиты на куски (например, can и t), если вы удалите знаки препинания перед токенизацией, что очень вероятно повлияет на вашу программу отрицательно.

Следовательно, решение состоит в том, чтобы токенизировать, а затем удалить знаки препинания.

import string

from nltk.tokenize import word_tokenize

tokens = word_tokenize("I'm a southern salesman.")
# ['I', "'m", 'a', 'southern', 'salesman', '.']

tokens = list(filter(lambda token: token not in string.punctuation, tokens))
# ['I', "'m", 'a', 'southern', 'salesman']

... и затем, если хотите, вы можете заменить некоторые токены, такие как 'm на am.

Ответ 10

Просто добавив к решению @rmalouf, это не будет включать никаких чисел, потому что \w+ эквивалентно [a-zA-Z0-9_]

from nltk.tokenize import RegexpTokenizer
tokenizer = RegexpTokenizer(r'[a-zA-Z]')
tokenizer.tokenize('Eighty-seven miles to go, yet.  Onward!')