Трябва да замените KEY от с VAL. Ключът е regex като import. * И val е низ като "важен". Знам, че този код не е добър, защото ключът е regex, но не можах да намеря решение, което да работи.
#import stem dict
d = {}
with open("Stem rečnik.txt") as f:
for line in f:
key, val = line.split(":")
d[key.replace("n","")] = val.replace("n","")
#define tokenizer
def custom_tokenizer(text):
#split- space
tokens = nltk.tokenize.word_tokenize(text)
#stemmer
for key,val in d.items():
tokens=[token.replace(key,val) for token in tokens]
#remove special characters
tokens=[re.sub(r"[^a-zA-Z0-9]","",token) for token in tokens]
return tokens
cv=CountVectorizer(tokenizer= custom_tokenizer,analyzer ="word",encoding="utf-8", min_df=0, max_df=1.0)
post_textCV= cv.fit_transform(post_text)
df=DataFrame(post_textCV.A, columns=cv.get_feature_names())
print(df.head)
Проблемът е този ред тук:
tokens=[token.replace(key,val) for token in tokens]
Отговори:
1 за отговор № 1token.replace(key,val)
позовава str.replace
който е основен низ замени.
За да се обадите на regex замяна, направете го вместо това:
tokens=[re.sub(key,val,token) for token in tokens]
казано, това изглежда доста неефективно, възстановявайки разбирането на списъка за всяка ключова / вал двойка.