下面的Python程序實現了通過從網頁抓取一篇文章,然后根據這篇文章來生成新的文章,這其中的原理就是基于概率統計的文本分析。
過程大概就是網頁抓取數據->統計分析->生成新文章。網頁抓取數據是通過BeautifulSoup庫來抓取網頁上的文本內容。統計分析這個首先需要使用ngram模型來把文章進行分詞并統計頻率。因為文章生成主要依據馬爾可夫模型,所以使用了2-gram,這樣可以統計出一個單詞出現在另一個單詞后的概率。生成新文章是基于分析大量隨機事件的馬爾可夫模型。隨機事件的特點是在一個離散事件發生之后,另一個離散事件將在前一個事件的條件下以一定的概率發生。
fromurllib.requestimporturlopen
fromrandomimportrandint
frombs4importBeautifulSoup
importre
defwordListSum(wordList):
sum=0
forword,valueinwordList.items():
sum=sum+value
returnsum
defretrieveRandomWord(wordList):
randomIndex=randint(1,wordListSum(wordList))
forword,valueinwordList.items():
randomIndex-=value
ifrandomIndex<=0:
returnword
defbuildWordDict(text):
text=re.sub('(\n|\r|\t)+',"",text)
text=re.sub('\"',"",text)
punctuation=[',','.',';',':']
forsymbolinpunctuation:
text=text.replace(symbol,""+symbol+"")
words=text.split('')
words=[wordforwordinwordsifword!=""]
wordDict={}
foriinrange(1,len(words)):
ifwords[i-1]notinwordDict:
wordDict[words[i-1]]={}
ifwords[i]notinwordDict[words[i-1]]:
wordDict[words[i-1]][words[i]]=0
wordDict[words[i-1]][words[i]]=wordDict[words[i-1]][words[i]]+1
returnwordDict
defrandomFirstWord(wordDict):
randomIndex=randint(0,len(wordDict))
returnlist(wordDict.keys())[randomIndex]
html=urlopen("http://www.guancha.cn/america/2017_01_21_390488_s.shtml")
bsObj=BeautifulSoup(html,"lxml")
ps=bsObj.find("div",{"id":"cmtdiv3523349"}).find_next_siblings("p");
content=""
forpinps:
content=content+p.get_text()
text=bytes(content,"UTF-8")
text=text.decode("ascii","ignore")
wordDict=buildWordDict(text)
length=100
chain=""
currentWord=randomFirstWord(wordDict)
foriinrange(0,length):
chain+=currentWord+""
currentWord=retrieveRandomWord(wordDict[currentWord])
print(chain)
buildWordDict(text)函數接收文本內容,生成的內容如下
{‘itself’:{‘,’:1},‘night’:{‘sky’:1},‘You’:{‘came’:1,‘will’:1},‘railways’:{‘all’:1},‘government’:{‘while’:1,‘,’:1,‘is’:1},‘you’:{‘now’:1,‘open’:1,‘down’:1,‘with’:1,‘.’:6,‘,’:1,‘that’:1},
主要就是生成一個字典,鍵是文章中所有出現的詞語,值其實也是一個字典,這個字典是所有直接出現在鍵后邊的詞語及其出現的頻率。這個函數就是ngram模型思想的運用。
retrieveRandomWord(wordList)函數的wordList代表的是出現在上一個詞語后的詞語列表及其頻率組成的字典,然后根據統計的概率隨機生成一個詞。這個函數是馬爾可夫模型的思想運用。
然后運行這個程序會生成一個長度為100的文章,如下面所示
fail.Wewillstirourselves,butwewillneverbefore.Donotshareoneheartandpleasantitbackourjobs.Weareinfusedwiththeorderlyandrailwaysallofthegangsandrobbedourjobsfortheirsuccesswilldeterminethecivilizedworld.Wewilltheirsuccesswillbeagreatmenandhighwaysandmillionstoallbleedtheworld.Itbelongstogreatnationalefforttodefendourproducts,constantlycomplaining,D.Wewillbeignoredagain.ItbelongstoharnesstheexpenseofAmerica.
生成的文章看起來語法混亂,這也難怪,因為只是抓取分析統計了一篇的文章。我想如果可以抓取足夠多的英文文章,數據集足夠大那么語法準確度會大大提高。
以上內容為大家介紹了Python實現文章自動生成,希望對大家有所幫助,如果想要了解更多Python相關知識,請關注IT培訓機構:千鋒教育。http://www.dietsnews.net/