Warning: error_log(/data/www/wwwroot/hmttv.cn/caches/error_log.php): failed to open stream: Permission denied in /data/www/wwwroot/hmttv.cn/phpcms/libs/functions/global.func.php on line 537 Warning: error_log(/data/www/wwwroot/hmttv.cn/caches/error_log.php): failed to open stream: Permission denied in /data/www/wwwroot/hmttv.cn/phpcms/libs/functions/global.func.php on line 537
源:長城網
長城網·冀云客戶端訊(記者 張藝萌)2021年11月8日至11日,黨的十九屆六中全會勝利召開,這是在“兩個一百年”奮斗目標的歷史交匯點召開的一次重要會議,全面總結了黨的百年奮斗重大成就和歷史經驗。
為推動全會精神學習走深走實,河北省總工會聯合長城新媒體集團,推出河北省工會系統“學習黨的十九屆六中全會精神”網絡答題活動,以學促做,打造人人都可參與的“沉浸式”線上學習課堂。
本次網絡答題涵蓋全會公報、相關決議涉及的核心要點等內容。網友可下載“冀云客戶端”,在社會頻道參與網絡答題活動。活動結束后,全網排名前100名的網友,可獲精美紀念品。
學習黨的十九屆六中全會精神,你的成效如何?快來線上挑戰答題活動檢驗一下吧!
參與網絡答題步驟如下:
2.下載客戶端后,找到客戶端頂部導航欄“社會”頻道參與“學習黨的十九屆六中全會精神”。進入答題頁面后,按要求填寫姓名和聯系電話等信息,再行答題。
3.獲獎名單公示:答題時間自2021年12月20日9時開始,至2022年1月10日24時結束。活動結束后,獲獎名單將在冀云客戶端社會頻道公示。請參與人員務必完善個人信息,如聯系電話失效,視為自動放棄。
參與網絡答題規則如下:
1、本次答題為單項、多項選擇題,從100道題庫中隨機抽取10道題進行作答,每題10分,滿分100分。
2、每次答題限時60秒,超時按答題錯誤計算,顯示正確答案后進入下一題。
3、提交答案后,顯示正確答案,選擇錯誤選項顯示為紅色,正確選項顯示為綠色,答題人員可以翻看本次答題記錄。
4、練習答題階段,每位注冊用戶可多次進行答題練習,題目從題庫中隨機選取。
5、正式答題階段,每位注冊用戶只有一次答題機會,根據正確率、用時兩個維度進行排名。
6、參與答題用戶出現分數、答題用時一樣的情況,按照答題先后順序進行排名。
河北省工會系統“學習黨的十九屆六中全會精神”答題活動鏈接:https://jiyun.hebyun.com.cn/pages/2021/12/17/584a9734b9e649a4a447aabd54007dde.html
本文來自【長城網】,僅代表作者觀點。全國黨媒信息公共平臺提供信息發布傳播服務。
ID:jrtt
天自己使用html+servlet做的一個j在線答題小demo
前端只有jquery ,請求用的ajax,其他都是html+css 后臺沒用任何框架,使用的servlet
實現的功能:
倒計時十秒切換下一題,
多選題,在十秒內選出正確答案,后臺存入數據庫,并計算,
首先html頁面
css樣式
jquery
后臺方面
展示效果
者 | 李秋鍵
責編 | 劉靜
出品 | CSDN(ID:CSDNnews)
今天我們將利用分詞處理以及搜索引擎搭建一個智能問答系統,具體的效果如下所示:
下面簡單了解下智能問答系統和自然語言處理的概念,智能問答系統是自然語言處理的一個重要分支。現在普遍認為智能問答能夠獨立解決很多問題,但是必須要承認現在技術所處的初級階段的性質。也就是說,智能問答系統在現階段最大的價值在于為客服人員附能,而并非獨立于人自行解決眾多目前還有巨大錯誤率和不確定性的問題。一旦具有這樣的思想基礎——通過智能問答系統為客服人員附能,那么將智能問答系統做成一個工具和產品的基礎就有了,只有通過產品化、工具化的方式,才能夠實現這個預期。
自然語言處理是計算機科學領域與人工智能領域中的一個重要方向。它研究能實現人與計算機之間用自然語言進行有效通信的各種理論和方法。自然語言處理是一門融語言學、計算機科學、數學于一體的科學。因此,這一領域的研究將涉及自然語言,即人們日常使用的語言,所以它與語言學的研究有著密切的聯系,但又有重要的區別。自然語言處理并不是一般地研究自然語言,而在于研制能有效地實現自然語言通信的計算機系統,特別是其中的軟件系統。因而它是計算機科學的一部分。
下面開始搭建我們的智能問答系統,首先我們需要 導入的庫:
import requests
from lxml import etree
import jieba
import re
import sys,time
import os
其中requests庫用來向搜索引擎搜索答案,lxml用來獲取答案,jieba庫用來提取問題以及做出問題分析,re是處理語言的正則匹配庫,sys以及time庫用來調試輸出效果,os模塊用來寫入文件以搭建模式選擇。
我們知道一個真正的語言回答應該是逐字回答的才符合人的回答習慣,下面為了達到語言對話的效果,我們定義一個函數:
def print_one_by_one(text):
sys.stdout.write("\r " + " " * 60 + "\r") # /r 光標回到行首
sys.stdout.flush #把緩沖區全部輸出
for c in text:
sys.stdout.write(c)
sys.stdout.flush
time.sleep(0.1)
就是用來逐字輸出的效果。
下面是真正搭建的部分,為了對語言進行處理,首先我們要加載停用詞,去除掉語言中無意義的詞,比如“了”,“啊”等等:
stop = [line.strip() for line in open('stopwords.txt',encoding='utf-8').readlines() ]
開始執行的判斷輸出一下,以及使用者的輸入:
print("小智:您好,請問您需要問什么呢(對話(快,慢),可控制輸出速度)")
input_word=input("我:")
為了控制文字輸出的速度,我們借助文件讀取控制模式:
#默認為慢速
#print(input_word)
if input_word == "快":
f = open("1.txt", "w")
f.write("0")
f.close
elif input_word =='慢':
f = open("1.txt", "w")
f.write("1")
f.close
下面用Jieba分詞,去除掉無用的停用詞:
sd=jieba.cut(input_word,cut_all=False)
final=''
for seg in sd:
#去停用詞
#print(seg)
if seg not in stop :
final +=seg
process=final
此時process是僅僅最簡單語言的處理結果,為了適應更多語言習慣,使用正則表達式匹配另一種語言習慣,一個“問”時的處理:
#匹配問后面全部內容
pat=re.compile(r'(.*?)問(.*)')
#一個“問”時的處理
try:
rel=pat.findall(final)
process=rel[0][1]
except:
pass
另外再添加語言習慣,兩個“問”的處理:
#兩個問時的處理
try:
rel=pat.findall(final)
rel0=rel[0][1]
#print(rel0)
rel1=pat.findall(rel0)
process=rel1[0][1]
except:
pass
這樣輸出的效果就可以適應多種語言習慣,為了區分問答句和模式選擇句加入判斷語句:
print("問題:"+process)
if process=='':
print("小智:OK")
在else中使用搜索引擎獲取答案,首先使用請求頭,百度百科網址:
header={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36'}
url=requests.get("https://baike.baidu.com/search/word?word="+process,headers=header)
為了防止中文亂碼問題,使用編碼如下:
#為了防止中文亂碼,編碼使用原網頁編碼
url.raise_for_status
url.encoding = url.apparent_encoding
下面使用匹配獲取內容:
bject=etree.HTML(url.text)
print(object)
#正則匹配搜索出來答案的所有網址
#獲取詞條
#head =object.xpath('/html/head//meta[@name="description"]/@content')
#詳細內容
para=object.xpath('/html/body//div[@class="para"]/text')
然后為了判斷提問者提出的問題是否可行,以及模式匹配的選擇,加入判斷:
result='小智:'
for i in para:
result+=i
if result=='小智:':
print("小智:對不起,我不知道")
else:
f = open("1.txt", "r")
s=f.read
if s=="1":
print_one_by_one(result)
else:
print(result)
然后循環執行問答系統即可:
while(True):
if os.path.exists('1.txt'):
chuli
else:
f = open("1.txt", "w")
f.write("1")
f.close
chuli
如下圖所示,提問的語句可以任意,不需要固定格式,這樣才具有智能性不是嗎?
那么讓我們再接著了解自然語言處理的發展歷程吧,最先的語義解讀各個方面的研究是自然語言。1949年,非裔威弗首先明確提出了自然語言方案。20世紀60八十年代,外國對自然語言曾有大規模的研究,花費了巨額開銷,但人們以前似乎是高估了語義的復雜度,語法處置的學說和新技術皆不成冷,所以成果并不大。主要的作法是儲存兩種語法的單字、單詞相同譯名的辭典,翻譯成時雙射,新技術上只是變更語法的同條次序。但現實生活中的語法的翻譯成近不是如此非常簡單,很多時候還要參照某句話前后的意即。
約90八十年代開始,語義處置各個領域再次發生了極大的變動。這種變動的兩個顯著的特點是:
(1)系統對輸出,拒絕研發的語義處置該系統能處置大規模的現實文檔,而不是如現在的學術性該系統那樣,不能處置極少的詞典和類似于字詞。只有這樣,研發的該系統才有確實的實用性。
(2)系統對的輸入,鑒于現實地解讀語義是難于的,系統對非常拒絕能對語義文檔展開深層的解讀,但要能借此提取簡單的數據。例如,對語義文檔展開系統會地萃取目錄詞語,過濾器,索引,系統會萃取最重要數據,展開系統會概要等等。
同時,由于特別強調了"大規模",特別強調了"現實語料",上面兩各個方面的開拓性管理工作也獲得了推崇和強化。
(1)大規模現實語料的研發。大規模的經過有所不同深度加工的現實文檔的語料,是研究工作語義統計資料物理性質的根基。沒它們,統計資料方式不能是無源之水。
(2)大規模、數據非常豐富的字典的編制工作。數量為幾萬,十幾萬,甚至幾十萬詞語,所含非常豐富的數據(如包括詞語的配上數據)的計算機系統能用字典對語義處置的必要性是很顯著的
作者簡介:李秋鍵,CSDN 博客專家,CSDN達人課作者。
聲明:本文為作者原創投稿,未經允許請勿轉載。
【END】
*請認真填寫需求信息,我們會在24小時內與您取得聯系。