使用Tensorflow+OpenCV構建會玩石頭剪刀布的AI
我已經使用DenseNet121模型進行特征提取,其輸出最終將輸入到我自己的Dense神經網絡中。
densenet = DenseNet121(include_top=False, weights='imagenet', classes=3,input_shape=(300,300,3))
densenet.trainable=True
def genericModel(base):
model = Sequential()
model.add(base)
model.add(MaxPool2D())
model.add(Flatten())
model.add(Dense(3,activation='softmax'))
model.compile(optimizer=Adam(),loss='categorical_crossentropy',metrics=['acc'])
return model
dnet = genericModel(densenet)
history = dnet.fit(
x=imgData,
y=labels,
batch_size = 16,
epochs=8,
callbacks=[checkpoint,es],
validation_split=0.2
)
關鍵點 :由于我們的圖片尺寸為300x300,因此指定的輸入形狀也為3x300x300,3代表RGB的維度信息,因此該層具有足夠的神經元來處理整個圖像。我們將DenseNet層用作第一層,然后使用我們自己的Dense神經網絡。我已將可訓練參數設置為True,這也會重新訓練DenseNet的權重。盡管花了很多時間,但是這給了我更好的結果。我建議你在自己的實現中嘗試通過更改此類參數(也稱為超參數)來嘗試不同的迭代。由于我們有3類Rock-Paper-Scissor,最后一層是具有3個神經元和softmax激活的全連接層。最后一層返回圖像屬于3類中特定類的概率。如果你引用的是GitHub repo(https://github.com/HOD101s/RockPaperScissor-AI-) 的train.py,則要注意數據準備和模型訓練!至此,我們已經收集了數據,建立并訓練了模型,剩下的部分是使用OpenCV進行部署OpenCV實現:此實現的流程很簡單:啟動網絡攝像頭并讀取每個幀將此框架傳遞給模型進行分類,即預測類用電腦隨意移動計算分數def prepImg(pth):
return cv2.resize(pth,(300,300)).reshape(1,300,300,3)
with open('model.json', 'r') as f:
loaded_model_json = f.read()
loaded_model = model_from_json(loaded_model_json)
loaded_model.load_weights("modelweights.h5")
print("Loaded model from disk")
for rounds in range(NUM_ROUNDS):
pred = ""
for i in range(90):
ret,frame = cap.read()
# Countdown
if i//20 < 3 :
frame = cv2.putText(frame,str(i//20+1),(320,100),cv2.FONT_HERSHEY_SIMPLEX,3,(250,250,0),2,cv2.LINE_AA)
# Prediction
elif i/20 < 3.5:
pred = arr_to_shape[np.argmax(loaded_model.predict(prepImg(frame[50:350,100:400])))]
# Get Bots Move
elif i/20 == 3.5:
bplay = random.choice(options)
print(pred,bplay)
# Update Score
elif i//20 == 4:
playerScore,botScore = updateScore(pred,bplay,playerScore,botScore)
break
cv2.rectangle(frame, (100, 150), (300, 350), (255, 255, 255), 2)
frame = cv2.putText(frame,"Player : {} Bot : {}".format(playerScore,botScore),(120,400),cv2.FONT_HERSHEY_SIMPLEX,1,(250,250,0),2,cv2.LINE_AA)
frame = cv2.putText(frame,pred,(150,140),cv2.FONT_HERSHEY_SIMPLEX,1,(250,250,0),2,cv2.LINE_AA)
frame = cv2.putText(frame,"Bot Played : {}".format(bplay),(300,140),cv2.FONT_HERSHEY_SIMPLEX,1,(250,250,0),2,cv2.LINE_AA)
cv2.imshow('Rock Paper Scissor',frame)
if cv2.waitKey(1) & 0xff == ord('q'):
break
上面的代碼片段包含相當重要的代碼塊,其余部分只是使游戲易于使用,RPS規則和得分。所以我們開始加載我們訓練過的模型,它在開始程序的預測部分之前顯示倒計時,預測后,分數會根據球員的動作進行更新。

我們使用cv2.rectangle()顯式地繪制目標區域,使用prepImg()函數預處理后,只有幀的這一部分傳遞給模型進行預測。
結論:我們已經成功地實現并學習了這個項目的工作原理,所以請繼續使用我的實現進行其它實驗學習。我做的一個主要的改進可能是增加了手部檢測,所以我們不需要顯式地繪制目標區域,模型將首先檢測手部位置,然后進行預測。我鼓勵你改進這個項目,并給我你的建議。精益求精!
請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
-
11月7日立即參評>> 【評選】維科杯·OFweek 2025(第十屆)物聯網行業年度評選
-
11月20日立即報名>> 【免費下載】RISC-V芯片發展現狀與測試挑戰-白皮書
-
即日-11.25立即下載>>> 費斯托白皮書《柔性:汽車生產未來的關鍵》
-
11月27日立即報名>> 【工程師系列】汽車電子技術在線大會
-
11月28日立即下載>> 【白皮書】精準洞察 無線掌控——283FC智能自檢萬用表
-
12月18日立即報名>> 【線下會議】OFweek 2025(第十屆)物聯網產業大會


分享













