Per alcune prove con gli Aruco tags sto usando una camera che ha come formato di output JPG ma sarebbe piu' idoneo il formato PNG
Ho provato la rete neurale a questo link che permette di ricostruire dettagli che si sono persi al momento della compressione JPG.
Ho usato un set di immagini processandole come segue
alias enhance='function ne() { docker run --rm -v "$(pwd)/`dirname ${@:$#}`":/ne/input -it alexjc/neural-enhance ${@:1:$#-1} "input/`basename ${@:$#}`"; }; ne'
for x in ./originali/*.jpg; do
#echo $x
enhance --zoom=1 --model=repair $x
done
e mettendo a confronto le coordinate degli stessi aruco tags nel set jpg ed in quello elaborato dalla rete neurale e salvato in png
Per dare un'idea la prima immagine e' un originale in JPG
la seconda e' la stessa immagine processata dalla rete neurale e salvata in PNG
Nei grafici sottostanti i risultati (nei grafici rosso=set PNG, blu=set JPG)
In sintesi le coordinate dei tag sono molto simili ma
1) il dato PNG non ha mostrato outliers ed errori come invece quello JPG
2) nel set PNG il riconoscimento di tag lontani era circa il doppio rispetto al set JPG
3) a parte i punti 1 e 2 il processing tramite rete neurale ma non ha migliorato in modo sensibile la qualita' dell'algoritmo di posizionamento dei tags
Nessun commento:
Posta un commento