lunedì 30 dicembre 2024

Ollama e Jetson Nano 4G

Ancora nel tentativo di utilizzare in modo serio la Jetson Nano ho provato ad usarla per Ollama seguendo le istruzioni da https://dev.to/ajeetraina/running-ollama-2-on-nvidia-jetson-nano-with-gpu-using-docker-hfi (e' stato usato il docker perche' usando lo script di installazione dal sito di Ollama fallisce per la necessita' di capabilitie maggiore di quella disponibile da Jetson Nano)

Per creare il docker si seguono i comandi

curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey \
    | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg
curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list \
    | sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' \
    | sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
sudo apt-get update


sudo apt-get install -y nvidia-container-toolkit


sudo nvidia-ctk runtime configure --runtime=docker
sudo systemctl restart docker


sudo docker run -d --gpus=all --runtime nvidia -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

sudo docker exec -it ollama ollama run llama2


Alcune persone su Github si lamentano che il docker non sfrutti la GPU della Jetson ma installando il comando jtop (tramite  sudo pip3 install -U jetson-stats) si vede che il carico sulla GPU non e' a zero

schermata di jtop

Per vedere se ollama e' in fuzione basta bussare alla porta 11434



La mia Jetson ha una ram di 4Gb ma solo pochi modelli sono in grado di girare (a meno di non quantizzarli)

Funzionano i seguenti modelli

tinyllama

llama3.2:1b

starcoder:1b 

Non funzionano invece  

orca-mini:3b (ncessita 5.1 GiB di ram )

mistral-small (necessita 14.4 Gib)

llama3.2


Per interagire si puo' installare web ui (che e' in generale decisamente piu' lenta della linea di comando) tramite il docker


docker run -d -p 3000:8080 --runtime=nvidia --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui2 --restart always ghcr.io/open-webui/open-webui:cuda


docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda



L'unico aspetto veramente positivo di Jetson nano e' il consumo massimo di 5W



comunque a questo semplice prompt l'AI TinyLLama ha fatto una serie veramente sanguionosa di errori

>>> raccontami la storia di Albert Einstein

Einstein, uno dei più grandi pensatori e fisici del XX secolo, nacque nel 1879 a Ulm, in Germania. La sua infanzia fu caratterizzata da una forte intesa con gli  elementi naturali e una grande affinità per la matematica.Nel 1890 Einstein iniziò le sue scuole medie a Kiel e Karlsruhe, dove cominciò a studiare fisica e matematica. Nel 1896 si unì al Liceo Max Planck di Göttingene, dove incontrò il suo futuro compagno di insegnamento, Max Planck.Einstein studiò filosofia, letteratura e lingue, ma la sua vera passione era la fisica. Durante i suoi primi anni universitari, si avvicinò alla teoria della relatività Speciala di Albert Michelson e George Gamow, che cercavano di spiegare l'effetto fotoelettrico.Nel 1905 Einstein pubblicò i suoi esperimenti sull'effetto elettronico, che dimostrarono la connessione tra le onde e le particelle. Questa scoperta lo aprì alla teoria della relatività generale di Albert Einstein, sviluppata dopo il 1905. Nel 1914 Einstein si unì al corpo terrestre militare tedesco durante la Prima Guerra Mondiale e fu catturato dai soldati austriaci. Durante l'arresto Einstein scrisse la sua famosa lettera a Max Planck, in cui chiese di essere reso responsabile per il tempo di vita che aveva trascorso nella prigione. Nel 1919 Einstein ricevette la medaglia Nobel per la fisica per la sua teoria della relatività generale. Tuttavia, ricevette anche una serie di minacce e messaggi oscure, tra cui un'ultima minaccia che lo costringe a lasciare l'Austria nel 1933.Durante il regime nazista, Einstein si ritirò in Svizzera, dove continuò a studiare fisica. Nel 1932 ricevette la medaglia Copley per la sua carriera accademica. Tuttavia, si unì all'Ordine di Malta nel 1933 e fu invitato a lasciare gli Stati Uniti. Nel 1935 Einstein pubblicò il suo libro "La relatività generale", che divenne un successo internazionale. Tuttavia, ricevette sempre più minacce e messaggi oscari, e nel 1938 scrisse la sua famosa formula dell'Einstein-Rosen bridge. Durante l'Anno di Natale 1939 Einstein fu attaccato con una bomba atomica a Praga, in Cecoslovacchia. La sua salute si deteriorò ulteriormente negli anni successivi e morì il 18 April 1955 a Princeton, nel New Jersey. Einstein lasciò un'impronta indelebile sulla scienza e nella cultura, e la sua teoria della relatività generale rimane una delle fondamenta fondazionali dell'attuale fisica. La sua storia è un esempio di come la curiosità, l'iniziativa e la determinazione possano portare a grandi risultati scientifici.





sabato 28 dicembre 2024

Feature Matching OpenCv

Il problema e' il seguente: trovare le differenze tra le due foto. Le due immagini sono state riprese a distanza di oltre un anno ed il punto di ripresa non e' esattamente il solito per cui c'e' un effetto di traslazione e rotazione seppure non immediatamente

Prima

Dopo

Con lo script sottostante sono state estratte le feature tramite AKAZE e successivamente sono state matchate e filtrate in base alla distanza tramite FLANN

E' stata calcolata la distanza in pixel tra il punto nella prima immagine ed il suo omologo nella seconda sottraendo un valore costante derivante (1000) e colorando il punto secondo la scala colore da verde a rosso a secondo dell'intensita' di movimento

import cv2 as cv
import matplotlib.pyplot as plt
import numpy as np
import math

originale = cv.imread(filename = 'prima.png')
originale2 = cv.imread(filename = 'prima.png')

image1 = cv.imread(filename = 'prima.png',flags = cv.IMREAD_GRAYSCALE)
image2 = cv.imread(filename = 'dopo.png',flags = cv.IMREAD_GRAYSCALE)
AKAZE = cv.AKAZE_create()

# Find the keypoints and compute the descriptors for input and training-set image
keypoints1, descriptors1 = AKAZE.detectAndCompute(image1, None)
keypoints2, descriptors2 = AKAZE.detectAndCompute(image2, None)

# FLANN parameters
FLANN_INDEX_KDTREE = 1

index_params = dict(algorithm = FLANN_INDEX_KDTREE,trees = 5)
search_params = dict(checks = 50)

# Convert to float32
descriptors1 = np.float32(descriptors1)
descriptors2 = np.float32(descriptors2)

# Create FLANN object
FLANN = cv.FlannBasedMatcher(indexParams = index_params,searchParams = search_params)

# Matching descriptor vectors using FLANN Matcher
matches = FLANN.knnMatch(queryDescriptors = descriptors1,
trainDescriptors = descriptors2,
k = 2)

ratio_thresh = 0.7
good_matches = []
for m, n in matches:
if m.distance < ratio_thresh * n.distance:
distanza = math.sqrt(pow((keypoints1[m.queryIdx].pt[0] - keypoints2[n.trainIdx].pt[0]), 2) + pow((keypoints1[m.queryIdx].pt[1] - keypoints2[n.trainIdx].pt[1]), 2))
distanza = distanza - 1000
colore = (0, 0, 0)
if (distanza <500.0):
colore = (73, 245, 109)
if (distanza >= 500) and (distanza <1000):
colore = (90, 248, 98)
if (distanza >= 1000) and (distanza <1500):
colore = (154, 244, 87)
if (distanza >= 1500) and (distanza <2000):
colore = (228, 178, 45)
if (distanza >= 2000) and (distanza <2500):
colore = (248, 38, 49)
if distanza >= 2500.0 :
colore = (255, 0, 27)
#print(m.distance)
cv.circle(originale, (int(keypoints2[m.trainIdx].pt[0]), int(keypoints2[m.trainIdx].pt[1])), 15, colore, -1)
good_matches.append(m)


plt.imshow(originale)
plt.show()














mercoledì 18 dicembre 2024

Debugger integrato ESP32S3

Aggiornamento

In realta' il Jtag USB funziona anche sui moduli cinesi

Il problema risiede  nell'ID USB della porta Jtag. Nel modulo Espressif originale si trova in 303a:1001 mentre nel modulo cinese si trova in 303a:4001

Si deve quindi modificare la configurazione di OpenOCD nel file

/.espressif/tools/openocd-esp32/v0.12.0-esp32-20240821/openocd-esp32/share/openocd/scripts/interface/esp_usb_jtag.cfg 

espusbjtag vid_pid 0x303a 0x4001
espusbjtag caps_descriptor 0x2000


modificando Pid da 1001 a 4001 ed aggiungendo la regola in udev 

ATTRS{idVendor}=="303a", ATTRS{idProduct}=="4001", MODE="664", GROUP="plugdev", TAG+="uaccess

--------------------------------------------------------------------------------------------------------

La Esp32S3 espone sui pin 19 e 20 una porta USB che puo' essere usata per fare debug....ma attenzione...questo e' valido per il DevKit ufficiale di Espressif ma non funziona con i moduli cinesi (ci sono impazzito dietro a questa cosa)

 

Si deve creare un cavo usb tagliandone uno, giuntando dei cavi Dupount femmina e connettendo

D+ (verde) a GPIO19

D- (bianco) a GPIO20

GND (nero) a GND (forse non necessario)




a questo punto connettendo la scheda con lsusb si legge Espressif USB Jtag Serial (che si e' andato su /dev/ttyACM0) come debugger e CP210x UART Bridge come /dev/ttyUSB0 per la normale connessione con Esp32

a questo punto si ha il seguente errore nell'avviare il server OpenOCD

libusb_open() failed with LIBUSB_ERROR_ACCESS

prima di tutto si deve inserire l'utente nel gruppo plugdev

sudo usermod -a -G plugdev luca

poi si crea un file 99-jtag.rules con contenuto 

ATTRS{idVendor}=="303a", ATTRS{idProduct}=="1001", MODE="664", GROUP="plugdev", TAG+="uaccess"

e lo si copia in /etc/udev/rules.d. (i valori sono ripresi da comando lsusb). Si aggiorna plugdev

sudo udevadm control --reload-rules & sudo udevadm trigger

si avvia il server OpenOcd

openocd -f board/esp32s3-builtin.cfg

e poi da dentro Visual Code plugin ESP-IDF si clicca su Flash (se il progetto e' configurato bene inizia anche il debug) Select Flash Mode JTAG port /dev/ttyUSB0

ed ecco alla fine avviata la sessione di debug usando l'esempio Fibonacci




JRP7008

Schermo a risoluzione 1024x600 con connessione HDMI.

Lo ho comprato a 35 euro


per utilizzarlo con Raspberry si modifica il file confix.txt nella SdCard

max_usb_current=1
hdmi_force_hotplug=1
config_hdmi_boost=10
hdmi_group=2
hdmi_mode=87
hdmi_cvt 1024 600 60 6 0 0 0

 

Lo schermo si puo' usarea come display secondario su Debian senza nessuna ulteriore configurazione


 

 

Arducam IMX519 16 Mpx

Ho provato la Arducam 16 Mpx basata sul sensore Sony IMX519

 


 Per prima cosa c'e' da evindenziare che il supporto non e' nativo su Raspberry a differenza delle PiCam. Le istruzioni per montare il driver si trovano a questo link 

 https://docs.arducam.com/Raspberry-Pi-Camera/Native-camera/16MP-IMX519/


La camera si utilizza con libcamera e permette di salvare in DNG  e raw

domenica 15 dicembre 2024

Topotag

Aggiornamento

da esplicita richiesta su GitHub gli sviluppatori mi hanno indicato che la licenza d'uso e' solo per ricerca ed e' esplicitamente vietato l'uso commerciale

-------------------------------------------------------------------------------------------

Nella grande famiglia dei fiducial markers ho trovato i Topotag che promettono di surclassare Apriltag e Arucotag

Il codice della libreria si trova su Github https://github.com/herohuyongtao/topotag  ma si deve evidenziare che viene distribuita solo in formato binario per Windows .dll (niente Linux) senza specificare il tipo di licenza

I due file binari (generator e detector) funzionano a linea di comando passando i parametri tramite il file yaml

 


 


 

 


 


 

 

 

giovedì 12 dicembre 2024

Deep Tag

Ho provato un riconoscimento neurale di tag (di varia natura ma nel mio caso Aruco ed Apriltag) mediante il codice presente  https://github.com/herohuyongtao/deeptag-pytorch

L'articolo di riferimento si trova qui

La configurazione e' fatta tramite un file json (nel mio caso ho provato sia il video via webcam sia una foto  con l'esempio sottostante)

Un aspetto da non trascurare e' che il software richiede oltre al punto principale cx,cy alla lunghezza focale fx,fy ed i coefficienti di distorsione radiale k1-k6 anche i coefficienti di distorsione tangenziale p1 2 p2 che con gli esempi di opencv non vengono calcolati (ho impostato a zero in quanto non li avevo disponibili)

Anche senza l'uso di GPU il calcolo e' abbastanza spedito (non proprio realtime ma si avvicina)



{
"is_video":0,
"filepath":"q/novembre.jpg",
"family": "aruco",
"hamming_dist": 8,
"codebook": "",
"cameraMatrix": [2694.308, 0, 1793.8734, 0, 2704.6156, 1058.7691, 0, 0, 1],
"distCoeffs": [-0.41168919, 0.26635946, -0.0017025, 0.00744752, -0.16179997, 0, 0, 0],
"marker_size": 0.25
}
 

Change Detection with structural similarity

L'idea di base e' quella di cercare le differenze tra le due immagini sottostanti Non e' immediatamente visibile ma ci sono dei ...