Mi e' stata regalata una batteria di un portatile Asus ormai esaurita
La forma mi ha incuriosito visto che sembrava sostanzialmente un cilindro.....vuoi mettere che hanno usato delle batterie standard tipo quelle delle sigarette elettroniche
Ed infatti....delle 1865
Su una delle batterie e' stata trovsta la sonda di una termocoppia
martedì 10 dicembre 2019
venerdì 6 dicembre 2019
Openvino e Neural Compute Stick 2
Per poter utilizzare Neural Compute Stick 2 di Intel si deve installare Openvino Toolkit
La procedura di installazione e' lineare su Ubuntu e non porta problemi
Ogni volta che si vorra' utilizzare l'SDK si deve ricordare di impostare le variabili di ambiente con
La procedura di installazione e' lineare su Ubuntu e non porta problemi
Ogni volta che si vorra' utilizzare l'SDK si deve ricordare di impostare le variabili di ambiente con
source /home/luca/openvino/bin/setupvars.sh
Per utilizzare il Neural Compute Stick e' necessario installare i driver con la procedura
sudo usermod -a -G users "$(whoami)"
sudo cp /home/luca/openvino/inference_engine/external/97-myriad-usbboot.rules /etc/udev/rules.d/
sudo udevadm control --reload-rules
sudo udevadm trigger
sudo ldconfig
Openvino funziona con processori Intel di sesta generazione o superiori, con Neural Compute Stick 2 ma ammette anche l'accelerazione grafica delle GPU Intel tramite OpenCL andando nella directory openvino/install_dependencies/ e digitando
./install_NEO_OCL_driver.sh
Per iniziare a provare Openvino si possono usare gli esempi (sia in C che in Python) riportati al seguente indirizzo.
Un'altra sorgente di informazioni si trovano a NCAPPZOO
Una volta effettuato il make il file eseguibile si trovera' nella cartella inference_engine_demos_build/intel64/Release (nello stesso momenti, oltre alla compilazione degli eseguibili, vengono scaricati da Internet anche i modelli della rete neurale)
Provando l'esempio Age e Gender di NCAPPZOO si deve andare nella directory ~/intel/ncappzoo/networks/age_gender_net, si installano le dipendenze delle librerie Python e si processa l'immagine di esempio (i parametri del programma hanno dei valori di default ma possono cambiati da linea di comando)
age_gender_net: Starting application...
- Plugin: Myriad
- IR File: ./age-gender-recognition-retail-0013.xml
- Input Shape: [1, 3, 62, 62]
- Age Output Shape: [1, 1, 1, 1]
- Gender Output Shape: [1, 2, 1, 1]
Gender prediction is 98.4% Male
Age prediction is 59 years old.
- Plugin: Myriad
- IR File: ./age-gender-recognition-retail-0013.xml
- Input Shape: [1, 3, 62, 62]
- Age Output Shape: [1, 1, 1, 1]
- Gender Output Shape: [1, 2, 1, 1]
Gender prediction is 98.4% Male
Age prediction is 59 years old.
in alcuni casi ho dovuto modificare a mano i file Python per problemi con la codifica UTF-8 aggiungendo la stringa # -*- coding: utf-8 -*-
sd
PS3 al cassonetto
Ho trovato questa PS3 che occhieggiava semi nascosta in un cassonetto...ho provato a vedere se era ancora funzionante. Conosco veramente poco l'hardware PS3 ma tentare costava poco
L'alimentatore della PS3 e' interno quindi e' stato sufficiente trovare un normale cavo di alimentazione
Ho scoperto che la PS3 ha un HD (era stato rimosso nel mio ritrovamente) e che e' necessario per l'avvio del sistema ma fortunatamente si tratta di un comune SATA e ne avevo alcuni parcheggiati per casa...con 6 euro mi sono comprato un adattore e lo ho inserito
Per caricare il firmware basta creare una chiavetta USB con le istruzioni direttamente da Sony
La procedura e' abbastanza lineare..il problema che al riavvio ho notato la scritta sullo schermo Demostration Mode...ho capito subito di avere un problema
Cercando su internet il demostration mode e' una sorta di modalita' ridotta in cui non si puo' configurare la rete e non si puo' nemmeno spengere la consolle (una sorta di modalita' da negozio)...fortunatamente non impedisce di giocare...quindi la consolle nel cassonetto e' stata gettata funzionante
L'alimentatore della PS3 e' interno quindi e' stato sufficiente trovare un normale cavo di alimentazione
Ho scoperto che la PS3 ha un HD (era stato rimosso nel mio ritrovamente) e che e' necessario per l'avvio del sistema ma fortunatamente si tratta di un comune SATA e ne avevo alcuni parcheggiati per casa...con 6 euro mi sono comprato un adattore e lo ho inserito
Per caricare il firmware basta creare una chiavetta USB con le istruzioni direttamente da Sony
La procedura e' abbastanza lineare..il problema che al riavvio ho notato la scritta sullo schermo Demostration Mode...ho capito subito di avere un problema
Cercando su internet il demostration mode e' una sorta di modalita' ridotta in cui non si puo' configurare la rete e non si puo' nemmeno spengere la consolle (una sorta di modalita' da negozio)...fortunatamente non impedisce di giocare...quindi la consolle nel cassonetto e' stata gettata funzionante
martedì 3 dicembre 2019
Installare sviluppo OpenCL su Ubuntu
questa procedura e' stata provata su un Lenovo T460 con una Intel HD 520
I pacchetti da installare sono i seguenti
Per compilare su Linux make base ha una forma del tipo
hello: hello.cpp
g++ -std=c++0x -o hello hello.cpp -lOpenCL
I pacchetti da installare sono i seguenti
$ sudo apt install ocl-icd-libopencl1 $ sudo apt install opencl-headers $ sudo apt install clinfo $ sudo apt install ocl-icd-opencl-dev $ sudo apt install beignet
Per verificare l'installazione si puo' usare
clinfo
--------------------------------------
Number of platforms 1
Platform Name Intel Gen OCL Driver
Platform Vendor Intel
Platform Version OpenCL 2.0 beignet 1.3
Platform Profile FULL_PROFILE
Platform Extensions cl_khr_global_int32_base_atomics cl_khr_global_int32_extended_atomics cl_khr_local_int32_base_atomics cl_khr_local_int32_extended_atomics cl_khr_byte_addressable_store cl_khr_3d_image_writes cl_khr_image2d_from_buffer cl_khr_depth_images cl_khr_spir cl_khr_icd cl_intel_accelerator cl_intel_subgroups cl_intel_subgroups_short cl_khr_gl_sharing
Platform Extensions function suffix Intel
Platform Name Intel Gen OCL Driver
Number of devices 1
Device Name Intel(R) HD Graphics Skylake ULT GT2
Device Vendor Intel
Device Vendor ID 0x8086
Device Version OpenCL 2.0 beignet 1.3
Driver Version 1.3
Device OpenCL C Version OpenCL C 2.0 beignet 1.3
Device Type GPU
Device Profile FULL_PROFILE
Device Available Yes
Compiler Available Yes
Linker Available Yes
Max compute units 24
Max clock frequency 1000MHz
Device Partition (core)
Max number of sub-devices 1
Supported partition types None, None, None
Max work item dimensions 3
Max work item sizes 512x512x512
Max work group size 512
Preferred work group size multiple 16
Preferred / native vector sizes
char 16 / 8
short 8 / 8
int 4 / 4
long 2 / 2
half 0 / 8 (cl_khr_fp16)
float 4 / 4
double 0 / 2 (n/a)
Half-precision Floating-point support (cl_khr_fp16)
Denormals No
Infinity and NANs Yes
Round to nearest Yes
Round to zero No
Round to infinity No
IEEE754-2008 fused multiply-add No
Support is emulated in software No
Single-precision Floating-point support (core)
Denormals No
Infinity and NANs Yes
Round to nearest Yes
Round to zero No
Round to infinity No
IEEE754-2008 fused multiply-add No
Support is emulated in software No
Correctly-rounded divide and sqrt operations No
Double-precision Floating-point support (n/a)
Address bits 32, Little-Endian
Global memory size 3869245440 (3.604GiB)
Error Correction support No
Max memory allocation 2901409792 (2.702GiB)
Unified memory for Host and Device Yes
Shared Virtual Memory (SVM) capabilities (core)
Coarse-grained buffer sharing Yes
Fine-grained buffer sharing No
Fine-grained system sharing No
Atomics No
Minimum alignment for any data type 128 bytes
Alignment of base address 1024 bits (128 bytes)
Preferred alignment for atomics
SVM 0 bytes
Global 0 bytes
Local 0 bytes
Max size for global variable 65536 (64KiB)
Preferred total size of global vars 65536 (64KiB)
Global Memory cache type Read/Write
Global Memory cache size 8192 (8KiB)
Global Memory cache line size 64 bytes
Image support Yes
Max number of samplers per kernel 16
Max size for 1D images from buffer 65536 pixels
Max 1D or 2D image array size 2048 images
Base address alignment for 2D image buffers 4096 bytes
Pitch alignment for 2D image buffers 1 pixels
Max 2D image size 8192x8192 pixels
Max 3D image size 8192x8192x2048 pixels
Max number of read image args 128
Max number of write image args 8
Max number of read/write image args 8
Max number of pipe args 16
Max active pipe reservations 1
Max pipe packet size 1024
Local memory type Local
Local memory size 65536 (64KiB)
Max number of constant args 8
Max constant buffer size 134217728 (128MiB)
Max size of kernel argument 1024
Queue properties (on host)
Out-of-order execution No
Profiling Yes
Queue properties (on device)
Out-of-order execution Yes
Profiling Yes
Preferred size 16384 (16KiB)
Max size 262144 (256KiB)
Max queues on device 1
Max events on device 1024
Prefer user sync for interop Yes
Profiling timer resolution 80ns
Execution capabilities
Run OpenCL kernels Yes
Run native kernels Yes
SPIR versions 1.2
printf() buffer size 1048576 (1024KiB)
Built-in kernels __cl_copy_region_align4;__cl_copy_region_align16;__cl_cpy_region_unalign_same_offset;__cl_copy_region_unalign_dst_offset;__cl_copy_region_unalign_src_offset;__cl_copy_buffer_rect;__cl_copy_image_1d_to_1d;__cl_copy_image_2d_to_2d;__cl_copy_image_3d_to_2d;__cl_copy_image_2d_to_3d;__cl_copy_image_3d_to_3d;__cl_copy_image_2d_to_buffer;__cl_copy_image_3d_to_buffer;__cl_copy_buffer_to_image_2d;__cl_copy_buffer_to_image_3d;__cl_fill_region_unalign;__cl_fill_region_align2;__cl_fill_region_align4;__cl_fill_region_align8_2;__cl_fill_region_align8_4;__cl_fill_region_align8_8;__cl_fill_region_align8_16;__cl_fill_region_align128;__cl_fill_image_1d;__cl_fill_image_1d_array;__cl_fill_image_2d;__cl_fill_image_2d_array;__cl_fill_image_3d;
Device Extensions cl_khr_global_int32_base_atomics cl_khr_global_int32_extended_atomics cl_khr_local_int32_base_atomics cl_khr_local_int32_extended_atomics cl_khr_byte_addressable_store cl_khr_3d_image_writes cl_khr_image2d_from_buffer cl_khr_depth_images cl_khr_spir cl_khr_icd cl_intel_accelerator cl_intel_subgroups cl_intel_subgroups_short cl_khr_gl_sharing cl_khr_fp16
NULL platform behavior
clGetPlatformInfo(NULL, CL_PLATFORM_NAME, ...) Intel Gen OCL Driver
clGetDeviceIDs(NULL, CL_DEVICE_TYPE_ALL, ...) Success [Intel]
clCreateContext(NULL, ...) [default] Success [Intel]
clCreateContextFromType(NULL, CL_DEVICE_TYPE_DEFAULT) Success (1)
Platform Name Intel Gen OCL Driver
Device Name Intel(R) HD Graphics Skylake ULT GT2
clCreateContextFromType(NULL, CL_DEVICE_TYPE_CPU) No devices found in platform
clCreateContextFromType(NULL, CL_DEVICE_TYPE_GPU) Success (1)
Platform Name Intel Gen OCL Driver
Device Name Intel(R) HD Graphics Skylake ULT GT2
clCreateContextFromType(NULL, CL_DEVICE_TYPE_ACCELERATOR) No devices found in platform
clCreateContextFromType(NULL, CL_DEVICE_TYPE_CUSTOM) No devices found in platform
clCreateContextFromType(NULL, CL_DEVICE_TYPE_ALL) Success (1)
Platform Name Intel Gen OCL Driver
Device Name Intel(R) HD Graphics Skylake ULT GT2
ICD loader properties
ICD loader Name OpenCL ICD Loader
ICD loader Vendor OCL Icd free software
ICD loader Version 2.2.11
ICD loader Profile OpenCL 2.1
-------------------------------------------
Ho scoperto che la Intel HD 520 non ha il supporto per la doppia precisione
Per compilare su Linux make base ha una forma del tipo
hello: hello.cpp
g++ -std=c++0x -o hello hello.cpp -lOpenCL
domenica 1 dicembre 2019
Xbox Tv Tuner su Linux
Mi hanno prestato l'Xbox One Tv Tuner per connetterlo alla Xbox One ma e' stata piu' forte la curiosita' di vedere come si comportava il dispositivo con Debian
Come indicato da questo link i moduli per far funzionare il sintonizzatore sono gia' presenti nei kernel piu' recenti. Si deve solo scaricare il firmware proprietario e copiarlo in /lib/firmware
La cosa interessanto e' che il sintonizzatore e' gia' compatibile con DB-TV2
Il dispositivo sara' indicato in /dev/dvb
Per vedere la televisione si ricercano prima i canali con
w_scan -X -P -t 2 -E 0 -c IT > dvb-channels.conf
e poi da VLC si apre il file dvb-channels.conf
Nella lista si trovano anche i canali in HD
Come indicato da questo link i moduli per far funzionare il sintonizzatore sono gia' presenti nei kernel piu' recenti. Si deve solo scaricare il firmware proprietario e copiarlo in /lib/firmware
La cosa interessanto e' che il sintonizzatore e' gia' compatibile con DB-TV2
Il dispositivo sara' indicato in /dev/dvb
Per vedere la televisione si ricercano prima i canali con
w_scan -X -P -t 2 -E 0 -c IT > dvb-channels.conf
e poi da VLC si apre il file dvb-channels.conf
Nella lista si trovano anche i canali in HD
mercoledì 27 novembre 2019
Convidere tastiera e mouse con Barrier
Ho provato ad usare Barrier, un software che permette di condividere tastiera e mouse tra piu' computer. Non si tratta di un clone di VNC perche' ogni computer deve avere il proprio monitor (non si puo' quindi fare amministrazione remota) e perche' le risorse non sono condivise (i programmi sono eseguiti sul calcolatore su cui vengono lanciati)
Si tratta quindi di un utilizzo un po' di nicchia ma che puo' essere comunque utile
Il programma esiste per Linux, Windows e Mac ed e' indifferente quale macchina fa da server (quella da cui vengono presi gli input di tastiera e mouse) e quali da client. L'unica cosa da impostare e' indicare l'IP della macchina server ed indicare l'hostname delle macchine client
Non sono riuscito a farlo funzionare su Gnome Shell di Debian in modalita' server ma la stessa macchina utilizzando I3 funziona bene
Si tratta quindi di un utilizzo un po' di nicchia ma che puo' essere comunque utile
Il programma esiste per Linux, Windows e Mac ed e' indifferente quale macchina fa da server (quella da cui vengono presi gli input di tastiera e mouse) e quali da client. L'unica cosa da impostare e' indicare l'IP della macchina server ed indicare l'hostname delle macchine client
Non sono riuscito a farlo funzionare su Gnome Shell di Debian in modalita' server ma la stessa macchina utilizzando I3 funziona bene
martedì 26 novembre 2019
Classificazione binaria foraminferi con Tensorflow
Per continuare gli esperimenti questa una classificazione binaria con Tensorflow.
Le due categorie sono riprese dal precedente post (1500 elementi)
train
======================================================
import os
a_dir = os.path.join('./train/globigerinoides_ruber')
b_dir = os.path.join('./train/globigerina_bulloides')
print('globigerinoides_ruber images:', len(os.listdir(a_dir)))
print('globigerina_bulloides images:', len(os.listdir(b_dir)))
import matplotlib.pyplot as plt
import matplotlib.image as mpimg
batch_size = 16
from tensorflow.keras.preprocessing.image import ImageDataGenerator
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense, Conv2D, Flatten, Dropout, MaxPooling2D
from tensorflow.keras.preprocessing.image import ImageDataGenerator
train_datagen = ImageDataGenerator(rescale=1/255)
train_generator = train_datagen.flow_from_directory(
'./train_binary',
target_size=(200, 200),
batch_size=batch_size,
shuffle=True,
class_mode='binary')
import tensorflow as tf
model = Sequential([
Conv2D(16, 3, padding='same', activation='relu', input_shape=(200, 200 ,3)),
MaxPooling2D(),
Conv2D(32, 3, padding='same', activation='relu'),
MaxPooling2D(),
Conv2D(64, 3, padding='same', activation='relu'),
MaxPooling2D(),
Flatten(),
Dense(512, activation='relu'),
Dense(1, activation='sigmoid')
])
model.compile(optimizer='adam',
loss='binary_crossentropy',
metrics=['accuracy'])
model.summary()
total_sample=train_generator.n
n_epochs = 15
history = model.fit_generator(
train_generator,
steps_per_epoch=int(total_sample/batch_size),
epochs=n_epochs,
verbose=1)
model.save('1500el_5classi_binary_model.h5')
======================================================
predict
======================================================
import tensorflow as tf
from tensorflow.keras import Model
from PIL import Image
import matplotlib.pyplot as plt
import matplotlib.image as mpimg
import sys
from numpy import asarray
import numpy as np
model = tf.compat.v2.keras.models.load_model('1500el_5classi_binary_model.h5')
image = Image.open(sys.argv[1])
image = image.resize((200,200))
pic = asarray(image)
pic = pic.astype('float32')
pic /= 255.0
pic=np.expand_dims(pic,axis=0)
prediction = model.predict(pic)
print(sys.argv[1])
float_formatter = "{:.2f}".format
np.set_printoptions(formatter={'float_kind':float_formatter})
print(prediction)
print()
======================================================
I risultati indicano 19 tentativi 13 corrette identificazioni (69%), 2 casi incerti (10.5%), 2 errori (10.5%)
Le due categorie sono riprese dal precedente post (1500 elementi)
Globigerinoides Ruber |
Globigerina Bulloides |
train
======================================================
import os
a_dir = os.path.join('./train/globigerinoides_ruber')
b_dir = os.path.join('./train/globigerina_bulloides')
print('globigerinoides_ruber images:', len(os.listdir(a_dir)))
print('globigerina_bulloides images:', len(os.listdir(b_dir)))
import matplotlib.pyplot as plt
import matplotlib.image as mpimg
batch_size = 16
from tensorflow.keras.preprocessing.image import ImageDataGenerator
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense, Conv2D, Flatten, Dropout, MaxPooling2D
from tensorflow.keras.preprocessing.image import ImageDataGenerator
train_datagen = ImageDataGenerator(rescale=1/255)
train_generator = train_datagen.flow_from_directory(
'./train_binary',
target_size=(200, 200),
batch_size=batch_size,
shuffle=True,
class_mode='binary')
import tensorflow as tf
model = Sequential([
Conv2D(16, 3, padding='same', activation='relu', input_shape=(200, 200 ,3)),
MaxPooling2D(),
Conv2D(32, 3, padding='same', activation='relu'),
MaxPooling2D(),
Conv2D(64, 3, padding='same', activation='relu'),
MaxPooling2D(),
Flatten(),
Dense(512, activation='relu'),
Dense(1, activation='sigmoid')
])
model.compile(optimizer='adam',
loss='binary_crossentropy',
metrics=['accuracy'])
model.summary()
total_sample=train_generator.n
n_epochs = 15
history = model.fit_generator(
train_generator,
steps_per_epoch=int(total_sample/batch_size),
epochs=n_epochs,
verbose=1)
model.save('1500el_5classi_binary_model.h5')
predict
======================================================
import tensorflow as tf
from tensorflow.keras import Model
from PIL import Image
import matplotlib.pyplot as plt
import matplotlib.image as mpimg
import sys
from numpy import asarray
import numpy as np
model = tf.compat.v2.keras.models.load_model('1500el_5classi_binary_model.h5')
image = Image.open(sys.argv[1])
image = image.resize((200,200))
pic = asarray(image)
pic = pic.astype('float32')
pic /= 255.0
pic=np.expand_dims(pic,axis=0)
prediction = model.predict(pic)
print(sys.argv[1])
float_formatter = "{:.2f}".format
np.set_printoptions(formatter={'float_kind':float_formatter})
print(prediction)
print()
======================================================
I risultati indicano 19 tentativi 13 corrette identificazioni (69%), 2 casi incerti (10.5%), 2 errori (10.5%)
Globigerinoides Ruber | Globigerina Bulloides | |||
Predizione | ||||
Immagini reali | ||||
Globigerina Bulloides | 1 | 0% | 100% | |
2 | 100% | 0% | ||
3 | 0% | 100% | ||
4 | 0% | 100% | ||
5 | 0% | 100% | ||
6 | 58% | 42% | ||
7 | 47% | 53% | ||
8 | 0% | 100% | ||
9 | 0% | 100% | ||
Globigerinoides Ruber | 1 | 100% | 0% | |
2 | 0% | 100% | ||
3 | 63% | 37% | ||
4 | 100% | 0% | ||
5 | 100% | 0% | ||
6 | 94% | 6% | ||
7 | 0% | 100% | ||
8 | 0% | 100% | ||
9 | 100% | 0% | ||
10 | 100% | 0% |
Iscriviti a:
Post (Atom)
Debugger integrato ESP32S3
Aggiornamento In realta' il Jtag USB funziona anche sui moduli cinesi Il problema risiede nell'ID USB della porta Jtag. Nel modulo...
-
In questo post viene indicato come creare uno scatterplot dinamico basato da dati ripresi da un file csv (nel dettaglio il file csv e' c...
-
Questo post e' a seguito di quanto gia' visto nella precedente prova Lo scopo e' sempre il solito: creare un sistema che permet...
-
La scheda ESP32-2432S028R monta un Esp Dev Module con uno schermo TFT a driver ILI9341 di 320x240 pixels 16 bit colore.Il sito di riferiment...